Правительственное законодательство о пометке и модерировании опасного контента в социальных сетях может быть эффективным средством снижения вреда даже на быстроразвивающихся платформах, таких как X (ранее Twitter), как показывают новые исследования.
Сообщения в социальных сетях, такие как те, которые пропагандируют терроризм и ненависть, опасные вызовы, которые ставят под угрозу жизнь подростков, или те, которые приукрашивают самоубийство, представляют серьезную угрозу для общества. И этот вред распространяется экспоненциально, как инфекционное заболевание.
Доктор Мариан-Андрей Ризою из лаборатории поведенческих данных Технологического университета Сиднея (UTS) и Филипп Дж. Шнайдер из Федеральной политехнической школы Лозанны использовали современное моделирование распространения информации для анализа динамики распространения контента.
Исследование «Эффективность модерирования вредоносного онлайн-контента» было опубликовано в журнале PNAS . Выяснилось, что даже при 24-часовом сроке выполнения внешняя модерация, уполномоченная правительством, может быть эффективной в ограничении вреда.
«Социальные сети не имеют особых стимулов для борьбы с вредоносным контентом , поскольку их бизнес-модель основана на монетизации внимания», — говорит доктор Мариан-Андрей Ризою из Технологического университета Сиднея ( UTS) Лаборатория поведенческих данных.
«Илон Маск приобрел Twitter с заявленной целью сохранить свободу слова для будущего. Однако наряду со свободой слова в этом нерегулируемом пространстве распространяется и процветает дезинформация».
В ответ многие страны, включая Австралию, стремятся вмешаться и регулировать ситуацию. Европейский совет предпринял новаторский шаг, приняв Закон о цифровых услугах и Закон о цифровых рынках для борьбы с распространением опасного контента.
Законодательство ЕС требует, чтобы доверенные флагманы выявляли вредоносный контент, который затем платформы должны были удалить в течение 24 часов. Однако критики предположили, что закон может быть неэффективным, учитывая скорость, с которой распространяется контент в социальных сетях .
«Мы видели в Твиттере примеры, когда распространение поддельного изображения взрыва возле Пентагона приводило к падению фондового рынка США в считанные минуты, поэтому были сомнения относительно того, повлияют ли новые правила ЕС», говорит доктор Ризою.
Чтобы лучше понять взаимосвязь между задержкой модерации и вероятным достигнутым снижением вреда, исследователи изучили два ключевых показателя: потенциальный вред и период полураспада контента.
Потенциальный вред представляет собой количество вредоносных потомков, созданных одной публикацией, а период полураспада контента означает время, необходимое для создания половины всех потомков.
Предыдущие исследования определили период полураспада постов в социальных сетях на разных платформах.
«Меньший период полураспада означает, что большая часть вреда происходит сразу после публикации контента, и модерация контента должна выполняться быстро, чтобы быть эффективной. Мы обнаружили, что время реакции, необходимое для модерации контента, увеличивается как с периодом полураспада контента, так и с потенциальным вредом ,» он сказал.
Исследование имеет значение для политиков, стремящихся ввести аналогичное законодательство в других странах. Он может предоставить основу и ценное руководство по механизмам модерации контента, указывая, на чем сосредоточить усилия по проверке фактов и как быстро реагировать.
«Ключом к успешному регулированию является назначение доверенных контролеров, разработка эффективного инструмента для сообщения о вредоносном контенте на разных платформах и правильный расчет необходимого времени реакции на модерацию», — говорит доктор Ризою.
«Понимая динамику распространения контента, оптимизируя усилия по модерации и внедряя такие правила, как ACT ЕС о цифровых услугах, мы можем стремиться к более здоровому и безопасному цифровому общественному пространству, где снижается вредоносное содержание и процветает конструктивный диалог».