Многим пользователям социальных сетей надоели разногласия и экстремизм, с которыми они сталкиваются на таких платформах, как Twitter. Но этот вид контента более распространен, чем когда-либо. Чем объясняется несоответствие?
По словам Уильяма Брэди, доцента Школы менеджмента Келлогга Северо-Западного университета, распространенность морального возмущения в Интернете можно частично объяснить нашей психологией.
Брэди недавно провел новое исследование, опубликованное 10 апреля 2023 года в журнале Nature Human Behavior, в котором исследуется, почему люди склонны ошибочно воспринимать других как более злых, чем они есть на самом деле в сети. В свою очередь, по его словам, пользователи, как правило, взаимодействуют с триггерным контентом, тем самым усиливая его и придавая ему алгоритмический импульс.
Таким образом, мы видим больше этого, хотя это может быть именно то, чего мы хотим избежать.
«Вы можете понять, почему это может быть проблематично», — сказал Брейди. «Если мы думаем, что люди более возмущены, чем они есть на самом деле, мы можем подумать, что это нормально, что может привести к тому, что мы приспособимся к этому мнению, потому что мы, как правило, хорошо осведомлены о том, что делают наши социальные сети».
Чтобы проверить, насколько восприятие людьми чужого гнева в Интернете отличается от того, что на самом деле чувствуют люди, размещающие контент, в исследовании был использован уникальный подход, в котором участвовали как наблюдатели, так и постеры контента в Твиттере.
Авторы использовали машинное обучение для выявления людей, которые писали об американской политике в Твиттере с высоким или низким уровнем возмущения. Затем они связались с авторами твитов и попросили согласившихся пользователей сообщить — в течение 15 минут после публикации — как они были счастливы или возмущены, когда писали конкретный твит .
Позже они показали твиты 650 другим людям и попросили их оценить, насколько счастливыми или возмущенными, по их мнению, были плакаты.
Они обнаружили, что в целом наблюдатели подразумевали больше возмущения, чем на самом деле присутствовало в заявлениях плакатов, но более точно оценивали счастье. По словам Брейди, это отражает человеческую склонность уделять больше внимания негативной информации, а иногда и чрезмерно интерпретировать ее.
В последующих связанных исследованиях авторы также показывали разным участникам искусственные новостные ленты, состоящие либо из более возмущенных, либо из более нейтральных политических твитов, и просили их оценить, насколько возмущенным, по их мнению, был средний пользователь платформы.
Как и следовало ожидать, те, кто видел более возмущенную новостную ленту, сделали вывод, что люди в Твиттере в целом были более возмущены, и они сосредоточились только на нескольких особенно полных возмущения твитах, чтобы прийти к такому выводу.
Наконец, авторы попросили третью группу, которая видела те же новостные ленты, оценить уместность новых фальшивых твитов, которые были либо полны возмущения, либо нейтральны. Те, кто видел больше возмущенных лент, оценили полные возмущения посты как более социально подходящие для платформы, намекая на порочный круг, в котором более возмутительное поведение считается нормальным.
Подобные взаимодействия могут иметь серьезные последствия. Брейди отметил, что в США растет чувство аффективной поляризации, а это означает, что политические группы все больше не любят друг друга. Одной из причин этого является то, что члены одной группы склонны думать, что средние члены противоположных групп более экстремальны, чем они есть на самом деле.
Но социальные сети не являются — и не должны быть — простой спиралью нарастающей токсичности. Большая часть контента, который мы видим, уже позитивна: он может быть теплым, забавным или привлекающим внимание, потому что он интересный, а не провокационный.
Брейди сказал, что как социальные сети, так и пользователи могут сыграть свою роль в детоксикации Интернета.
«Если бы компании социальных сетей стремились находить и регулировать наиболее экстремальный контент, это могло бы на самом деле не сильно повредить вовлечению, потому что большая часть этого контента продвигается небольшим меньшинством пользователей, которые являются наиболее экстремальными и наиболее политически активными». — сказал Брэди.
В будущем алгоритмы потенциально могут быть переработаны, чтобы избежать использования нашего влечения к наиболее негативному контенту, а пользователи могут быть осведомлены о том, как работают алгоритмы, за счет большей прозрачности.
Что касается пользователей, всем нам было бы полезно сделать паузу, когда мы сталкиваемся с разделяющим или подстрекательским контентом, и подумать о том факте, что он не всегда точно отражает то, что чувствует средний человек в нашей социальной сети, сказал Брейди.
Наконец, если вы сомневаетесь, помните, что онлайн-пространства, такие как текстовые сообщения, не имеют контекста, подсказок и тонкостей личных разговоров. Когда твой папа отвечает «спасибо» или «👍» к вдумчивому тексту вы знаете, что его плоскость не признак холодности; он просто папа.
Иногда стоит помнить то же самое о незнакомцах: двусмысленный контент не обязательно должен интерпретироваться негативно как само собой разумеющееся.