Во время предвыборной кампании в США в 2016 году по соцсетям активно распространялась байка, известная как #Pizzagate. В ней утверждалось, что кандидат в президенты от демократической партии Хиллари Клинтон была замешана в эксплуатации детей в пиццерии в Вашингтоне. Эта история выглядела смехотворной и, казалось бы, никто не воспринимал ее всерьез. Ровно до того момента, пока сторонник #Pizzagate не открыл огонь по ресторану. К счастью, никто не пострадал, но этот эпизод поднял два вопроса, которые остаются актуальными и несколько лет спустя: почему в соцсетях так активно распространяются фейки? И есть ли способ эффективно им противостоять?
Конечно, фейки не разлетаются по соцсетям просто так. Этому способствуют рекомендательные алгоритмы площадок. Изначально IT-гиганты настраивали их так, чтобы они работали на концепцию «роста любой ценой»: пользователя надо было задержать на платформе как можно дольше, получить от него как можно больше вовлечения и, следовательно, «продать» его подороже рекламодателям. Бизнес, ничего личного. А дальше в ход идет человеческая психология: больше всего реакций и пользовательского внимания собирают негативные либо сенсационные материалы, апеллирующие к эмоциям. Именно поэтому фейки, скандалы, жестокий и провокационный контент активно продвигаются алгоритмами.
По тем же принципам пользователям попадаются и конспирологические теории, которые аккумулируют в себе откровенную ложь, заведомо неверные интерпретации, зачастую агрессию и провокации. Уверен, что серьезность проблемы очевидна: распространение фейков способно привести к дискриминации, преследованиям и насилию. Так, после недавней трагедии – стрельбы в начальной школе Техаса 24 мая – в соцсетях начали моментально тиражироваться дикие теории заговора и фейки о бойне. Интернет-пользователи искали виновного, обсуждали его мотивы в Twitter, Reddit и других социальных сетях. Ложные обвинения касались разнообразных меньшинств, что вызвало серьезный страх их представителей перед дальнейшей дискриминацией и насилием.
Хотя соцсети осведомлены о проблеме и даже пытаются бороться с ней, они чаще всего используют подход, который не дает должных результатов: модераторы стараются выделить наиболее опасные теории и бороться с ними. Согласно данным группы исследователей из Jigsaw, подразделения Google, и консалтинговой компании ReD, этого недостаточно для того, чтобы остановить распространение конспирологии. По мнению экспертов, важно не то, опасны ли теории, а то, в какой степени люди им были или не были подвержены. Исследователи отметили, что те, кто был глубоко одержим конспирологией, верят в безобидные заговоры с такой же вероятностью, как и в опасные.
Это подтверждает и исследование того, как распространяются конспирологические и опасные теории конкретно на YouTube. Группа ученых обнаружила, что видеохостинг редко предлагает видео, которые могут содержать теории заговора или экстремистские посылы, тем людям, которые не проявляют особого интереса к таким материалам. И эти люди вряд ли будут следовать подобным рекомендациям алгоритмов. Но это не означает, что YouTube не способен радикализовать мнения и поляризовать людей.
В ходе исследования обнаружилось, что YouTube способствует укреплению убеждений людей, подверженных конспирологии и экстремистским настроениям. Так, если углубиться в детали, то на долю 0,6% участников исследования приходится 80% общего времени просмотра YouTube-каналов, которые были классифицированы как экстремистские.
Примерно каждое четвертое видео, которое видеохостинг рекомендовал людям, смотрящим экстремистский или опасный контент, содержало деструктив. И надо понимать, что даже небольшая часть аудитории YouTube, которая регулярно это смотрит, – миллионы человек. Какие инструменты могли бы использовать ИТ-гиганты, чтобы избежать будущих #Pizzagates?
По мнению экспертов, помочь могут действия социальных сетей, направленные на приоритезацию проверенной информации, а также демонетизирование, ограничение охвата или удаление конспирологического и дезинформирующего контента. Но теории заговора и фейки адаптируются и распространяются куда быстрее, чем осуществляется фактчекинг.
На мой взгляд, в первую очередь платформы должны думать об устранении причины проблемы, а не ее последствий с помощью модерации. Как перенастроить свои алгоритмы, чтобы они не способствовали поляризации людей? Что нужно сделать, чтобы они не укрепляли убеждения пользователей, интересующихся конспирологическим или экстремистским контентом: например, не предлагали автоматический просмотр этих видео или рекомендации похожих? А главное, готовы ли они ради общественной безопасности сделать работу алгоритмов понятной и прозрачной для всех?