Организаторы Давоса объявили «дезинформацию» самым опасным «краткосрочным риском» и одним из наиболее опасных (наряду с климатической угрозой) долгосрочных рисков для человечества. А еще в прошлом году дезинформация не входила в давосский шорт-лист угроз.
Что изменилось?
Мегавыборы – они пройдут в 70 странах, включая Россию, ЕС, Индию, США, и затронут большую часть человечества;
Генеративный AI – техническая возможность создавать неограниченное количество неподконтрольного контента;
Все большее расхождение повестки политических элит и масс, все большее их взаимное раздражение, что дает низкие рейтинги большинства мировых политических флагманов и – напротив – небывало высокие для альтернативных и несистемных политиков и партийных проектов.
Давосским языком: «растущая социальная поляризация, увеличение хрупкости демократий, нарастание геополитического напряжения и расширение технических возможностей для дезинформационных кампаний, связанное с развитием искусственного интеллекта».
Отмечается, что «авторитарные страны» (Китай, Россия, Иран, монархии Персидского залива) достигли большого успеха в демонстрации конкурентности своих моделей в социально-экономическом или технологическом плане. То, что Китай является поставщиком инноваций и технологий, Россия экономически растет быстрее ЕС, а ОАЭ с Катаром богатеют и вовсе без выборов, стало большой политической проблемой для Запада.
Что важно понимать про «дезинформацию» в современном мировом новоязе?
«Дезинформация» – это не недостоверная информация, это распространение информационных сообщений или оценок, противоречащих актуальной повестке дня элит. Хрупкая конструкция. Завтрашняя «дезинформация» сегодня еще «правда». Легитимное или даже дискуссионное высказывание в специфической, профессиональной, например, аудитории для массовой аудитории становится «дезинформацией».
Как с вакцинами в ковид, когда научно неопровержимая фраза, что у вакцин, как у любых препаратов, есть противопоказания и побочные эффекты, становилась поводом для банов, а кое-где и уголовных дел.
Чтобы «сдерживать» угрозу дезинформации, нужен постоянный контроль. На всех уровнях – от стратегического (то есть контроль за соцсетями и СМИ, чтобы «распространять дезинформацию» даже в голову никому не приходило) до ситуативного – следить за меняющейся повесткой и присваивать номинацию «дезинформация» своевременно. А в условиях, когда ИИ может наделать любого контента сколько хочешь, это тяжело.
Чем бороться с угрозой кроме уже очевидно неэффективных «центров проверки контента», в которые залили кучу денег и ресурсов в ковид?
Новые законы о соцсетях, возлагающие на них ответственность за то, что пишут пользователи, и обязательства по максимально быстрому удалению информации (фактически новое прочтение цензуры), принимаются повсеместно от Бразилии до ЕС.
Новые законы о «противодействии ненависти и дискриминации», криминализирующие потенциально любое эмоционально окрашенное высказывание в области политики, социальной сферы, культуры, тоже принимают скопом.
Воспитание «самоцензуры» у технологических гигантов. Именно из-за отказа от этой самоцензуры масковский «Твиттер» (теперь «Х») вызывает бешеную ненависть и претензии. Зато не подводят разработчики ИИ. Непосредственно на Давосе OpenAI выкатили «дорожную карту» и «принципы», по которым они будут противодействовать «дезинформации» на выборах – если убрать шелуху, планируется запретить «чатику» создавать неправильный политический контент аппаратно. Буквально, система будет отказываться производить контент по определенным ключевым словам и понятиям.
Больше проектов воспитания молодого поколения в русле толерантности, климатической повестки и прочих повесток, актуальных для мирового начальства, больше работы с Глобальным Югом в этом направлении.
План пока обнародован в таком виде. Посмотрим, поможет ли. (Скорее, нет). Но сам факт, что свободное распространение информации, критически описывающей поведение страновых и международных элит, «подрывает миропорядок» и является главной угрозой цивилизации в 2024-м – важная характеристика того, что сам форум называет «поликризисом».