Любую победу надо еще уметь переварить. Об этом было бы полезно помнить туркам, которые всерьез решили, что судьба им улыбнулась. Обычно за головокружениями от успехов следует иллюзия, что «прокатит» теперь везде. Но можно не сомневаться – арабские страны еще обязательно скажут свое слово.
0 комментариевДепутат: Рекомендательные алгоритмы соцсетей могут манипулировать общественным сознанием
«Рекомендательные алгоритмы в соцсетях и на видеохостингах загоняют человека в информационную петлю, которая приводит к поляризации мнений и росту конфликтов», – сказал газете ВЗГЛЯД депутат Госдумы Антон Горелкин. Ранее Ассоциация коммуникационных агентств России опубликовала результаты опроса рекламодателей о восприятии рекомендательных алгоритмов.
«Радует, что те, кто отвечал на вопросы, достаточно объективно оценивают работу рекомендательных систем. Действительно, они несут в себе большую опасность, связанную с манипуляциями», – отметил зампредседателя Комитета Госдумы по информационной политике, информационным технологиям и связи Антон Горелкин.
«Эти алгоритмы непрозрачны, мы не знаем точно, как они работают. Очевидно, что в этом случае с помощью рекомендательных систем человек оказывается в своеобразной информационной петле, в информационном вакууме, который приводит и к поляризации мнений, и к росту конфликтов, – указал парламентарий. – Это действительно большая проблема. Кроме того, существует опасность манипулирования общественным сознанием, что в новую технологическую эпоху представляется угрозой информационной безопасности граждан».
«Поэтому в следующем году мы будем вносить законопроект о регулировании рекомендательных систем. Он не несет в себе каких-то запретительных мер, но должен будет предоставить пользователям выбор и прозрачность, – пояснил Горелкин. – Во-первых, они смогут отключать какие-то опции рекомендательной системы, а во-вторых, они будут понимать, как эти алгоритмы устроены».
«Для этого социальные сети будут обязаны публиковать данные своих алгоритмов, а также персонализировать лиц, которые стоят за ними. То, что некоторые компании прикрываются в этом плане технологиями искусственного интеллекта, это не совсем корректно, потому что за любой рекомендательной системой стоит конкретный человек, – уверен собеседник. – Кроме того, необходимо исключить элементы подкручивания алгоритмов с целью манипулирования. Все эти положения как раз и будут содержаться в новом законопроекте».
В пятницу исследовательский центр Ассоциации коммуникационных агентств России (АКАР) опубликовал данные опроса, проведенного среди рекламодателей и рекламных агентств о восприятии рекомендательных алгоритмов. Считается, что, основываясь на данных о профиле пользователя, а также используя различные типы фильтрации и алгоритмы машинного обучения, такие программы предоставляют потенциально интересующую пользователя информацию, товары и услуги. В опросе приняли участие 155 респондентов.
Согласно исследованию, 79% представителей рекламной индустрии считают рекомендательные алгоритмы разновидностью рекламы. Две трети опрошенных полагают, что алгоритмы могут навязать товар или услугу, но при этом каждый десятый уверен, что на него рекомендательная система не действует. Почти все опрошенные (95,5%) отмечают, что после просмотра контента алгоритмы рекомендуют пользователям аналогичные материалы.
Ранее похожее исследование проводилось Региональным общественным центром интернет-технологий (РОЦИТ). АКАР решил узнать именно мнение профессионалов.
«Процент тех, кто знает о том, что такое рекомендательные алгоритмы, примерно одинаков как среди массовой аудитории, которую исследовал РОЦИТ, так и в профессиональных сообществах, опрошенных АКАР», – говорит директор АКАР Валентин Смоляков.