
Втайне от всех ИИ заставлял пользователей Reddit менять свою точку зрения
В начале этого года в популярном сообществе Reddit разгорелся громкий скандал. Как выяснилось, команда исследователей из Цюрихского университета провела тайный эксперимент в популярном форуме r/changemyview. В этом разделе пользователи обсуждают спорные темы и готовы менять свою точку зрения под влиянием веских аргументов. Но пользователи не ожидали, что их оппонентом может стать искусственный интеллект, замаскированный под обычных участников форума.
Как сообщает независимый веб-сайт 404 Media, в течение четырех месяцев боты, созданные на основе языковых моделей, оставили более 1700 комментариев под разными аккаунтами. Для большей убедительности они выдавали себя за людей с разным жизненным опытом: жертв насилия, специалистов по работе с травмами, представителей различных этнических групп. Каждый бот подбирал аргументы индивидуально, анализируя историю сообщений собеседника. Для этого использовался отдельный ИИ, который определял возраст, пол, политические взгляды и другие личные детали пользователя.
ИИ-боты могут убеждать людей
Главная цель эксперимента — выяснить, насколько эффективно искусственный интеллект может убеждать людей и менять их мнение. Результаты оказались впечатляющими: по данным черновика научной работы, ИИ-боты меняли взгляды пользователей в 3−6 раз чаще, чем обычные участники дискуссий. В системе r/changemyview это фиксируется специальной отметкой, которую ставят те, кто признал, что изменил свое мнение после аргументов оппонента.
Однако вскоре после завершения эксперимента модераторы и пользователи узнали о происходящем. Сообщество возмутилось: никто не давал согласия на участие в исследовании, а правила форума прямо запрещают использовать ботов и скрывать факт генерации комментариев с помощью ИИ. Модераторы подали официальную жалобу в университет и потребовали не публиковать результаты работы, а также наказать исследователей.
Reddit поддержал своих пользователей: руководство платформы заявило о серьезных нарушениях и готовности подать юридические претензии к авторам эксперимента. Главный юрист Reddit назвал действия исследователей не только неэтичными, но и противоречащими правилам сайта и общепринятым нормам работы с людьми.
Авторы эксперимента, в свою очередь, утверждают, что их работа поможет лучше понять риски массового применения ИИ для манипуляций в интернете. Они уверяют, что тщательно проверяли все комментарии перед публикацией и не допустили прямого вреда.
Так или иначе, эксперимент однозначно показал, что большинство пользователей не смогли отличить бота от реального человека, а это значит, что ИИ уже сегодня способен влиять на мнения в цифровых сообществах — и делать это незаметно для окружающих.
«Детали», Ю.Л. Фото: Depositphotos.com ∇
Будьте всегда в курсе главных событий:
