Искусственный интеллект угрожает памяти о Катастрофе
Опубликованный доклад ЮНЕСКО предупреждает о необходимости решительных мер по внедрению этических принципов, поскольку ИИ может искажать историю Холокоста и разжигать антисемитизм. В докладе предупреждается, что генеративный ИИ не только позволяет злоумышленникам распространять дезинформацию, но также может сам непреднамеренно создавать ложный, вводящий в заблуждение контент о Катастрофе европейского еврейства.
В докладе, опубликованном в партнерстве со Всемирным еврейским конгрессом, объясняется: учащиеся все чаще используют генеративный ИИ для выполнения заданий и поиска информации в Интернете. Они рискуют столкнуться с искаженной информацией о Холокосте, которая может распространяться через контент, созданный ИИ.
Поскольку 80% молодых людей в возрасте от 10 до 24 лет сейчас используют ИИ несколько раз в день в образовательных, развлекательных и других целях, необходимо срочно принять меры по этическому руководству этими новыми технологиями.
Генеративный ИИ обучается с использованием огромных объемов данных из Интернета, способных содержать вводящий в заблуждение или вредный контент. Системы ИИ наследуют человеческие предубеждения, искажая информацию о конкретных событиях и усиливая предрассудки. В отчете отмечается, что из-за отсутствия контроля, руководства и модерации со стороны разработчиков ИИ, инструменты генеративного ИИ могут также обучаться на данных с веб-сайтов, отрицающих Холокост.
Также документально подтверждено, что ИИ позволяет злоумышленникам искажать материалы, связанные с Холокостом, создавать сфабрикованные свидетельства и даже изменять исторические источники. Дипфейковые изображения и аудиоконтент, созданные с помощью генеративного искусственного интеллекта, особенно убедительны для молодых людей-пользователей социальных сетей.
- Читайте также:
- «7 октября ХАМАС хотел напомнить о Шоа». Интервью нобелевского лауреата Герты Мюллер
- Пережившие Холокост призывают молодых европейцев голосовать против крайне правых
- Эти еврейские польские дети мечтали переехать в Израиль. Но большинство из них погибли в Холокосте
Генеративные модели ИИ склонны изобретать или «дорисовывать» события, личности и даже исторические явления, когда у них нет доступа к достаточным данным. В отчете подчеркивается, что ChatGPT и Bard от Google создали контент с подробным описанием событий Холокоста, которых никогда не было. ChatGPT полностью сфабриковал концепцию кампаний «Холокост через утопление», в ходе которых нацисты топили евреев в реках и озерах, а Бард генерировал фальшивые цитаты свидетелей с искаженными рассказами о массовых убийствах Холокоста.
Помимо риска манипуляций и фальшивок, подрывающих доверие к экспертам, в докладе подчеркивается склонность ИИ чрезмерно упрощать сложную историю, отдавая предпочтение узкому кругу источников и небольшому выбору событий. В поисковых системах, работающих на базе искусственного интеллекта, 60–80% самых популярных изображений относятся к одному месту Холокоста — Освенциму-Биркенау.
ЮНЕСКО просит правительства ускорить реализацию рекомендации организации по этике ИИ, глобального стандарта в этой области, единогласно принятого ее государствами-членами в 2021 году.
ЮНЕСКО также призывает технологические компании на стадии проектирования встраивать в приложения такие принципы, как справедливость, прозрачность, права человека и должная осмотрительность. В феврале 2024 года восемь технологических компаний первыми подписали обязательство применять этический подход к разработке новых инструментов искусственного интеллекта.
«Детали», Н.Б. Фото: Моти Кимхи
Будьте всегда в курсе главных событий:
Подписывайтесь на ТГ-канал "Детали: Новости Израиля"