Искусственный интеллект угрожает памяти о Катастрофе

Искусственный интеллект угрожает памяти о Катастрофе

Опубликованный доклад ЮНЕСКО предупреждает о необходимости решительных мер по внедрению этических принципов, поскольку ИИ может искажать историю Холокоста и разжигать антисемитизм. В докладе предупреждается, что генеративный ИИ не только позволяет злоумышленникам распространять дезинформацию, но также может сам непреднамеренно создавать ложный, вводящий в заблуждение контент о Катастрофе европейского еврейства.

В докладе, опубликованном в партнерстве со Всемирным еврейским конгрессом, объясняется: учащиеся все чаще используют генеративный ИИ для выполнения заданий и поиска информации в Интернете. Они рискуют столкнуться с искаженной информацией о Холокосте, которая может распространяться через контент, созданный ИИ.

Поскольку 80% молодых людей в возрасте от 10 до 24 лет сейчас используют ИИ несколько раз в день в образовательных, развлекательных и других целях, необходимо срочно принять меры по этическому руководству этими новыми технологиями.

Генеративный ИИ обучается с использованием огромных объемов данных из Интернета, способных содержать вводящий в заблуждение или вредный контент. Системы ИИ наследуют человеческие предубеждения, искажая информацию о конкретных событиях и усиливая предрассудки. В отчете отмечается, что из-за отсутствия контроля, руководства и модерации со стороны разработчиков ИИ, инструменты генеративного ИИ могут также обучаться на данных с веб-сайтов, отрицающих Холокост.

Также документально подтверждено, что ИИ позволяет злоумышленникам искажать материалы, связанные с Холокостом, создавать сфабрикованные свидетельства и даже изменять исторические источники. Дипфейковые изображения и аудиоконтент, созданные с помощью генеративного искусственного интеллекта, особенно убедительны для молодых людей-пользователей социальных сетей.



Генеративные модели ИИ склонны изобретать или «дорисовывать» события, личности и даже исторические явления, когда у них нет доступа к достаточным данным. В отчете подчеркивается, что ChatGPT и Bard от Google создали контент с подробным описанием событий Холокоста, которых никогда не было.  ChatGPT полностью сфабриковал концепцию кампаний «Холокост через утопление», в ходе которых нацисты топили евреев в реках и озерах, а Бард генерировал фальшивые цитаты свидетелей с искаженными рассказами о массовых убийствах Холокоста.

Помимо риска манипуляций и фальшивок, подрывающих доверие к экспертам, в докладе подчеркивается склонность ИИ чрезмерно упрощать сложную историю, отдавая предпочтение узкому кругу источников и небольшому выбору событий. В поисковых системах, работающих на базе искусственного интеллекта, 60–80% самых популярных изображений относятся к одному месту Холокоста — Освенциму-Биркенау.

ЮНЕСКО просит правительства ускорить реализацию рекомендации организации по этике ИИ, глобального стандарта в этой области, единогласно принятого ее государствами-членами в 2021 году.

ЮНЕСКО также призывает технологические компании на стадии проектирования встраивать в приложения такие принципы, как справедливость, прозрачность, права человека и должная осмотрительность. В феврале 2024 года  восемь технологических компаний первыми подписали обязательство применять этический подход к разработке новых инструментов искусственного интеллекта.

«Детали», Н.Б. Фото: Моти Кимхи

Будьте всегда в курсе главных событий:

Подписывайтесь на ТГ-канал "Детали: Новости Израиля"

Новости

Иорданская разведка сорвала смертоносный теракт со взрывом на КПП «Алленби».
На 6-м шоссе арестовали палестинца по дороге к теракту: подробности
5000 антиизраильских инцидентов: в Германии создан спецотряд по борьбе с антисемитизмом

Популярное

Ryanair: уже никто никуда не летит

Как сообщали «Детали», первые сведения об очередной отмене целого ряда рейсов ирландского лоукостера Ryanair в...

В любимых израильтянами странах больше не рады туристам

Туристические центры Южной Европы – в частности, такие города, как Барселона, Лиссабон и Афины – устали от...

МНЕНИЯ