ИИ создал плачущего младенца в Газе – и новую угрозу для потребителей новостей
Среди множества фотографий разбомбленных домов и превращенных в руины улиц в секторе Газа выделяются снимки брошенных, истекающих кровью детей. За минувшие два месяца они публиковались в социальных сетях миллионы раз, и это – фальшивка, так называемый дипфейк, методика синтеза изображения или голоса, основанная на искусственном интеллекте.
Пристально рассмотрев фотографии, можно заподозрить неладное – например, странно расположенные по отношению к ладони пальцы или глаза, изучающие неестественный свет.
Gaza pic.twitter.com/3lzkIzyG8P
— Aya Isleem 🇵🇸 #Gaza (@AyaIsleemEn) October 16, 2023
Таким образом, использование искусственного интеллекта в целых пропаганды становится свершившимся фактом. С началом войны в социальных сетях появились десятки картинок, созданных с помощью цифровых технологий для того, чтобы дискредитировать Израиль и распространить информацию об ужасах, которые в реальности никогда не происходили.
Большинство ложных сведений, публикующихся в интернете, не связаны с искусственным интеллектом. Тем не менее, все более широкое использование новых технологий, которое практически никак не контролируется, вызывает особую тревогу. Искусственный интеллект становится оружием нового типа, которое может быть применено и в будущих вооруженных конфликтах, и в политической борьбе – например, в ходе предвыборных кампаний.
- Читайте также:
- ЦАХАЛ активно использует искусственный интеллект при выборе целей для атак в секторе Газа
- Искусственный интеллект, созданный в Израиле, на треть снизил смертность после инсультов
- Корпорация Палливуд представляет
«Эта проблема становится все более серьезной, — говорит Жан-Клод Гольденстайн, генеральный директор компании CREOpoint, создавшей базу данных «вирусных» сообщений из сектора Газа, являющихся фальшивкой. – Искусственный интеллект выводит на новый уровень возможность фальсификации изображения и голоса. Это ведет к непредсказуемому развитию событий».
В ряде случаев фотографии, сделанные на месте других вооруженных конфликтов или стихийных бедствий, были выданы за снимки из сектора Газа. Но некоторые фальшивки были созданы с нуля – как, например, изображения плачущего на руинах дома младенца, получившие широкое распространение в первые дни войны. С помощью искусственного интеллекты были изготовлены картинки, якобы запечатлевшие летящие в сектор Газа израильские ракеты, мчащиеся по разрушенным улицам танки или заплаканных мирных жителей, разыскивающих своих родных среди обломков.
Большинство этих фальшивок призваны вызвать мощную эмоциональную реакцию. Поэтому на них, как правило, присутствуют тела погибших младенцев и их родных. В первые дни войны и сторонники Израиля, и те, кто поддерживают ХАМАС, обвиняли друг друга в истязании детей. Фальшивые фотографии плачущих младенцев были призваны служить «документальным доказательством» этих утверждений.
This tweet, with 60,000 tweets, 67,000 likes and 1.6 million views, claims to show images of Israeli strikes in «Gaza tonight».
The problem? None of the images in the tweet are from tonight. pic.twitter.com/aUDlwDWop2
— Shayan Sardarizadeh (@Shayan86) October 28, 2023
Создатели подобных фальшивок прекрасно знают, как эффективно воздействовать на эмоции потенциальных зрителей. Амран Ахмад, директор Центра борьбы с ненавистью в виртуальном пространстве, подчеркивает, что подлинная фотография младенца и такое же изображение, созданное с помощью искусственного интеллекта, оказывают на людей одинаковое влияние. Чем ужаснее картинка, тем выше шансы на то, что он получит широкое распространение в сети. «А фальшивая информация для того и создается, чтобы привлечь к себе максимальное внимание», — объясняет Ахмад.
Легко создать, трудно опровергнуть
Ложная информация, создаваемая с помощью искусственного интеллекта, начала распространяться и после российского вторжения в Украину. В одном из фальшивых видеороликов президент Украины Владимир Зеленский призывал сограждан к капитуляции. С тех пор прошло полтора года, но эту «новость» продолжают обсуждать в сети до сих пор. Это еще раз показывает, насколько тяжело опровергнуть ложную информацию, хотя на первый взгляд она изначально выглядит абсолютно недостоверно.
Каждый вооруженный конфликт или предвыборная кампания предоставляют создателям фальшивок продемонстрировать широкие возможности искусственного интеллекта. В будущем году в США состоятся президентские выборы, и уже сейчас и демократы, и республиканцы выражают серьезную тревогу в связи с нарастающим распространением ложных новостей. Конгрессмен из Вирджинии Джерри Коннолли недавно призвал своих коллег поддержать создание нового вида искусственного интеллекта, способного бороться с уже существующими.
Впрочем, рынок уже предлагает подобные решения проблемы. Некоторые стартапы по всему миру разрабатывают технологии, способные распознавать фальшивки, помечать подлинные фотографии своеобразными водяными знаками и выявлять в текстах фразы, внедренные в них с помощью искусственного интеллекта.
«На следующем этапе своего развития искусственный интеллект сосредоточится на подтверждении подлинности распространяемой информации», — говорит Мария Амели, основательница Factiverse, норвежской компании, разработавшей искусственный интеллект, способный выявлять неточности в текстах, создаваемых другими искусственными интеллектами. Вскоре должны появиться новые компьютерные программы, с помощью которых можно будет распознавать фальшивые фотографии и видеоролики.
Thread: Israel-Hamas war misinformation — Day 22
Plenty of genuine images documenting the destruction in Gaza have been published since the conflict began.
This, however, isn’t one of them. This is an AI-generated image that’s been viewed millions of times today. pic.twitter.com/bFn98xueX5
— Shayan Sardarizadeh (@Shayan86) October 28, 2023
Но те, кто занимаются распространением ложных новостей, как правило, опережают тех, кто борется с ними. Дэвид Дреман, специалист в области искусственного интеллекта, сотрудничавший с Управлением перспективных исследовательских проектов министерства обороны США, объясняет, что сосредоточить усилия нужно не только на разработке новых технологий, но и на принятии более жесткой регуляции относительно публикаций в интернете. «Как только мы с помощью искусственного интеллекта создаем механизм для распознавания ложной информации, наши противники делают следующий ход, — говорит Дреман. – Они, применяя аналогичную технологию, увиливают от ловушки. Невозможно просто взять и заблокировать ложную информацию, создаваемую с помощью искусственного интеллекта. Для этого необходимы более широкие действия».
«Детали», по материалам информационных агентств, Б.Е. Фото: Depositphotos.com
Будьте всегда в курсе главных событий:
