ИИ создал плачущего младенца в Газе – и новую угрозу для потребителей новостей

ИИ создал плачущего младенца в Газе – и новую угрозу для потребителей новостей

Среди множества фотографий разбомбленных домов и превращенных в руины улиц в секторе Газа выделяются снимки брошенных, истекающих кровью детей. За минувшие два месяца они публиковались в социальных сетях миллионы раз, и это – фальшивка, так называемый дипфейк, методика синтеза изображения или голоса, основанная на искусственном интеллекте.

Пристально рассмотрев фотографии, можно заподозрить неладное – например, странно расположенные по отношению к ладони пальцы или глаза, изучающие неестественный свет.

Таким образом, использование искусственного интеллекта в целых пропаганды становится свершившимся фактом. С началом войны в социальных сетях появились десятки картинок, созданных с помощью цифровых технологий для того, чтобы дискредитировать Израиль и распространить информацию об ужасах, которые в реальности никогда не происходили.

Большинство ложных сведений, публикующихся в интернете, не связаны с искусственным интеллектом. Тем не менее, все более широкое использование новых технологий, которое практически никак не контролируется, вызывает особую тревогу. Искусственный интеллект становится оружием нового типа, которое может быть применено и в будущих вооруженных конфликтах, и в политической борьбе – например, в ходе предвыборных кампаний.



«Эта проблема становится все более серьезной, — говорит Жан-Клод Гольденстайн, генеральный директор компании CREOpoint, создавшей базу данных «вирусных» сообщений из сектора Газа, являющихся фальшивкой. – Искусственный интеллект выводит на новый уровень возможность фальсификации изображения и голоса. Это ведет к непредсказуемому развитию событий».

В ряде случаев фотографии, сделанные на месте других вооруженных конфликтов или стихийных бедствий, были выданы за снимки из сектора Газа. Но некоторые фальшивки были созданы с нуля – как, например, изображения плачущего на руинах дома младенца, получившие широкое распространение в первые дни войны. С помощью искусственного интеллекты были изготовлены картинки, якобы запечатлевшие летящие в сектор Газа израильские ракеты, мчащиеся по разрушенным улицам танки или заплаканных мирных жителей, разыскивающих своих родных среди обломков.

Большинство этих фальшивок призваны вызвать мощную эмоциональную реакцию. Поэтому на них, как правило, присутствуют тела погибших младенцев и их родных. В первые дни войны и сторонники Израиля, и те, кто поддерживают ХАМАС, обвиняли друг друга в истязании детей. Фальшивые фотографии плачущих младенцев были призваны служить «документальным доказательством» этих утверждений.

Создатели подобных фальшивок прекрасно знают, как эффективно воздействовать на эмоции потенциальных зрителей. Амран Ахмад, директор Центра борьбы с ненавистью в виртуальном пространстве, подчеркивает, что подлинная фотография младенца и такое же изображение, созданное с помощью искусственного интеллекта, оказывают на людей одинаковое влияние. Чем ужаснее картинка, тем выше шансы на то, что он получит широкое распространение в сети. «А фальшивая информация для того и создается, чтобы привлечь к себе максимальное внимание», — объясняет Ахмад.

Легко создать, трудно опровергнуть

Ложная информация, создаваемая с помощью искусственного интеллекта, начала распространяться и после российского вторжения в Украину. В одном из фальшивых видеороликов президент Украины Владимир Зеленский призывал сограждан к капитуляции. С тех пор прошло полтора года, но эту «новость» продолжают обсуждать в сети до сих пор. Это еще раз показывает, насколько тяжело опровергнуть ложную информацию, хотя на первый взгляд она изначально выглядит абсолютно недостоверно.

Каждый вооруженный конфликт или предвыборная кампания предоставляют создателям фальшивок продемонстрировать широкие возможности искусственного интеллекта. В будущем году в США состоятся президентские выборы, и уже сейчас и демократы, и республиканцы выражают серьезную тревогу в связи с нарастающим распространением ложных новостей. Конгрессмен из Вирджинии Джерри Коннолли недавно призвал своих коллег поддержать создание нового вида искусственного интеллекта, способного бороться с уже существующими.

Впрочем, рынок уже предлагает подобные решения проблемы. Некоторые стартапы по всему миру разрабатывают технологии, способные распознавать фальшивки, помечать подлинные фотографии своеобразными водяными знаками и выявлять в текстах фразы, внедренные в них с помощью искусственного интеллекта.

«На следующем этапе своего развития искусственный интеллект сосредоточится на подтверждении подлинности распространяемой информации», — говорит Мария Амели, основательница Factiverse, норвежской компании, разработавшей искусственный интеллект, способный выявлять неточности в текстах, создаваемых другими искусственными интеллектами. Вскоре должны появиться новые компьютерные программы, с помощью которых можно будет распознавать фальшивые фотографии и видеоролики.

Но те, кто занимаются распространением ложных новостей, как правило, опережают тех, кто борется с ними. Дэвид Дреман, специалист в области искусственного интеллекта, сотрудничавший с Управлением перспективных исследовательских проектов министерства обороны США, объясняет, что сосредоточить усилия нужно не только на разработке новых технологий, но и на принятии более жесткой регуляции относительно публикаций в интернете. «Как только мы с помощью искусственного интеллекта создаем механизм для распознавания ложной информации, наши противники делают следующий ход, — говорит Дреман. – Они, применяя аналогичную технологию, увиливают от ловушки. Невозможно просто взять и заблокировать ложную информацию, создаваемую с помощью искусственного интеллекта. Для этого необходимы более широкие действия».

«Детали», по материалам информационных агентств, Б.Е. Фото: Depositphotos.com

Новости

Джо Байден и другие мировые лидеры обратились к ХАМАСу
«Двадцать бульдозеров открывают дорогу целой дивизии» – как воюют на D9
ЦАХАЛ: Около 150 тысяч палестинцев начали эвакуироваться из Рафиаха

Популярное

Гендиректор «Авиационной промышленности»: «Такой эффективности ПВО мы даже не обещали покупателям»

Успешным отражением иранской атаки Израиль в первую очередь обязан противоракетному комплексу «Хец»...

После успеха против иранских ракет минобороны расширит программу производства систем «Хец»

Израильские системы ПВО успешно перехватили баллистические ракеты. Теперь военное ведомство планирует...

МНЕНИЯ