Фото малыша, «протестующего» на пешеходном переходе, всего лишь промо к тому, что нас ждет перед выборами
Фотография малыша, сидящего на коврике с флагом на пешеходном переходе, вызвала, что неудивительно, резонанс в соцсетях. Одни комментаторы утверждали, что фотография настоящая и необходимо привлечь родителей к ответственности, другие уверяли, что это монтаж с целью дискредитации протеста, третьи, которые оказались правы, заявляли, что это постановочная фотография и все совсем не так, как выглядит на снимке. И действительно, в агентстве Flash90 подтвердили «Деталям», что снимок подлинный и постановочный, при этом он вполне мог оказаться сгенерированным ИИ.
Снимок был сделан спонтанно: молодая женщина, пришедшая на акцию протеста вместе с ребенком, попросила фотографа сфотографировать его, после чего усадила на подстилку на дорогу, которая в тот момент уже была полностью заблокирована. Автобусы на заднем плане не «остановились перед пешеходным переходом», как могло показаться, а стоят там без водителей именно с целью блокировать дорогу.
לכל מי שחשב שמדובר בפייק, ולא הפסיק לטנף לף, לנבל את הפה ולשלוח עלי מתקפת בוטים ממכונת הרעל «שלא באמת קיימת».
תתמודדו!
באמצע הצומת הרבה אנשים מסביב איש לא מזדעזע ולא מוחה בהורים. pic.twitter.com/7Oij3BIm9B— Shlomo Filber (@filbers) July 11, 2023
Оставим в стороне тот факт, что использование маленьких детей или их фотографий в акциях протеста достаточно проблематично или как минимум спорно, даже если ребенку ничего не угрожает. И просто примем тот факт, что мы стремительно приближаемся к моменту, когда будем вынуждены признаться себе в том, что не можем доверять ни одной опубликованной в интернете фотографии.
- Читайте также:
- Скандальный снимок на акции протеста: вот как он на самом деле был создан
- Бен-Гвир выступил против актера сериала «Фауда»
- МАДА: «Из-за демонстраций машины скорой помощи не могут проехать в больницы»
Пока что только фотографии, но совсем скоро такая же участь постигнет видеоматериалы. Виной тому искусственный интеллект, инструменты на основе которого уже сегодня позволяют сгенерировать практически любое фото. И если поддельные снимки, сделанные любителями с помощью бесплатных инструментов, пока еще можно распознать, хотя и с трудом, то выполненные профессионалами изображения ничем не отличаются от реальных.
Является ли фото малыша на пешеходном переходе менее реальным, чем снимки с изображением Дональда Трампа в окружении арестовавших его полицейских; Илона Маска, держащего за руку свою конкурентку – гендиректора General Motors Мэри Барр; Владимира Путина, преклонившего колено перед председателем КНР Си Цзиньпином и целующего ему руку, и так далее? Хотя в случае с Путиным можно догадаться, что это фейк, но большинство пользователей интернета удовлетворятся тем, что фото выглядят «как настоящие», и примут их за реальные.
Еще более проблематичными будут видеоматериалы, созданные с помощью технологии deepfake («глубокого фейка»). Слово «дипфейк» происходит от соединения двух английских слов: deep learning – «глубинное обучение» и fake – «подделка». Если говорить коротко, то это изображение, в котором лицо человека не настоящее, а созданное или измененное искусственным интеллектом.
На этих видео политики, к примеру, могут говорить нечто, чего они никогда не говорили, а также делать вещи, которых не делали. Один из последних примеров использования дипфейка по отношению к политику – трансляция 5 июня видеоролика с «экстренным обращением президента России Владимира Путина». Речь шла якобы об объявлении военного положения в приграничных областях России и о намерении президента подписать указ о всеобщей мобилизации.
Не исключено, что мы столкнемся с ИИ-фото и ИИ-видео уже в ближайшее время, в ходе муниципальных выборов, где страсти кипят не меньше, чем во время выборов в кнессет, а финансирование не является проблемой. В конце концов, это простой и эффективный путь скомпрометировать мэра или, наоборот, претендента на место мэра.
Подобный нашумевший пример имел место в США накануне выборов мэра Чикаго в начале этого года. В Сети появился ролик с кандидатом от Демократической партии Полом Валласом, в котором политик рассуждал о творящемся беззаконии в Чикаго и напоминал о временах, когда никого не возмущала гибель людей в результате применения полицией огнестрельного оружия.
Позже избирательный штаб Валласа заявил, что видео – подделка, сгенерированная при помощи искусственного интеллекта, однако к тому моменту оно уже получило широкое распространение в Сети. Выборы Валлас проиграл, и остается только гадать, повлиял ли фейковый ролик на решение избирателей.
Естественно, вся надежда на поисковики и соцсети, которые разрабатывают механизмы по отслеживанию контента, созданного нейросетями. Соцсети уже заявляют, что будут удалять контент, содержащий дезинформацию, независимо от того, был ли медиапродукт создан в обычном графическом редакторе или при помощи ИИ. Поисковики также намереваются маркировать синтетический контент, нанося на него водяные знаки.
Вопрос в том, смогут ли модераторы противостоять шквалу контента, созданному искусственным интеллектом, ведь во время выборов и предвыборные штабы, и избиратели будут иметь доступ к мощным инструментам на основе ИИ, способным создавать правдоподобные фейки за считаные секунды.
При всем уважении к муниципальным выборам в Израиле, ответ на этот вопрос мы получим не сейчас, а в 2024 году во время президентских выборов в США. Если во время выборов 2020 года программы, генерирующие с помощью ИИ фото и видео, делали первые шаги и выдавали далеко не самый качественный контент, то через год мы столкнемся уже с совсем другим уровнем созданного ИИ контента.
Юрий Легков, «Детали». Фото: AP Photo √
Будьте всегда в курсе главных событий:
