Соцсети заблокировали поиск по имени Тейлор Свифт из-за дипфейк-порно с ее изображением, но и это не решает проблему

Соцсети заблокировали поиск по имени Тейлор Свифт из-за дипфейк-порно с ее изображением, но и это не решает проблему

Соцсеть X (ранее Twitter) отключила поиск по словам Taylor Swift в ответ на массовое распространение порнографических изображений певицы, сгенерированных с помощью искусственного интеллекта. Если ввести в поиск Taylor Swift или Taylor Swift AI, пользователь увидит сообщение «Something went wrong». Глава бизнес-подразделений X Джо Беннарок сообщил, что это временная мера, которая используется «с большой осторожностью».

По заявлению X, платформа «активно удаляет все идентифицированные изображения» и блокирует публикующие их аккаунты.

Как отмечает The New York Times, фейковые откровенные фотографии Свифт распространялись в X всю неделю. Утверждается, что они были сгенерированы в специализированном Telegram-боте. Одну из этих фотографий до приостановки выдачи результатов поиска успели посмотреть 47 миллионов раз.

Соцсеть Meta также присоединилась к решению проблемы: запрос AI Taylor Swift заблокирован и в Threads, и в Instagram. Вместо результатов поиска пользователь увидит сообщение о том, что «этот термин может быть связан с деятельностью опасных организаций и частных лиц».

Журналисты The Verge отмечают, что обойти ограничение в поиске крайне легко. Например, изменив порядок слов («Тейлор AI Свифт» вместо «Тейлор Свифт AI»), взяв имя певицы в кавычки, открыв поиск по медиафайлам вместо общего и тому подобное.

Эта проблема привлекла внимание Белого дома. Пресс-секретарь Белого дома Карин Жан-Пьер назвала инцидент тревожным и призвала Конгресс США принять законодательство для защиты людей от дипфейк-порно.

Любой, кто выложил фото или видео в соцсети, «благодаря» ИИ может превратиться в порнозвезду

Об опасностях, которые несет в себе искусственный интеллект, сказано уже не мало, но многие из нас пока очень далеки от всего, что связано с развитием ИИ. И, следует отметить, абсолютно напрасно. Потому что мошенники активно используют возможности, предоставляемые искусственным интеллектом, и нежелание хотя бы вскользь изучить вопрос может превратить любого человека в жертву злоумышленников.

Термином «дипфейк» (англ. deepfake) принято обозначать фальшивые фотографии, аудио- и видеозаписи, созданные с помощью технологий искусственного интеллекта. Слово «дипфейк» происходит от соединения двух английских слов: deep learning – «глубинное обучение» и fake – «подделка». Если говорить коротко, то это изображение, в котором лицо человека не настоящее, а созданное или измененное искусственным интеллектом.

Для создания дипфейка используют методы генеративно-состязательной сети (сокращенно GAN) – это две нейросети, генератор и дискриминатор. Первая обрабатывает тысячи снимков объекта и на их основе сама создает изображения, а вторая пытается определить, насколько получившаяся картинка похожа на реальный объект. В итоге они все время как бы играют друг с другом: генератор пытается обмануть дискриминатор, а дискриминатор – вычислить фальшивку. Обе сети в процессе совершенствуются, в конечном итоге создавая максимально реалистичное изображение.

Все начиналось с развлечений

Изначально технологии deepfake использовали для развлечений. К примеру, можно было оживить Мону Лизу. К тому же технология была несовершенна, и заметить подделку было достаточно легко. Но в наше время все быстро меняется – как сама технология, так и цели ее использования. Злоумышленники начали создавать поддельные материалы, используя их для шантажа и дискредитации.



Дипфейки часто использовали для создания фальшивого порно якобы с участием известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в Сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в интернете – порнография, причем в абсолютном большинстве случаев в ней используются женские лица и образы.

В связи с постоянным развитием нейросетей качество дипфейков становится все лучше с каждым месяцем, а создавать их становится все проще. По словам Хани Фарида, профессора компьютерных наук из Калифорнийского университета в Беркли, если еще пять лет назад основными объектами для создания дипфейков были популярные актеры и политики с большим числом медиаматериалов по ним в Сети, то сейчас угроза стать жертвой дипфейка возросла даже для простых людей со скромными аккаунтами в социальных сетях.

«Сегодня злоумышленники, имея даже немного медиаматериалов с вашими данными, могут полностью клонировать ваш голос, лицо, вставить вас в любое видео. Этот контент может быть распространен по интернету с такой скоростью и масштабом, что и контролировать это практически невозможно», – сказал Фарид.

«Детали», Ю.Л. Фото: Depositphotos.com

Будьте всегда в курсе главных событий:

Подписывайтесь на ТГ-канал "Детали: Новости Израиля"

Новости

Опубликовано имя еще одного погибшего в Бат-Яме
На Голанах сбили три иранских беспилотника
Ущерб более миллиарда шекелей: на данный момент подано 9900 исков в компенсационный фонд

Популярное

«День гнева» в Европе пройдет 15 июня. Жители европейских городов объединились против туристов

Собрались провести отпуск в Европе? Может быть, вам там вовсе не рады. В воскресенье, 15 июня, там пройдут...

В Эйлат приплыла самая большая в мире рыба

Редкий и захватывающий момент произошел вчера (в воскресенье) в Эйлатском заливе. Там показалась китовая...

МНЕНИЯ