
Соцсети заблокировали поиск по имени Тейлор Свифт из-за дипфейк-порно с ее изображением, но и это не решает проблему
Соцсеть X (ранее Twitter) отключила поиск по словам Taylor Swift в ответ на массовое распространение порнографических изображений певицы, сгенерированных с помощью искусственного интеллекта. Если ввести в поиск Taylor Swift или Taylor Swift AI, пользователь увидит сообщение «Something went wrong». Глава бизнес-подразделений X Джо Беннарок сообщил, что это временная мера, которая используется «с большой осторожностью».
По заявлению X, платформа «активно удаляет все идентифицированные изображения» и блокирует публикующие их аккаунты.
Как отмечает The New York Times, фейковые откровенные фотографии Свифт распространялись в X всю неделю. Утверждается, что они были сгенерированы в специализированном Telegram-боте. Одну из этих фотографий до приостановки выдачи результатов поиска успели посмотреть 47 миллионов раз.
Соцсеть Meta также присоединилась к решению проблемы: запрос AI Taylor Swift заблокирован и в Threads, и в Instagram. Вместо результатов поиска пользователь увидит сообщение о том, что «этот термин может быть связан с деятельностью опасных организаций и частных лиц».
Журналисты The Verge отмечают, что обойти ограничение в поиске крайне легко. Например, изменив порядок слов («Тейлор AI Свифт» вместо «Тейлор Свифт AI»), взяв имя певицы в кавычки, открыв поиск по медиафайлам вместо общего и тому подобное.
Эта проблема привлекла внимание Белого дома. Пресс-секретарь Белого дома Карин Жан-Пьер назвала инцидент тревожным и призвала Конгресс США принять законодательство для защиты людей от дипфейк-порно.
Любой, кто выложил фото или видео в соцсети, «благодаря» ИИ может превратиться в порнозвезду
Об опасностях, которые несет в себе искусственный интеллект, сказано уже не мало, но многие из нас пока очень далеки от всего, что связано с развитием ИИ. И, следует отметить, абсолютно напрасно. Потому что мошенники активно используют возможности, предоставляемые искусственным интеллектом, и нежелание хотя бы вскользь изучить вопрос может превратить любого человека в жертву злоумышленников.
Термином «дипфейк» (англ. deepfake) принято обозначать фальшивые фотографии, аудио- и видеозаписи, созданные с помощью технологий искусственного интеллекта. Слово «дипфейк» происходит от соединения двух английских слов: deep learning – «глубинное обучение» и fake – «подделка». Если говорить коротко, то это изображение, в котором лицо человека не настоящее, а созданное или измененное искусственным интеллектом.
Для создания дипфейка используют методы генеративно-состязательной сети (сокращенно GAN) – это две нейросети, генератор и дискриминатор. Первая обрабатывает тысячи снимков объекта и на их основе сама создает изображения, а вторая пытается определить, насколько получившаяся картинка похожа на реальный объект. В итоге они все время как бы играют друг с другом: генератор пытается обмануть дискриминатор, а дискриминатор – вычислить фальшивку. Обе сети в процессе совершенствуются, в конечном итоге создавая максимально реалистичное изображение.
Все начиналось с развлечений
Изначально технологии deepfake использовали для развлечений. К примеру, можно было оживить Мону Лизу. К тому же технология была несовершенна, и заметить подделку было достаточно легко. Но в наше время все быстро меняется – как сама технология, так и цели ее использования. Злоумышленники начали создавать поддельные материалы, используя их для шантажа и дискредитации.
- Читайте также:
- Как и почему Россия стала отрицателем Холокоста
- Антиизраильская волна в США? Все не так плохо, как кажется
- 80% американцев поддерживают Израиль и выступают против мира с ХАМАСом
Дипфейки часто использовали для создания фальшивого порно якобы с участием известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в Сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в интернете – порнография, причем в абсолютном большинстве случаев в ней используются женские лица и образы.
В связи с постоянным развитием нейросетей качество дипфейков становится все лучше с каждым месяцем, а создавать их становится все проще. По словам Хани Фарида, профессора компьютерных наук из Калифорнийского университета в Беркли, если еще пять лет назад основными объектами для создания дипфейков были популярные актеры и политики с большим числом медиаматериалов по ним в Сети, то сейчас угроза стать жертвой дипфейка возросла даже для простых людей со скромными аккаунтами в социальных сетях.
«Сегодня злоумышленники, имея даже немного медиаматериалов с вашими данными, могут полностью клонировать ваш голос, лицо, вставить вас в любое видео. Этот контент может быть распространен по интернету с такой скоростью и масштабом, что и контролировать это практически невозможно», – сказал Фарид.
«Детали», Ю.Л. Фото: Depositphotos.com ∇
Будьте всегда в курсе главных событий:
