Выкладываете свое очередное видео в соцсеть? С помощью ИИ оно может превратиться в компромат и предмет шантажа

Выкладываете свое очередное видео в соцсеть? С помощью ИИ оно может превратиться в компромат и предмет шантажа

Об опасностях, которые несет в себе искусственный интеллект, сказано уже не мало, но многие из нас пока очень далеки от всего, что связано с развитием ИИ. И, следует отметить, абсолютно напрасно. Потому что мошенники активно используют возможности, предоставляемые ИИ, и нежелание хотя бы вскользь изучить вопрос может превратить любого человека в жертву злоумышленников.

Скорее всего, вы уже слышали про дипфейки. Что это такое? Как говорится, лучше один раз увидеть, что сто раз услышать. В нашем случае увидеть Илона Маска, поющего «Трава у дома».



Термином «дипфейк» (англ. deepfake) принято обозначать фальшивые фотографии, аудио- и видеозаписи, созданные с помощью технологий искусственного интеллекта. Слово «дипфейк» происходит от соединения двух английских слов: deep learning – «глубинное обучение» и fake – «подделка». Если говорить коротко, то это изображение, в котором лицо человека не настоящее, а созданное или измененное искусственным интеллектом.

Для создания дипфейка используют методы генеративно-состязательной сети (сокращенно GAN) – это две нейросети, генератор и дискриминатор. Первая обрабатывает тысячи снимков объекта и на их основе сама создает изображения, а вторая пытается определить, насколько получившаяся картинка похожа на реальный объект. В итоге они все время как бы играют друг с другом: генератор пытается обмануть дискриминатор, а дискриминатор – вычислить фальшивку. Обе сети в процессе совершенствуются, в конечном итоге создавая максимально реалистичное изображение.

Все начиналось с развлечений

Изначально технологии deepfake использовали для развлечений. К примеру, можно было оживить Мону Лизу. К тому же технология была несовершенна, и заметить подделку было достаточно легко. Но в наше время все быстро меняется – как сама технология, так и цели ее использования. Злоумышленники начали создавать поддельные материалы, используя их для шантажа и дискредитации.

Дипфейки часто использовали для создания фальшивого порно якобы с участием известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в Сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в интернете – порнография, причем в абсолютном большинстве в ней используются женские лица и образы.

Один из последних примеров использования дипфейка по отношению к политику – трансляция 5 июня видеоролика с «экстренным обращением президента России Владимира Путина». Речь шла якобы об объявлении военного положения в приграничных областях России и о намерении президента подписать указ о всеобщей мобилизации.

В связи с постоянным развитием нейросетей качество дипфейков становится все лучше с каждым месяцем, а создавать их становится все проще. По словам Хани Фарида, профессора компьютерных наук из Калифорнийского университета в Беркли, если еще пять лет назад основной целевой аудиторией для создания дипфейков были популярные актеры и политики с большим числом медиаматериалов по ним в Сети, то сейчас угроза стать жертвой дипфейка возросла даже для простых людей со скромными аккаунтами в социальных сетях.

«Сегодня злоумышленники, имея даже немного медиаматериалов с вашими данными, могут полностью клонировать ваш голос, лицо, вставить вас в любое видео. Этот контент может быть распространен по интернету с такой скоростью и масштабом, что и контролировать это практически невозможно», – сказал Фарид.

ФБР предупреждает: не стоит публиковать сотни фотографий и видео о своей жизни на всеобщее обозрение

В понедельник Центр по борьбе с интернет-преступностью ФБР выпустил предупреждение, в котором сообщил о многочисленных жалобах на участившуюся сексторцию: злоумышленники публикуют в Сети правдоподобный порнографический контент, созданный с помощью технологий машинного обучения, и грозятся распространить среди друзей и знакомых потенциальных жертв в вымогательских целях.

Представители ФБР объяснили, что любое изображение, опубликованное в интернете, может быть потенциально использовано преступниками в своих гнусных целях, в связи с чем рекомендуется тщательно контролировать свою онлайн-активность, а также активность близких родственников, особенно детей, обсуждая с ними любые потенциальные риски.

Не стоит публиковать сотни фотографий и видео о своей жизни на всеобщее обозрение. А если очень хочется, то нужно обязательно ограничить круг лиц, который имеет доступ к этим материалам. Также рекомендуется с повышенной бдительностью относиться к любым запросам на добавление в друзья или общение с людьми, которых вы не знаете лично.

Юрий Легков, НЭП. Фото: Офер Вакнин √

Новости

Недовольный пациент пригрозил медикам, что вернется в больницу и всех убьет
Аномальная жара: где в Израиле зафиксированы температурные рекорды?
Iran International раскрыл подробности бегства на Запад бывшего командира КСИР

Популярное

Гендиректор «Авиационной промышленности»: «Такой эффективности ПВО мы даже не обещали покупателям»

Успешным отражением иранской атаки Израиль в первую очередь обязан противоракетному комплексу «Хец»...

Протест таксистов «Бен-Гуриона» принес результаты: стоимость междугородних поездок на такси вырастет примерно на 20%

Проблема огромных очередей на такси в международном аэропорту «Бен-Гурион», возникшая из-за нежелания...

МНЕНИЯ