Выкладываете свое очередное видео в соцсеть? С помощью ИИ оно может превратиться в компромат и предмет шантажа

Выкладываете свое очередное видео в соцсеть? С помощью ИИ оно может превратиться в компромат и предмет шантажа

Об опасностях, которые несет в себе искусственный интеллект, сказано уже не мало, но многие из нас пока очень далеки от всего, что связано с развитием ИИ. И, следует отметить, абсолютно напрасно. Потому что мошенники активно используют возможности, предоставляемые ИИ, и нежелание хотя бы вскользь изучить вопрос может превратить любого человека в жертву злоумышленников.

Скорее всего, вы уже слышали про дипфейки. Что это такое? Как говорится, лучше один раз увидеть, что сто раз услышать. В нашем случае увидеть Илона Маска, поющего «Трава у дома».



Термином «дипфейк» (англ. deepfake) принято обозначать фальшивые фотографии, аудио- и видеозаписи, созданные с помощью технологий искусственного интеллекта. Слово «дипфейк» происходит от соединения двух английских слов: deep learning – «глубинное обучение» и fake – «подделка». Если говорить коротко, то это изображение, в котором лицо человека не настоящее, а созданное или измененное искусственным интеллектом.

Для создания дипфейка используют методы генеративно-состязательной сети (сокращенно GAN) – это две нейросети, генератор и дискриминатор. Первая обрабатывает тысячи снимков объекта и на их основе сама создает изображения, а вторая пытается определить, насколько получившаяся картинка похожа на реальный объект. В итоге они все время как бы играют друг с другом: генератор пытается обмануть дискриминатор, а дискриминатор – вычислить фальшивку. Обе сети в процессе совершенствуются, в конечном итоге создавая максимально реалистичное изображение.

Все начиналось с развлечений

Изначально технологии deepfake использовали для развлечений. К примеру, можно было оживить Мону Лизу. К тому же технология была несовершенна, и заметить подделку было достаточно легко. Но в наше время все быстро меняется – как сама технология, так и цели ее использования. Злоумышленники начали создавать поддельные материалы, используя их для шантажа и дискредитации.

Дипфейки часто использовали для создания фальшивого порно якобы с участием известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в Сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в интернете – порнография, причем в абсолютном большинстве в ней используются женские лица и образы.

Один из последних примеров использования дипфейка по отношению к политику – трансляция 5 июня видеоролика с «экстренным обращением президента России Владимира Путина». Речь шла якобы об объявлении военного положения в приграничных областях России и о намерении президента подписать указ о всеобщей мобилизации.

В связи с постоянным развитием нейросетей качество дипфейков становится все лучше с каждым месяцем, а создавать их становится все проще. По словам Хани Фарида, профессора компьютерных наук из Калифорнийского университета в Беркли, если еще пять лет назад основной целевой аудиторией для создания дипфейков были популярные актеры и политики с большим числом медиаматериалов по ним в Сети, то сейчас угроза стать жертвой дипфейка возросла даже для простых людей со скромными аккаунтами в социальных сетях.

«Сегодня злоумышленники, имея даже немного медиаматериалов с вашими данными, могут полностью клонировать ваш голос, лицо, вставить вас в любое видео. Этот контент может быть распространен по интернету с такой скоростью и масштабом, что и контролировать это практически невозможно», – сказал Фарид.

ФБР предупреждает: не стоит публиковать сотни фотографий и видео о своей жизни на всеобщее обозрение

В понедельник Центр по борьбе с интернет-преступностью ФБР выпустил предупреждение, в котором сообщил о многочисленных жалобах на участившуюся сексторцию: злоумышленники публикуют в Сети правдоподобный порнографический контент, созданный с помощью технологий машинного обучения, и грозятся распространить среди друзей и знакомых потенциальных жертв в вымогательских целях.

Представители ФБР объяснили, что любое изображение, опубликованное в интернете, может быть потенциально использовано преступниками в своих гнусных целях, в связи с чем рекомендуется тщательно контролировать свою онлайн-активность, а также активность близких родственников, особенно детей, обсуждая с ними любые потенциальные риски.

Не стоит публиковать сотни фотографий и видео о своей жизни на всеобщее обозрение. А если очень хочется, то нужно обязательно ограничить круг лиц, который имеет доступ к этим материалам. Также рекомендуется с повышенной бдительностью относиться к любым запросам на добавление в друзья или общение с людьми, которых вы не знаете лично.

Юрий Легков, НЭП. Фото: Офер Вакнин √

Будьте всегда в курсе главных событий:

Подписывайтесь на ТГ-канал "Детали: Новости Израиля"

Новости

На восстановление кибуца Нир-Оз не хватает 200 миллионов шекелей
Советника Трампа заставили ответить на вопрос о возвращении украинских детей из России
Израиль нанес точечный удар по больнице «Насер»: кто был целью?

Популярное

Минтранс рекомендует отказаться от ежегодного техосмотра автомобилей

Министерство транспорта намерено принять рекомендацию Управления госрегулирования и сократить частоту...

Прогноз погоды в Израиле: когда спадет жара, и будут ли еще дожди

В субботу, 15 марта, по данным сайта метеослужбы ims.gov.il, малооблачно и жарко, местами туман. Температура...

МНЕНИЯ