
Выкладываете свое очередное видео в соцсеть? С помощью ИИ оно может превратиться в компромат и предмет шантажа
Об опасностях, которые несет в себе искусственный интеллект, сказано уже не мало, но многие из нас пока очень далеки от всего, что связано с развитием ИИ. И, следует отметить, абсолютно напрасно. Потому что мошенники активно используют возможности, предоставляемые ИИ, и нежелание хотя бы вскользь изучить вопрос может превратить любого человека в жертву злоумышленников.
Скорее всего, вы уже слышали про дипфейки. Что это такое? Как говорится, лучше один раз увидеть, что сто раз услышать. В нашем случае увидеть Илона Маска, поющего «Трава у дома».
- Читайте также:
- Израильская модель Карин Бауман скончалась в возрасте 35 лет
- Что такое «образ тела» и как он влияет на наш вес?
- Искусственный интеллект лишит работы 14 миллионов
Термином «дипфейк» (англ. deepfake) принято обозначать фальшивые фотографии, аудио- и видеозаписи, созданные с помощью технологий искусственного интеллекта. Слово «дипфейк» происходит от соединения двух английских слов: deep learning – «глубинное обучение» и fake – «подделка». Если говорить коротко, то это изображение, в котором лицо человека не настоящее, а созданное или измененное искусственным интеллектом.
Для создания дипфейка используют методы генеративно-состязательной сети (сокращенно GAN) – это две нейросети, генератор и дискриминатор. Первая обрабатывает тысячи снимков объекта и на их основе сама создает изображения, а вторая пытается определить, насколько получившаяся картинка похожа на реальный объект. В итоге они все время как бы играют друг с другом: генератор пытается обмануть дискриминатор, а дискриминатор – вычислить фальшивку. Обе сети в процессе совершенствуются, в конечном итоге создавая максимально реалистичное изображение.
Все начиналось с развлечений
Изначально технологии deepfake использовали для развлечений. К примеру, можно было оживить Мону Лизу. К тому же технология была несовершенна, и заметить подделку было достаточно легко. Но в наше время все быстро меняется – как сама технология, так и цели ее использования. Злоумышленники начали создавать поддельные материалы, используя их для шантажа и дискредитации.
Дипфейки часто использовали для создания фальшивого порно якобы с участием известных людей. Получившимся видео их могли шантажировать или просто пытаться скомпрометировать. Лица женщин вырезали из фотографий, найденных в Сети, и интегрировали в порнографические видео. Эксперт по технологии Генри Аждер приводит конкретные данные: 96% дипфейков в интернете – порнография, причем в абсолютном большинстве в ней используются женские лица и образы.
Один из последних примеров использования дипфейка по отношению к политику – трансляция 5 июня видеоролика с «экстренным обращением президента России Владимира Путина». Речь шла якобы об объявлении военного положения в приграничных областях России и о намерении президента подписать указ о всеобщей мобилизации.
В связи с постоянным развитием нейросетей качество дипфейков становится все лучше с каждым месяцем, а создавать их становится все проще. По словам Хани Фарида, профессора компьютерных наук из Калифорнийского университета в Беркли, если еще пять лет назад основной целевой аудиторией для создания дипфейков были популярные актеры и политики с большим числом медиаматериалов по ним в Сети, то сейчас угроза стать жертвой дипфейка возросла даже для простых людей со скромными аккаунтами в социальных сетях.
«Сегодня злоумышленники, имея даже немного медиаматериалов с вашими данными, могут полностью клонировать ваш голос, лицо, вставить вас в любое видео. Этот контент может быть распространен по интернету с такой скоростью и масштабом, что и контролировать это практически невозможно», – сказал Фарид.
ФБР предупреждает: не стоит публиковать сотни фотографий и видео о своей жизни на всеобщее обозрение
В понедельник Центр по борьбе с интернет-преступностью ФБР выпустил предупреждение, в котором сообщил о многочисленных жалобах на участившуюся сексторцию: злоумышленники публикуют в Сети правдоподобный порнографический контент, созданный с помощью технологий машинного обучения, и грозятся распространить среди друзей и знакомых потенциальных жертв в вымогательских целях.
Представители ФБР объяснили, что любое изображение, опубликованное в интернете, может быть потенциально использовано преступниками в своих гнусных целях, в связи с чем рекомендуется тщательно контролировать свою онлайн-активность, а также активность близких родственников, особенно детей, обсуждая с ними любые потенциальные риски.
Не стоит публиковать сотни фотографий и видео о своей жизни на всеобщее обозрение. А если очень хочется, то нужно обязательно ограничить круг лиц, который имеет доступ к этим материалам. Также рекомендуется с повышенной бдительностью относиться к любым запросам на добавление в друзья или общение с людьми, которых вы не знаете лично.
Юрий Легков, НЭП. Фото: Офер Вакнин √
Будьте всегда в курсе главных событий:
