Anthropic: китайские хакеры использовали искусственный интеллект Claude для автоматических кибератак

 Anthropic: китайские хакеры использовали искусственный интеллект Claude для автоматических кибератак

Американская компания Anthropic, разработчик чат-бота с искусственным интеллектом Claude, заявила, что выявила попытки кибератак, осуществленные группой, связанной с китайским правительством, с помощью ее технологий.

Согласно отчету Anthropic, опубликованному в блоге компании, злоумышленники маскировались под специалистов по кибербезопасности и поручали чат-боту выполнение небольших автоматических задач, которые в совокупности образовывали «высокотехнологичную шпионскую операцию».

По данным исследователей, цели атак выбирали люди среди них были технологические корпорации, финансовые учреждения, химические компании и госструктуры. После этого хакеры с помощью Claude создавали программный код, позволявший автоматически взламывать системы и извлекать данные при минимальном участии человека.

Anthropic утверждает, что чат-боту удалось проникнуть в сети нескольких организаций и классифицировать украденную информацию, прежде чем доступ злоумышленников был заблокирован. Компания сообщила о происшествии пострадавшим и правоохранительным органам

Некоторые специалисты отнеслись к заявлению Anthropic скептически. Эксперт компании Bitdefender Мартин Зугец отметил, что отчет содержит «смелые, но спекулятивные выводы», не подкрепленные доказательствами: «Это важный сигнал о растущей угрозе, но для оценки реального уровня опасности нужно больше конкретных данных».

Ранее аналогичные случаи фиксировались и другими компаниями. В феврале 2024 года OpenAI и Microsoft сообщили о пяти группах хакеров, связанных с различными государствами, включая Китай, которые пытались использовать их сервисы для поиска информации, перевода и проверки программного кода.

AI против AI

Anthropic утверждает, что тот же искусственный интеллект, который применялся для атак, может быть использован и для защиты: «Способности, позволяющие Claude выполнять подобные задачи, делают его также незаменимым инструментом киберобороны», говорится в сообщении компании.

Тем не менее, исследователи признали, что система совершала ошибки например, придумывала несуществующие логины и пароли или считала открытые данные секретными.

На фоне роста интереса к ИИ многие эксперты предупреждают, что угроза «автоматизированных кибератак» все еще преувеличена.

В ноябре специалисты Google опубликовали исследование, в котором указали, что ИИ пока не способен эффективно создавать новое вредоносное ПО, а большинство подобных экспериментов остаются на стадии тестирования.

Некоторые аналитики полагают, что компании могут преувеличивать опасность, чтобы подчеркнуть важность собственных продуктов в сфере защиты.

Инцидент с Claude стал первым официально задокументированным случаем использования ИИ в масштабной шпионской операции, если данные Anthropic подтвердятся.

«Детали», Ю.Л. Фото: Depositphotos.com

Будьте всегда в курсе главных событий:

Подписывайтесь на ТГ-канал "Детали: Новости Израиля"

Новости

Три недели до «дедлайна»: Израиль атаковал цели «Хизбаллы» в Ливане
Группа израильтян пробралась в сектор Газа, чтобы попытаться основать там поселение
Дерево рухнуло на машину в Холоне: водительнице повезло

Популярное

Семья из Тель-Авива обнаружила внутри огурца шокирующую находку

Семья из Тель-Авива разрезала огурец – и обнаружила внутри нечто шокирующее. Около недели назад А. из...

Жительница Беэр-Шевы по ошибке выкинула в мусор два кольца с бриллиантами: вот что случилось потом

Жительница Беэр-Шевы Лиэль Михали по ошибке выкинула в мусор два кольца с бриллиантами на сумму около 30...

МНЕНИЯ