Anthropic: китайские хакеры использовали искусственный интеллект Claude для автоматических кибератак
Американская компания Anthropic, разработчик чат-бота с искусственным интеллектом Claude, заявила, что выявила попытки кибератак, осуществленные группой, связанной с китайским правительством, с помощью ее технологий.
Согласно отчету Anthropic, опубликованному в блоге компании, злоумышленники маскировались под специалистов по кибербезопасности и поручали чат-боту выполнение небольших автоматических задач, которые в совокупности образовывали «высокотехнологичную шпионскую операцию».
По данным исследователей, цели атак выбирали люди — среди них были технологические корпорации, финансовые учреждения, химические компании и госструктуры. После этого хакеры с помощью Claude создавали программный код, позволявший автоматически взламывать системы и извлекать данные при минимальном участии человека.
Anthropic утверждает, что чат-боту удалось проникнуть в сети нескольких организаций и классифицировать украденную информацию, прежде чем доступ злоумышленников был заблокирован. Компания сообщила о происшествии пострадавшим и правоохранительным органам
Некоторые специалисты отнеслись к заявлению Anthropic скептически. Эксперт компании Bitdefender Мартин Зугец отметил, что отчет содержит «смелые, но спекулятивные выводы», не подкрепленные доказательствами: «Это важный сигнал о растущей угрозе, но для оценки реального уровня опасности нужно больше конкретных данных».
Ранее аналогичные случаи фиксировались и другими компаниями. В феврале 2024 года OpenAI и Microsoft сообщили о пяти группах хакеров, связанных с различными государствами, включая Китай, которые пытались использовать их сервисы для поиска информации, перевода и проверки программного кода.
AI против AI
Anthropic утверждает, что тот же искусственный интеллект, который применялся для атак, может быть использован и для защиты: «Способности, позволяющие Claude выполнять подобные задачи, делают его также незаменимым инструментом киберобороны», — говорится в сообщении компании.
Тем не менее, исследователи признали, что система совершала ошибки — например, придумывала несуществующие логины и пароли или считала открытые данные секретными.
На фоне роста интереса к ИИ многие эксперты предупреждают, что угроза «автоматизированных кибератак» все еще преувеличена.
В ноябре специалисты Google опубликовали исследование, в котором указали, что ИИ пока не способен эффективно создавать новое вредоносное ПО, а большинство подобных экспериментов остаются на стадии тестирования.
Некоторые аналитики полагают, что компании могут преувеличивать опасность, чтобы подчеркнуть важность собственных продуктов в сфере защиты.
Инцидент с Claude стал первым официально задокументированным случаем использования ИИ в масштабной шпионской операции, если данные Anthropic подтвердятся.
«Детали», Ю.Л. Фото: Depositphotos.com
Будьте всегда в курсе главных событий:
