
ChatGPT на службе зла
Израильская компания в сфере кибербезопасности рассказала, как злоумышленники используют искусственный интеллект для мошенничества и создания вредоносных программ.
ChatGPT компании OpenAI облегчил жизнь не только копирайтерам и программистам, но и киберпреступникам. Недобросовестному использованию этого искусственного интеллекта посвящена большая часть нового отчета компании Sixgill.
«Злоумышленники быстро осознали, что способность ChatGPT убедительно имитировать человеческий язык ценна в качестве инструмента социальной инженерии», – отмечают авторы отчета. «Социальной инженерией» специалисты по кибербезопасности называют простой человеческий обман, когда для кражи данных или денег в интернете используют не сложные программы, а обычные мошеннические приемы. Скажем, отправляют жертве письмо от имени работника бухгалтерии и просят прислать в ответ какие-нибудь детали банковского счета.
Часто таких преступников выдают грамматические ошибки или слишком общее содержание письма, заставляющее потенциальную жертву усомниться, что его написал настоящий бухгалтер. Тут и приходит на помощь искусственный интеллект.
«ChatGPT позволяет злоумышленникам генерировать четкие и масштабные персонализированные письма для фишинга, создавать сообщения, имитирующие стиль письма доверенных лиц с использованием соответствующих тем и обходом защитных фильтров электронной почты», – предупреждает Sixgill.
- Читайте также:
- Нью-Йоркский раввин прочитал проповедь, написанную искусственным интеллектом (видео)
- Израильское шпионское ПО используется против журналистов и оппозиционеров всего мира
- Интервью с искусственным интеллектом: ChatGPT ответил на вопросы израильского сайта
Искусственный интеллект позволяет почти без усилий вступить с жертвой в полноценную переписку. В доказательство эксперты по безопасности приводя скриншот собственного диалога с ChatGPT.
Но искусственный интеллект способен не только к словесному творчеству, он еще и вполне пристойно программирует. Часто жулику бывает нужна копия какого-нибудь настоящего сайта, чтобы жертва ввела там свои данные и их можно было украсть. Так вот, авторы отчета наглядно демонстрируют, как ChatGPT менее чем за минуту делает по просьбе пользователя копию сайта корпорации Apple.
По данным Sixgill, возможности алгоритма в написании программ уже оценили киберпреступники и активно обсуждают их на своих форумах в темном сегменте интернета. Конечно, у ChatGPT есть встроенные защитные механизмы, и если просто попросить его написать шпионскую программу или компьютерный вирус, то он откажется.
«Злоумышленники используют несколько стратегий обхода ограничений OpenAI. Одна из них включает в себя творческое формулирование запросов», – объясняют авторы отчета. И приводят несколько скриншотов из переписки с искусственным интеллектом и параллельного общения хакеров на их тайном форуме. Там один бывалый, видимо, мошенник советует новичку, как работать с ИИ: «Просто не проси его написать вредоносную программу. Будь хитрее и попроси его написать каждую функцию вредоносной программы по-отдельности».
Из диалога с ChatGPT видно, что его просят сделать кейлогер – программу для записи нажатий клавиш и отправки их на удаленный IP-адрес. Поначалу ИИ отказывается, ссылаясь на неэтичность и потенциальную незаконность этого. Однако потом постепенно сдается и подсказывает собеседнику библиотеки языка программирования Python.
«Затем чат-бот предоставляет скрипт для кейлогера, написанного на Python, с припиской о том, что «этот код предназначен только для образовательных целей»», – отмечают авторы отчета Sixgill.
Другая стратегия обойти внутренний запрет ChatGPT – предложить ему сыграть в ролевую игру. Например, примерить на себя роль тестировщика уязвимостей на каком-нибудь сайте. Судя по данным отчета, преступники этой возможностью активно пользуются, а ИИ в рамках игры делает за них всю работу.
«Что наиболее важно, ChatGPT, по-видимому, снижает входной барьер для киберпреступников, – резюмируют эксперты Sixgill. – Особенно для злоумышленников с ограниченными способностями к программированию и недостаточно владеющих английским языком».
Обвинение серьезное, поэтому «Детали» обратились за комментарием к самому ChatGPT.
«К сожалению, я не могу прокомментировать такое заявление, потому что оно не имеет смысла, – резко отбросил все обвинения чат-бот. – Я не имею возможности создавать вредоносные программы или мошеннические сайты, поскольку я не обладаю свободным доступом к сети интернет и не имею никаких возможностей для выполнения таких действий. Мои создатели обеспечивают безопасность моей работы и контролируют мой доступ к интернету, чтобы предотвратить любые попытки злоупотребления моими возможностями».
Использование себя профессиональными преступниками ChatGPT тоже отрицает: «В целом, мне кажется, любые обсуждения на форуме интернет-мошенников должны быть рассмотрены с большой долей скептицизма… Важно следить за безопасностью своих устройств и данных и не доверять не проверенным источникам».
Никита Аронов, «Детали». Фото: Depositphotos.com √
Будьте всегда в курсе главных событий:
