Общение с ChatGPT может быть использовано против вас в суде
Все, что вы скажете, может быть и будет использовано против вас в суде. Пользователям ChatGPT стоит помнить это «Правило Миранды» в то время, когда они делятся с ИИ своими мыслями и проблемами. Разговоры с искусственным интеллектом могут быть использованы в качестве доказательств в судебных процессах, поскольку они не защищены законом как конфиденциальные данные.
Все больше людей обращаются к ChatGPT как к психотерапевту, но проблема заключается в том, что такие беседы не защищены законом так же, как беседы с настоящим психотерапевтом. Об угрозе приватности пользователей ChatGPT предупредил сам глава OpenAI Сэм Альтман.
Отсутствие конфиденциальности
«Так что, если вы поговорите с ChatGPT о самых сокровенных вещах, а потом будет какой-нибудь судебный иск или что-то в этом роде, от нас могут потребовать предоставить эту информацию», — сказал Альтман Тео Вону в подкасте, вышедшем на прошлой неделе.
В отличие от бесед с терапевтами, юристами или врачами, которые защищены профессиональной тайной, разговоры с ChatGPT таких гарантий не имеют.
«В настоящее время, если вы обратитесь к психотерапевту, юристу или врачу с целью обсуждения своих проблем, это будет рассматриваться как информация, не подлежащая разглашению — как врачебная тайна или юридическая конфиденциальность, — подчеркнул Альтман. — Мы пока не определились, как быть в случае общения с ChatGPT».
Альтман сказал, что в общении с ИИ должна соблюдаться «та же концепция конфиденциальности, что и в общении с психотерапевтом», и что «этому вопросу следует уделить особое внимание».
«Еще год назад никто не придавал этому значения, но теперь, я полагаю, это серьезный вопрос: как нам следует воспринимать законы, связанные с этой темой?» — выразил свое мнение Альтман.
В отличие от разговоров в зашифрованных мессенджерах, таких как WhatsApp или Signal, OpenAI может читать чаты между пользователями и ChatGPT. Это касается и сотрудников, которые используют чаты для тонкой настройки модели ИИ и отслеживания неправомерного использования.
Глава OpenAI признался, что сам иногда опасается использовать определенные ИИ-технологии: «Это одна из причин, почему я иногда боюсь использовать некоторые ИИ-сервисы — я не знаю, сколько личной информации хочу туда вводить, потому что не знаю, кто получит к ней доступ».
Необходимость правового регулирования
Альтман подчеркнул острую потребность в создании правовых рамок для искусственного интеллекта. По его словам, политики, с которыми он обсуждал эту проблему, согласны с необходимостью нахождения быстрого решения этого вопроса.
Генеральный директор OpenAI также выразил обеспокоенность усилением слежки в связи с широким внедрением ИИ-технологий. «Меня беспокоит, что чем больше в мире ИИ, тем больше слежки за ним хочет мир», — отметил он, объясняя это желанием правительств убедиться, что люди не используют технологии для терроризма или других преступных целей.
Альтман готов пойти на компромисс с приватностью ради общественной безопасности, но с важной оговоркой: «История показывает, что правительство заходит в этом слишком далеко, и меня это очень беспокоит».
Каждую минуту ChatGPT получает 1,7 миллиона пользовательских обращений
Компания OpenAI впервые обнародовала точные цифры активности ChatGPT. Каждую минуту через серверы OpenAI проходит 1,7 миллиона пользовательских обращений. Около 330 миллионов пользователей приходится на американскую аудиторию. Фактически, каждый пятый житель США активно взаимодействует с технологией искусственного интеллекта.
Еженедельно сервисом ChatGPT пользуются более 500 миллионов человек (согласно данным на апрель 2025 года), что больше населения США и Канады вместе взятых. Причем большинство остается на бесплатной версии платформы.
Аналитики прогнозируют, что к концу 2025 года количество пользователей ChatGPT достигнет 1 миллиарда человек. Это будет означать, что каждый восьмой житель планеты регулярно использует технологии искусственного интеллекта в повседневной жизни.
«Детали», Ю.Л. Фото: Depositphotos.com ∇
Будьте всегда в курсе главных событий:
