Сотрудники Google требуют не продавать технологии ИИ военным. Это может затронуть войну в Газе
Почти 200 сотрудников Google DeepMind, подразделения компании, занимающегося разработкой в области технологий искусственного интеллекта, в начале этого года подписали письмо, призывающее технологического гиганта расторгнуть контракты с военными организациями, пишет журнал TIME. Письмо было распространено на фоне растущих опасений внутри лаборатории ИИ о том, что ее технологии продаются военным, участвующим в боевых действиях, что, по словам сотрудников, является нарушением правил Google в отношении ИИ.
Письмо является признаком растущего спора внутри Google между по крайней мере некоторыми сотрудниками подразделения ИИ, которое пообещало никогда не работать над военными технологиями, и его облачным бизнесом, у которого есть контракты на продажу сервисов Google нескольким правительствам и военным, включая Израиль и США.
Письмо подписали около 5% от общей численности персонала DeepMind — небольшая часть, но значительный уровень беспокойства сотрудников для отрасли, где выдающиеся таланты в области машинного обучения пользуются большим спросом.
Письмо DeepMind от 16 мая этого года начинается с заявления о том, что сотрудники «обеспокоены недавними сообщениями о контрактах Google с военными организациями». В нем не упоминаются конкретные военные организации, но упоминаются материалы в СМИ, в которых говорится, что у Google есть прямой контракт на поставку облачных вычислений и услуг ИИ для израильской обороны в рамках более широкого контракта с Израилем под названием Project Nimbus.
Письмо также ссылается на другие материалы, в которых утверждается, что израильские военные используют ИИ для осуществления массового наблюдения и выбора целей для атак в секторе Газа.
- Читайте также:
- ЦАХАЛ активно использует искусственный интеллект при выборе целей для атак в секторе Газа
- Еще один спорный аспект войны в Газе: искусственный интеллект
- Не только Израиль. Как Украина использует искусственный интеллект в войне с Россией
«Любое участие в военном деле и производстве оружия влияет на нашу позицию лидеров в области этичного и ответственного ИИ и противоречит нашему заявлению о миссии и заявленным принципам ИИ», — говорится в письме, распространенном внутри Google DeepMind.
Принципы ИИ – это зонтичная политика компании, которая предусматривает, что Google не будет заниматься приложениями ИИ, которые могут нанести «общий вред», способствовать созданию оружия или других технологий, «основной целью или реализацией» которых является нанесение вреда, или создавать технологии, «цель которых противоречит общепринятым принципам международного права и прав человека».
В письме говорится, что его подписавшие обеспокоены «обеспечением соблюдения принципов ИИ Google», и добавляется: «Мы считаем, что руководство DeepMind разделяет наши опасения».
Google заявляет, что Project Nimbus, ее контракт с Израилем, «не направлен на высокочувствительные, секретные или военные рабочие нагрузки, имеющие отношение к оружию или разведывательным службам». По словам представителя компании, министерства и правительство Израиля, которые являются покупателями облачных сервисов Google, включая разработки DeepMind, «соглашаются соблюдать наши Условия обслуживания и Политику приемлемого использования».
В письме содержится призыв к лидерам DeepMind расследовать обвинения в том, что военные и производители оружия являются пользователями Google Cloud; прекратить доступ к технологии DeepMind для военных пользователей; и создать новый орган управления, ответственный за предотвращение использования технологии DeepMind военными клиентами в будущем. Однако спустя три месяца после распространения письма Google не сделала ничего из этого, по словам четырех человек, осведомленных об этом вопросе.
Когда DeepMind была приобретена Google в 2014 году, руководители лаборатории добились от поискового гиганта важного обещания: их технология ИИ никогда не будет использоваться в военных или разведывательных целях. В течение многих лет лондонская лаборатория работала с высокой степенью независимости от калифорнийской штаб-квартиры Google. Но по мере того, как гонка ИИ накалялась, DeepMind все плотнее втягивалась в саму Google. Попытка руководителей лаборатории в 2021 году обеспечить большую автономию провалилась, и в 2023 году она объединилась с другой командой Google по ИИ — Google Brain.
Независимый этический совет, который, как надеялись руководители DeepMind, будет регулировать использование технологии лаборатории ИИ, в конечном итоге собрался только один раз и вскоре был заменен зонтичной этической политикой Google: Принципами ИИ. Хотя эти принципы обещают, что Google не будет разрабатывать ИИ, который может нанести «общий вред», они прямо разрешают компании разрабатывать технологии, которые могут нанести вред, если она придет к выводу, что «польза существенно перевешивает риски». И они не исключают продажу ИИ Google военным клиентам.
Кроме того, по словам сотрудников Google, по соображениям конфиденциальности компания имеет ограниченную информацию об использовании ее инфраструктуры государственными клиентами, а это означает, что Google может быть сложно, если не невозможно, проверить, нарушается ли ее политика приемлемого использования, которая запрещает пользователям использовать ее продукты для участия в «насилии, которое может привести к смерти, серьезному вреду или травме».
«Детали» уже писали, что и в других подразделениях Google сотрудники призывают разорвать контракты с Израилем в связи с войной в секторе Газа.
Александра Аппельберг, «Детали». Фото: Pixabay
Будьте всегда в курсе главных событий:
Подписывайтесь на ТГ-канал "Детали: Новости Израиля"