Google разрешил себе использовать ИИ для создания оружия и технологий слежки. Так он хочет помочь демократическим странам защищать свободу и права человека
Компания Google внесла важное изменение в документ, описывающий принципы работы компании с искусственным интеллектом. Журналисты обратили внимание, что теперь в нем нет пункта, который запрещает использование подобных технологий для создания оружия или инструментов слежки. При этом Google не первая компания, которая отказалась от подобных ограничений. Многие конкуренты в сфере ИИ, в том числе OpenAI и Anthropic, уже заявили о планах сотрудничать с оборонным сектором США. «Медуза» рассказывает, как эти изменения объясняют сами разработчики (спойлер: невнятно) и в каких еще военных проектах участвуют создатели искусственного интеллекта.
Компания Google внесла важное изменение в документ, описывающий принципы работы компании с искусственным интеллектом. Журналисты обратили внимание, что теперь в нем нет пункта, который запрещает использование подобных технологий для создания оружия или инструментов слежки. При этом Google не первая компания, которая отказалась от подобных ограничений. Многие конкуренты в сфере ИИ, в том числе OpenAI и Anthropic, уже заявили о планах сотрудничать с оборонным сектором США. «Медуза» рассказывает, как эти изменения объясняют сами разработчики (спойлер: невнятно) и в каких еще военных проектах участвуют создатели искусственного интеллекта.
Издание The Washington Post обратило внимание на изменения в принципах работы Google с ИИ во вторник, 4 февраля. Журналисты отмечают, что правки внесли недавно. В архивной копии страницы от 30 января ограничения на применение ИИ в определенных сферах все еще присутствуют.
Журналисты напоминают, что впервые Google представил свои принципы работы с искусственным интеллектом в 2018-м. К этому привел протест сотрудников против сотрудничества с Пентагоном в рамках проекта в Украине.">Maven. Контракт с военными подразумевал использование алгоритмов компьютерного зрения Google для анализа кадров, полученных с дронов.
«Мы считаем, что Google не должен заниматься войной», — говорилось в открытом письме, которое подписали больше трех тысяч сотрудников компании. Они потребовали немедленно закрыть проект, а также разработать четкую политику использования технологий Google. В частности, руководство должно было гарантировать, что ни сама компания, ни ее подрядчики никогда не будут создавать военные технологии.
В конечном итоге Google отказался от участия в проекте. В опубликованном позже документе помимо целей компании и принципов разработки ИИ-продуктов до недавнего времени был пункт, связанный с ограничениями. В нем указано, что Google не будет разрабатывать искусственный интеллект (или внедрять уже существующие разработки) для четырех областей применения:
- Технологии, которые причиняют или могут причинить общий вред. «Если существует существенный риск нанесения вреда, мы будем действовать только в тех случаях, когда считаем, что преимущества существенно перевешивают риски, и примем соответствующие меры по обеспечению безопасности», — говорится в документе.
- Оружие или другие технологии, основная цель или применение которых заключается в причинении вреда людям или непосредственное содействие этому.
- Технологии, которые собирают или используют информацию для слежки, нарушая международно признанные нормы.
- Технологии, цель которых противоречит общепринятым принципам международного права и прав человека.
Сразу после этого блока в документе шла уточняющая фраза: «По мере накопления опыта в этой области список может меняться». Судя по всему, время для этих изменений пришло. Но с чем они связаны и, самое главное, как теперь изменятся принципы работы компании — непонятно.
Газета The Washington Post обратилась за комментарием к представителям Google, но в компании отказались отвечать на конкретные вопросы, связанные с использованием ИИ в военных целях. Вместо этого они предложили журналистам ознакомиться с постом в корпоративном блоге, который был опубликован в тот же день. Однако в тексте, авторами которого указаны старший вице-президент Google Джеймс Манийка и сооснователь и гендиректор Google DeepMind Демис Хассабис, нет никакой конкретики.
В главе, посвященной новым принципам работы с ИИ, говорится, что технологии искусственного интеллекта существенно продвинулись, став частью повседневной жизни миллиардов людей. Теперь Google планирует сфокусироваться на трех ключевых направлениях: инновациях, ответственной разработке и внедрении ИИ, — а также на совместном прогрессе (подразумевается, что компания создает технологии, которые помогают другим использовать ИИ во благо).
Об отмене ограничений, связанных с использованием искусственного интеллекта, в блоге не сказано ни слова. Единственный абзац, который можно считать попыткой косвенно объяснить эти изменения, звучит так:
Глобальная гонка за лидерство в области ИИ происходит в условиях все более сложной геополитической обстановки. Мы считаем, что демократические страны должны лидировать в разработке ИИ, руководствуясь основными ценностями, такими как свобода, равенство и уважение прав человека. Мы также считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе для создания ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность.
Как в США и Европе пытаются регулировать использование ИИ
Бывшие сотрудники рассказывают, что Google не всегда соблюдал свои же принципы
«Удаление всего этого [пунктов о потенциальном вреде ИИ] означает стирание труда множества людей из Google в сферах этического использования ИИ и активизма. Что еще более тревожно — это означает, что теперь Google, вероятно, будет работать над внедрением технологий, способных убивать людей», — заявила бывшая сотрудница подразделения Google Research Маргарет Митчелл в комментарии Bloomberg.
Впрочем, приверженность компании своим собственным принципам всегда была под вопросом, считает другая бывшая сотрудница Google Тимнит Гебру. Вместе с Митчелл она возглавляла команду по исследованию этики искусственного интеллекта. «Я бы сказала, что лучше не притворяться, что вы соблюдаете какие-либо из этих принципов, чем прописать их и делать наоборот», — отметила она в комментарии Wired.
Независимый совет по этике ИИ был создан благодаря главе Google DeepMind Демису Хассабису. Об этом разработчик рассказывал в интервью Wired в январе 2015 года. Хассабис основал свою компанию DeepMind Technologies в 2010-м. Четыре года спустя ее купил Google, и создание совета было одним из условий сделки.
«Я думаю, что ИИ может изменить мир, это удивительная технология. Все технологии по своей сути нейтральны, но их можно использовать как во благо, так и во зло, поэтому мы должны убедиться, что они используются ответственно, — говорил Демис Хассабис. — Я и мои соучредители давно это чувствовали. И в [сделке с] Google нас привлекало то, что они также твердо придерживались этих взглядов».
Другое условие, которое выдвинул разработчик, заключалось в том, что ни одна из технологий, разработанных DeepMind, не будет использоваться в военных или разведывательных целях. Однако сложно сказать, насколько строго соблюдалось это требование в дальнейшем.
Чем известен Демис Хассабис
Три бывших сотрудника Google, которые занимались проверкой проектов на соответствие обозначенным принципам компании, рассказали журналистам Wired, что периодически сталкивались с проблемами в работе. Это происходило из-за того, что принципы могли толковаться по-разному, а также из-за давления со стороны руководства, требовавшего отдавать приоритет бизнес-целям.
Издание отмечает, что Google, вероятно, действительно нарушал собственные политики. Например, когда заключил контракт на участие в проекте Nimbus, инициированном израильским правительством и военными. Некоторые сотрудники Google выступали против этого решения, опасаясь, что технологии компании могут использовать для причинения вреда палестинцам.
После атаки боевиков ХАМАС на Израиль в октябре 2023 года Google предоставил более широкий доступ к своим ИИ-инструментам, сообщает газета The Washington Post со ссылкой на внутренние документы компании. При этом Google отказался прислушаться к мнению сотрудников, которые выступали против участия в проекте. Более 50 человек, протестовавших против Nimbus, уволили из Google.
Контракт с правительством Израиля действительно может противоречить правилам использования облачной платформы Google, которая в том числе включает в себя ИИ-продукты. В этих правилах, в частности, сказано, что политика компании запрещает нарушать «законные права других лиц», а также заниматься незаконной деятельностью, которая «может привести к смерти или причинить вред отдельным лицам или группе лиц».
В Google настаивают, что работа компании в рамках Project Nimbus не связана с применением оружия или деятельностью разведывательных служб. Представитель компании Анна Ковальчик также подчеркнула, что правительство Израиля соблюдает все политики и требования Google по использованию предоставленных технологий.
Как Израиль использует ИИ в военных целях
Многие ИИ-компании уже работают с военными или как минимум заявили о готовности к сотрудничеству
Искусственный интеллект, робототехника и сопутствующие технологии становятся все более важными для американских военных, считает профессор политологии Пенсильванского университета Майкл Хоровиц, который ранее работал над новыми технологиями для Пентагона. «Вполне логично, что Google обновил свою политику, чтобы отразить новую реальность», — отмечает он.
В этом плане Google даже несколько отстает от других технологических компаний. Например, OpenAI в декабре 2024-го объявила о сотрудничестве с Anduril Industries, которая занимается оборонными технологиями. В рамках этого партнерства они будут разрабатывать и внедрять передовые решения в области ИИ для решения задач национальной безопасности. В частности, компании займутся совершенствованием американской системы противодействия беспилотникам.
Чуть раньше, в ноябре 2024 года, ИИ-компания Anthropic объявила о партнерстве с разработчиком программного обеспечения Palantir и Amazon Web Services. В рамках этого сотрудничества она будет предоставлять американским военным доступ к своим моделям искусственного интеллекта Claude. Сделка должна усовершенствовать анализ разведданных и улучшить процесс принятия решений.
Meta также заявила, что сделает свои ИИ-модели Llama доступными для правительственных агентств США и подрядчиков в сфере национальной безопасности. Главный партнер OpenAI, корпорация Microsoft, уже давно сотрудничает с американским правительством в различных сферах.
Пока непонятно, насколько внедрение искусственного интеллекта может изменить ход современных войн. Например, результаты экспериментального использования технологий Project Maven в Украине нельзя назвать однозначно успешными. Однако неизвестно, насколько сильно может продвинуться ИИ в военной сфере, если его разработчиков перестанут сдерживать этические принципы.
Подробнее о возможностях ИИ на войне
Михаил Герасимов