Если вы находитесь в России или планируете в нее возвращаться, вам нельзя репостить наши материалы в соцсетях, ссылаться на них и публиковать цитаты.
Подробнее о том, что можно и нельзя, читайте в карточках.
Компания Google обновила свои этические правила в отношении искусственного интеллекта (ИИ). В частности корпорация сняла с себя обязательства не применять технологии на основе ИИ в качестве оружия или средства наблюдения. DOXA разбирается, чем вызвано это решение и к чему оно может привести.
- РедакторРедакторСемен Владимиров
- Публикация8 февраля 2025 г.
Что произошло?
4 февраля 2025 года глава ИИ-отдела Google Демис Хассабис и старший вице-президент компании по технологиям Джеймс Манийка опубликовали сообщения в официальном блоге, в которых рассказали о причинах и сути решения убрать пункт о неиспользовании ИИ в качестве оружия. Они утверждают, что Google обновил свои принципы работы с искусственным интеллектом из-за возросшей конкуренции на рынке ИИ и необходимости сотрудничества с правительствами демократических стран для поддержания «национальной безопасности».
На данный момент точные планы компании по работе с ИИ в сферах слежки и вооружения не разглашаются, однако бывшая сотрудница подразделения Google Research Маргарет Митчелл в комментарии Bloomberg отметила, что «теперь Google, вероятно, будет работать над внедрением технологий, способных убивать людей».
Обновленная страница принципов Google по пользованию ИИ также включает положения, в которых говорится, что компания будет следить, чтобы технологии использовались в соответствии с «общепринятыми принципами международного права и прав человека», а также будет работать над тем, чтобы смягчить «вредные последствия» использования ИИ в сферах вооружения и слежки.
У Хассабиса уже был опыт столкновения с этической стороной создания ИИ. В 2010 году он создал стартап DeepMind Technologies, который занимался разработками в области ИИ. Спустя четыре года компанию купил Google. В 2015 году Хассабис обещал, что его технологии никогда не будут использоваться в военных или разведывательных целях и что покупка компании не повлияет на это решение, хотя, по данным Time, технология DeepMind все-таки использовалась для работы над проектом Nimbus совместно с Минобороны Израиля в 2024 году.

Этические принципы по работе с искусственным интеллектом появились в Google в результате протестов со стороны сотрудни:ц компании. В 2018 году тысячи работни:ц выступили против контракта с Пентагоном, применявшим алгоритмы компьютерного зрения Google для анализа кадров с дронов и разработки системы Project Maven. Она на основе машинного обучения могла определять «потенциальных жертв» для атаки и применялась в том числе в ходе войны в Украине. Итогом протестов стал отказ корпорации от сотрудничества с Минобороны и принятие кодекса обращения с ИИ, запрещающего использовать его в военных целях.
Это соответствовало девизу Google «Don’t be evil» («Не будь злым») — впрочем, в том же 2018 году он исчез из корпоративного этического кодекса.
Тем не менее, Google продолжил сотрудничать с военными ведомствами других стран, в первую очередь Израиля. Во время вторжения ЦАХАЛ в сектор Газа, которое началось после атаки ХАМАС 7 октября 2023 года, некоторые сотрудни:цы протестовали против предоставления Google облачных вычислений для правительства Израиля. Они предполагали, что таким образом израильская армия могла получить доступ к облачным серверам и ИИ-инструментам Google и использовать их в военных действиях, модернизируя свои собственные вооружения и совершенствуя карты местности. 28 сотрудников компании, выступивших против сотрудничества с ЦАХАЛ, были уволены.
Не только Google
Google не первый техногигант, выразивший готовность сотрудничать с военными ведомствами. Еще в январе 2024 года OpenAI, компания-разработчик ChatGPT, заявила о сотрудничестве в области кибербезопасности с подразделением Минобороны США DARPA, отмечая, что ее инструменты будут использоваться для «предотвращения самоубийств среди ветеранов».
В октябре 2024 года журналист:ки выяснили, что OpenAI заключила контракт на девять миллиардов долларов с Пентагоном на разработку неназванного оборудования для Африканского командования вооруженных сил США (AFRICOM). Сами OpenAI отрицали эту информацию. Но на этом сотрудничество компании с американской оборонкой не закончилось. В декабре OpenAI анонсировала совместную с Anduril Industries программу разработки систем на основе ИИ для борьбы с БПЛА.
«Наше партнерство с Anduril поможет гарантировать, что технология OpenAI защитит военнослужащих США», — заявил глава компании миллиардер Сэм Альтман.

О сотрудничестве с военными ведомствами США также заявила кампания Anthropic, которая занимается разработкой языковых моделей Claude. Совместно с Amazon она будет предоставлять американской армии доступ к своим языковым моделям для более тщательного анализа данных разведки.
Как ИИ участвует в войне?
ИИ уже активно используется в ходе боевых действий. Вопреки обещаниям разработчиков, применение машинного интеллекта не помогает предотвратить большие разрушения и человеческие жертвы.
В ходе войны в секторе Газа израильская армия использовала сразу несколько систем на основе ИИ для поиска целей бомбардировок. Одна из них — Lavender — указывала на здания, которые, по ее оценке, часто использовали боевики. Другая делала поиск по внутренней базе террористов ЦАХАЛ. Она же оценивала вероятность, насколько т:а или ин:ая житель:ница Газы мог:ла симпатизировать ХАМАС, и присваивала каждо:й рейтинг опасности. Еще одна система — The Gospel — давала сигнал, когда подозреваемые в сотрудничестве с террористами оказывались дома.

Применение ИИ действительно стало одной из причин столь разрушительных последствий бомбардировок в секторе Газа, считает журналистка Time Ясмин Серхан. Она объясняет это тем, что офицер:ки ЦАХАЛ зачастую тратили недостаточно времени для проверки данных и принимали решения слишком быстро, не успевая оценить ситуацию.
В ходе войны в Украине ВСУ также начали разрабатывать системы на основе ИИ, которые позволят атаковать российские войска без человеческого участия. Для этого военные собрали более двух миллионов часов записей с БПЛА — они используются для того, чтобы ИИ «учился» определять модели военной техники.
При этом разные виды слежки с помощью ИИ использует большинство государств в мире, свидетельствуют данные AI Global Surveillance (AIGS) Index. Среди самых популярных методов наблюдения системы распознавания лиц, «предсказательные модели» и системы «умного города». Чаще всего эти технологии используются единым комплексом, как, например, в России или Китае.

Как пытаются ограничить ИИ?
Нельзя сказать, что ИИ повсюду можно использовать без ограничений. ЕС первым выступил с фактическим запретом на военное и разведывательное применение нейросетей. 2 февраля 2025 года в силу вступил «Акт ИИ» (AI Act), который формально был принят еще в мае 2023 года. Он запрещает использовать искусственный интеллект для категоризации людей на основе их расы, политических взглядов или религии, для манипуляции взглядами другого человека, для распознавания эмоций или ведения систем «социального рейтинга».
Кроме того, запрещено использовать ИИ для создания базы лиц для их последующего распознавания и предиктивных систем (то есть таких, которые рассчитывают вероятность совершения человеком преступления). За нарушение компаниям грозит штраф до 35 миллионов евро.
Критик:ессы отмечают, что, несмотря на то что декларируемая цель закона — прекратить слежку за людьми с помощью нейросетей, в «Акте ИИ» слишком много лазеек. Например, в документе очень много «исключений из правил», когда дело касается слежки.
«Самой вопиющей лазейкой стал пункт, согласно которому запреты не распространяются на правоохранительные органы и миграционные власти», — отметила Катерина Роделли, аналитикесса по политике ЕС Access Now, который отвечает за мониторинг цифровых гражданских прав.
Открытое письмо к властям ЕС с требованием исправить способы обхода «Акта ИИ» подписали 22 правозащитные организации, в том числе Amnesty International.
В США не существует закона о регулировании ИИ. Самой близкой попыткой создать такие нормы стал законопроект о национальной инициативе в области искусственного интеллекта 2020 года (NAII), который был предложен Дональдом Трампом во время его первого президентского срока, однако он не был принят. В рамках него планировалось создать Национальный консультативный комитет по искусственному интеллекту, который должен был активно сотрудничать с государством, а сами США оказывали бы бюджетную поддержку исследованиям в области ИИ.
Немногим более года действовал указ Байдена о правительственном контроле над ИИ. Документ требовал от компаний-разработчиков предоставлять результаты исследований правительству США для специального тестирования и оценки угрозы их применения. Указ также предписывал агентствам установить стандарты для этого тестирования и оценивать связанные с новыми технологиями химические, биологические, радиологические, ядерные риски, а также находить проблемы в области кибербезопасности.
20 января 2025 года Трамп отменил этот указ. Вместо него он анонсировал программу Stargate («Звездные врата») по созданию прорывных моделей ИИ с совокупным финансированием свыше 500 миллиардов долларов. О каких-либо ограничениях разработчиков в анонсе проекта не говорилось.
Что думают эксперт:ки?
По мнению профессора Университета Пенсильвании Майкла Горовица, решение Google убрать упоминание запрета на сотрудничество с военными из своих правил еще раз показывает, как технологический сектор продолжает сближаться с Минобороны США. Корпорация здесь идет в русле других техногигантов: Amazon и Microsoft уже давно сотрудничают с Пентагоном и получают госконтракты на новые разработки.
The Washington Post отмечает, что решение Google также напрямую связано с политикой новой администрации в области технологий. Ее озвучивал Илон Маск: он утверждал, что корпорации должны стремиться работать на национальные интересы США и отказываться от регулирования, если оно мешает технологическому прогрессу.
Правозащитная организация Amnesty International в своем заявлении отмечает, что разработки на основе ИИ «могут помогать системам наблюдений и убийств в огромных масштабах, что может привести к массовым нарушениям и ущемлению фундаментального права на неприкосновенность частной жизни». Организация ссылается на свое исследование, которое показало, что внедрение систем распознавания лиц на основе ИИ усиливает расовую дискриминацию, а также лишает людей права на протест.
«Позор, что Google решила создать настолько опасный прецедент, после многих лет признания того, что их программа ИИ не должна использоваться для потенциального нарушения прав человека», — заявили в Amnesty.