Если вы находитесь в России или планируете в нее возвращаться, вам нельзя репостить наши материалы в соцсетях, ссылаться на них и публиковать цитаты.
Подробнее о том, что можно и нельзя, читайте в карточках.
Об искусственном интеллекте принято говорить восторженно, как о важнейшей технологии, которая коренным образом изменит нашу жизнь. От нее зависит будущее медицины, образования, инноваций и того, как мы будем трудиться и отдыхать. Антрополог Андрей Смоляков объясняет, как за смешными фильтрам в тиктоке, переписками в ChatGPT и сгенерированными трейлерами к фильмам скрываются целые индустрии, эксплуатирующие уязвимых людей, вредящие экологии и усиливающие глобальное неравенство.
- ИллюстраторИллюстраторВитя Ершов
- Публикация24 марта 2025 г.
Искусственный интеллект зависит от малооплачиваемого и тяжелого труда кликворкеро:к. Многие из них работают в невыносимых условиях в ущерб своему здоровью
На первый взгляд многие модели искусственного интеллекта (ИИ) выглядят как простые и удобные инструменты. Их разработчи:цы постоянно настаивают на доступности ИИ для конечных пользователь:ниц и много говорят о демократизации технологий, которые якобы делают жизнь легче и помогают некоторым людям выйти на рынок труда.
При этом материальная реальность для людей, занятых в индустрии искусственного интеллекта, выглядит совершенно иначе. По состоянию на 2024 год в секторе работает почти 100 миллионов человек. Помимо высокооплачиваемых IT-специалисто:к и разработчи:ц, существует прослойка «невидимых» рабочих, занятых монотонной ручной работой, которая помогает обучать алгоритмы искусственного интеллекта.
Их реальное количество сложно оценить: «микроработа» нечасто освещается самими работодатель:ницами. Усложняет ситуацию и большое количество платформ, и частая работа через посредников. Тем не менее, на одной из крупнейших платформ от Амазона заняты не менее 40 тысяч человек. И это вряд ли временное явление.
Таких рабочих называют кликворкер:ками, и именно они тренируют, обучают и полируют такие продукты, как ChatGPT и Dall-E от OpenAI, Midjourney или Grok от Илона Маска. Кликворкер:ки в основном вручную сортируют изображения, массивы текстов, добавляют теги, проверяют и модерируют «ответы» ИИ на приемлемость и так далее. Эти рабочие, считают исследователь:ницы, — структурная необходимость в развитии ИИ-технологий. Без их вклада стремительное развитие индустрии искусственного интеллекта попросту не было бы возможным.
Как правило, ИИ-модели обучаются по такой системе: сначала они самостоятельно обрабатывают массив сырых данных (который, к слову, порой тоже нужно собирать вручную), а затем уже живые люди помогают алгоритмам добиваться более точных результатов. Для этого необходима ручная обработка и маркировка вводных данных, поиск ошибок, исправление паттернов распознавания и так далее.
Такие задачи чаще всего отдают на аутсорс специальным агентствам, которые, в свою очередь, находят в странах Глобального Юга (например, в Венесуэле, Кении или на Филиппинах) кликворкеро:к, готовых мириться с низкой оплатой и плохими условиями труда. Нередко аутсорсинговые компании прицельно ищут кликворкеро:к в уязвимом социальном положении: среди бежен:ок, внутренне перемещенных лиц или людей, затронутых политическими или экономическими кризисами.
Положение таких работни:ц уязвимо настолько, что некоторые исследователь:ницы называют его «цифровым рабством». На фоне критики многие аутсорсинговые компании (скажем, Samasource, с которой сотрудничает OpenAI) даже пытаются перепозиционировать себя как «этичных ИИ-работодателей»: они обещают давать работни:цам чувствовать себя частью финального продукта, платить достойную зарплату и вообще относиться к сотрудни:цам достойно.

На деле, правда, в чем заключается этичность Samasource, сказать сложно. Журналисты Time выяснили, что кенийские кликворкер:ки этой компании занимались ручной фильтрацией откровенного сексуализированного и жестокого контента, включая подробные описания и кадры насилия над детьми и животными. При приеме на работу их не предупреждали о том, что им придется столкнуться с контентом, травмирующим психическое здоровье. В зависимости от производительности работни:цы получали всего 1,3–2 доллара в час. За свое посредничество Samasource получала от OpenAi более 12 долларов за час работы каждо:й кликворкер:ки.
Это далеко не единственный случай. Meta — компания, владеющая Facebook, Instagram и WhatsApp — активно пользовалась услугами кенийских кликворкеро:к, чтобы тренировать ИИ-алгоритмы и модерировать контент своих продуктов. Как минимум 140 работни:цам диагностировали ПТСР, а в Кении против Meta ведется три судебных процесса из-за эксплуатации и создания неприемлемых условий труда.
Генеративные модели обучаются на работах независимых художни:ц, копируя их стиль и постепенно вытесняя с рынка
Для обучения большинства ИИ-моделей необходимы большие массивы данных. Скажем, архив фотографий для распознавания объектов и генерации изображений. Или доступ к научным библиотекам для автоматизированного обзора литературы.
Компании, разрабатывающие продукты на основе ИИ, часто уверяют, что пользуются лишь открытыми данными, которые попадают под категорию Fair Use. Проблема в том, что такие открытые данные явно не создавались для обучения алгоритмов и их последующего коммерческого использования. В своем недавнем иске от The New York Times против OpenAI издание пытается добиться ограничений против ИИ-корпораций. Вплоть до запрета на использование материалов для обучения без согласия авторо:к — и даже уничтожения моделей и библиотек данных, уже их содержащих.
Графические генеративные модели вроде Midjourney делают эту проблему еще острее. Чтобы создавать «искусство», такие ИИ-продукты обучаются на фильмах, фотографиях или картинах — и затем имитируют уникальные авторские стили и почерки. Недавно Midjourney поймали на плагиате кадров из фильмов Marvel, которые защищены авторским правом и не могли легально попасть в набор сырых данных, на которых училась модель.
У крупных организаций есть немало ресурсов для судебных тяжб и защиты своих работ от плагиата. Художни:цы из Marvel (принадлежит Disney) тоже подали иск против Stability (разработчики Midjourney) за использование их материалов в тренировке модели. Тем временем независимые автор:ки, художни:цы и артист:ки оказываются бессильны. Их работы становятся материалом для обучения генеративных моделей.

Любые произведения искусства, будь то фотографии, картины или музыка, — это результат труда, в который вкладывается немало материальных и нематериальных ресурсов. Многие годы независимым художни:цам удавалось конкурировать с крупными корпорациями благодаря уникальному стилю и индивидуальному видению. Искусственный интеллект уже меняет эту ситуацию. Хотя генеративные «копии» значительно проигрывают по качеству, они заполняют рынок дешевым контентом и постепенно вытесняют независимых художни:ц. До 300 миллионов полноценных позиций могут быть замещены генеративным ИИ до 2030 года.
ИИ-индустрия зависит от электричества и редких металлов. При их добыче используется рабский труд, а окружающей среде наносится непоправимый ущерб
У ИИ-индустрии есть и еще один побочный эффект: развитие таких энергоемких технологий наносит заметный ущерб окружающей среде. Для обучения современных алгоритмов требуются огромные массивы данных, обучение ChatGPT 3, например, требовало электричества примерно равного ежегодному потреблению 130 среднестатистических американских семей. Тренировка сравнительно «экономичной» модели Hugging Face на современном оборудовании производит около 50 тонн CO2 — эквивалент 60 перелетов между Европой и США. А тренировка Chat GPT-3 производит ровно в 10 раз больше выбросов.
Пока сравнительная доля ИИ в глобальном энергопотреблении невелика — всего 2–3%. Тем не менее, из-за стремительных темпов развития индустрии во всем мире ситуация, скорее всего, изменится уже в ближайшем будущем. В 2023 году инвестиции в генеративный ИИ выросли в четыре раза, а в 2024-м весь сектор вырос на 80%. По некоторым прогнозам, в ближайшие годы ИИ-модели Google будут потреблять больше энергии, чем целая Ирландия.
Конечно, на рынке ИИ-технологий могут в любой момент случиться потрясения. Нечто подобное случилось после появление китайского чат-бота DeepSeek: крупнейшие американские инвестор:ки потеряли около 100 миллиардов долларов, а стоимость Nvidia, крупнейшего поставщика микрочипов для всех лидирующих ИИ-компаний, рухнула на 600 миллиардов. Тем не менее, инвестор:ки продолжают сохранять оптимизм и рассчитывают получить значительную прибыль от вложений в крупные ИИ-компании.
Китайская нейросеть DeepSeek — новый кошмар американских техногигантов
Что про нее известно и почему ее так боятся?

ИИ-индустрии необходимо не только электричество, но и бесперебойный доступ к вычислительным мощностям: без быстрой обработки огромных объемов данных ни тренировка, ни использование ИИ были бы невозможны. На этом фоне во всем мире наблюдается взрывной спрос на дата-центры. К 2023 году только обучение и работа алгоритмов обеспечит увеличение спроса на такую инфраструктуру.
Сами даты-центры постоянно нуждаются в критическом сырье: кобальте, литии и десятке других редких минералов. Добывают их преимущественно в странах Глобального Юга — это наносит серьезный урон местной экологии. Огромные объемы токсичных отходов сбрасываются в воду или на мусорные свалки, города покрываются смогом и пыльными облаками, а работни:ци и местные житель:ницы сталкиваются с тяжелыми отравлениями и другими долгосрочными последствиями для здоровья.
Индустрия добычи кобальта сосредоточена преимущественно в Конго: страна обеспечивает 60–70% глобальных поставок. Заметная доля добычи приходится на «малые шахты», в которых не соблюдаются правила безопасности. Иногда в них и вовсе работают голыми руками. Часто это приводит к фатальным исходам.
Правозащитни:цы отмечают, что добыча кобальта способствует развитию рабства и использованию детского труда, ведет к гибели урожаев и животных. В особую зону риска попадают беременные женщины и дети: высокая концентрация минерала в воздухе приводит к врожденным болезням и деформациям тела. Кроме того, компании, которые разрабатывают месторождения кобальта, часто принудительно выселяют местных житель:ниц.
ИИ-индустрия, которая увеличивает спрос на кобальт, только усугубляет эти проблемы.
ИИ-модели не идеальны — как и мир, в котором они создаются
У популярных ИИ-моделей, безусловно, существует темная сторона. Они повышают спрос на низкооплачиваемый и травматичный труд по всему миру, наносят заметный ущерб экологии и эксплуатируют чужое творчество.
Значит ли это, что ИИ как технология сама по себе безусловно вредна? Вовсе нет, считает журналистка Карен Хао, которая освещает проблемы индустрии. В отдельных сферах ИИ действительно приносит пользу. Например, некоторые модели упрощают жизнь людям с инвалидностью. Они переводят текст в звуки и наоборот, облегчают мобильность, помогают с навигацией в пространстве, делают психотерапию более доступной. ИИ играет все более важную роль в медицинских исследованиях и диагностике, помогая, например, находить признаки рака на маммограммах.
Проблема не в технологии как таковой, а в бизнес-практиках индустрии, которые обостряют многие мировые проблемы — от роста неравенства до неоколониализма. Современный неолиберальный подход не может стать основой для справедливых технологий до тех пор, пока люди, чьи результаты труда и персональная информация используются в создании и обучении ИИ-моделей, не владеют правами на собственные данные.
ИИ-технологии обещают лучший мир, но только для отдельных людей. Такое неравное распределение лишь усугубляет разрыв между Глобальным Севером и Югом, между богатыми и бедными. В то время как страны Глобального Севера — Европа, США, богатые страны Восточной Азии — пользуются преимуществами искусственного интеллекта в экономике, последствия его разработки и поддержки в основном падают на плечи людей Глобального Юга — без доступа к конечному продукту труда и прибыли от него. Пока крупные корпорации преумножают прибыль за счет автоматизации, работни:цам все сложнее сохранять постоянную занятость в традиционных сферах. Поэтому многие из них вынуждены становиться «кликворкер:ками».
При этом, хотим мы того или нет, наша повседневная жизнь все сильнее зависит от ИИ-индустрии. Государства по всему миру, включая Россию, все активнее прибегают к искусственному интеллекту и автоматизированному принятию решений. Алгоритмы используются чтобы предсказывать преступность и рецидивизм, распределять финансирование, социальные выплаты и общественные услуги. Выходит, что доступ к медицине, образованию, транспорту, финансированию все больше зависит от решений, принятых ИИ. Исключение из данных (или чрезмерная представленность в них), технологии; и предвзятости в алгоритме — все это может иметь серьезные последствия для целых сообществ и уязвимых групп населения.
Конечно, все чаще появляются инициативы по защите прав людей, добывающих критически важные для ИИ-индустрии минералы. Пытаются защитить свои коллективные права и кликворкер:ки. Тем не менее, корни многих проблем вокруг ИИ-моделей лежат сильно глубже: в структуре современной экономики, построенной на принципе краткосрочных достижений и извлечении максимальной выгоды для инвесторо:к и корпораций. Именно это приводит к эксплуатации, нарушению трудовых прав и разрушительным последствиям для экологии.
Какими бы справедливыми и этичными ни были технологии, они не смогут противостоять несправедливому миру.