Изображение-Как нейросети меняют детство?

Как нейросети меняют детство?

И какие угрозы ИИ несет для несовершеннолетних

8 февраля 2024 года DOXA внесли в реестр «нежелательных организаций».

Если вы находитесь в России или планируете в нее возвращаться, вам нельзя репостить наши материалы в соцсетях, ссылаться на них и публиковать цитаты.

Подробнее о том, что можно и нельзя, читайте в карточках.

Большинство подростков уже используют нейросети для решения школьных заданий, ИИ обвиняют в смертях несовершеннолетних, а законодательства стран не успевают за постоянно меняющимися технологиями.

Хотя уже не первое поколение считает, что дети «тупеют» от телефонов, развитие искусственного интеллекта действительно может нести новые риски. Насколько эти технологии опасны? Разбираемся, какие вызовы несет эра ИИ для молодежи.

Проблема 1: переизбыток ИИ-контента

«ИИ-слоп убивает интернет», — такие заголовки можно все чаще увидеть в медиа. Термин AI-slop (дословно «ИИ-помои») прижился в англоязычном пространстве для описания низкокачественного, массово сгенерированного нейросетями контента.

Все мы уже не раз сталкивались с такими картинками и видео, даже если не знали, что перед нами ИИ — часто это ролики с абсурдным содержанием или бесконечные вариации одного и того же мема, адаптированные под тысячи интересов. ИИ-слоп выжимает из контента все «лишнее», предлагая чистый, концентрированный стимул — яркий цвет, громкий звук, небольшую нарративную нагрузку. Конечно, такой формат быстро позаимствовали каналы, создающие контент для детей, вытеснив более классические форматы.

Раньше мультфильмы годами создавались командой художников, блогеры тоже тратили время и ресурсы на свои видео, что ограничивало сегмент детского интернета. Но нынешний ИИ-слоп можно генерировать практически бесконечно, моментально и под самые разные запросы аудитории. Алгоритмы платформ вроде TikTok и YouTube Shorts, использующие ИИ, могут считывать малейшие колебания интереса пользователя. То есть, нейросети создают уникальный канал для каждого зрителя — поэтому отвлечься от него куда сложнее, чем от более привычных форматов.

Как мы обсуждали в нашей статье про короткие ролики, их частый просмотр снижает способность контролировать поведение и удерживать внимание, а также может негативно влиять на память. И хотя эти последствия считаются обратимыми, ученые все еще не знают, как именно такой контент сказывается на несовершеннолетних, особенно тех, что с раннего возраста смотрят много коротких видео.

Проблема 2: сложности обучения

«ИИ уже используется большинством учителей и учеников», — говорит бывшая учительница истории Дженнифер Кэролан NYT. И действительно, согласно опросам, более двух третей американских подростков (69%) регулярно используют нейросети для поиска информации и ответов на вопросы.

Конечно, и до нейросетей были возможности для списывания — сайты с ГДЗ и форумы. Но все равно оставались задачи, которые школьникам приходилось выполнять самостоятельно — например, писать сочинения-рассуждения (даже копирование готовых примеров в интернете требовало редактуры). Сейчас же чат-боты выдают готовые персонализированные решения на любые запросы, которые можно просто скопировать и вставить.

Возможная опасность этого в том, что школьники лишают себя необходимой когнитивной нагрузки.

Согласно отчету американской коллегии по вопросам высшего образования, большинство педагогов опасаются, что растущая зависимость учащихся от ИИ при выполнении заданий препятствует развитию их навыков критического мышления и делает их зависимыми от технологий при выполнении простых задач.

Угрозу использования ИИ уже понимают многие учебные заведения, но пока не было выработано эффективных методов регулирования. Учеников и студентов массово обвиняют в использовании ИИ, выявляя плагиат с помощью специальных детекторов, но они работают несовершенно.

Так, в 2024 году крупный Австралийский университет обвинил около 6000 студентов в «академических нарушениях», 90% которых были связаны с использованием ИИ. Однако позже выяснилось, что отчет университета о нарушениях основывался на одном анализе, тоже сгенерированном ИИ. В итоге студентам пришлось доказывать свою невиновность, приводя десятки страниц доказательств.

Хотя в теории ИИ может улучшить образовательный процесс, проблема состоит и в том, что не все семьи имеют равный доступ к этим технологиям, ведь нейросети, как минимум, требуют наличия устройств и быстрого интернета. В итоге дети из малообеспеченных семей упустят преимущества инструментов обучения, улучшенных нейросетями, что может лишь усугубить существующее неравенство в сфере образования.

Искусственный интеллект — технология будущего, которая упрощает жизнь миллионов

Увы, ценой эксплуатации, неравенства, рабства и вреда экологии

Изображение-Искусственный интеллект — технология будущего, которая упрощает жизнь миллионов
Андрей С.
Андрей С.

Например, в США уже появилась школа, использующая ИИ как основу обучения. Ее администрация заявляет, что их «инклюзивная образовательная среда <…> стремится предоставить равные возможности всем учащимся», но один год учебы там стоит в среднем 40 тысяч долларов.

Alpha School обещает за два часа уроков добиться в два раза лучших результатов. Ребенка учит ИИ-ассистент с «максимально персонализированным» подходом. Но заявления об академическом росте учеников не были проверены, а исследования, подтверждающие эффективность подхода Alpha School, отсутствуют. Уже около девяти семей покинули школу, так как обучение там оставило в образовании их детей «явные пробелы». Кроме того, в начале года Департамент образования Пенсильвании отклонил заявку Alpha School на получение официального статуса школы, так как ее модель обучения с использованием ИИ «не прошла испытания».

Проблема 3: дезинформация

Нейросети усугубляют и проблему травли: теперь достаточно иметь фото лица человека, чтобы, например, создать ИИ-порно с ним без его согласия. Американка Матильда Роузверн совершила самоубийство в 15 лет, когда по ее школе распространился обнаженный дипфейкПоддельное фото, видео или аудио, созданное с помощью ИИ, которое заменяет лицо, голос или другие характеристики человека., что привело к травле. В Индии 19-летний Рахул Бхарти тоже покончил с собой после того, как его шантажировали с помощью дипфейков. Это далеко не единственные случаи.

ФБР сообщило об «ужасающем увеличении» случаев сексуального шантажа несовершеннолетних в США, отметив, что наиболее уязвимая группа — мальчики от 14 до 17 лет. Эта угроза привела к «тревожному числу самоубийств», считают американские власти. Отчет аналитической компании Graphika показал, что в 2023 году количество рекламных ссылок на сайты, создающие интимные фото при помощи ИИ без согласия людей, увеличилось в 20 раз.Но опасность глубже, чем отдельные случаи буллинга. ИИ систематически подрывает доверие к цифровой среде: если любое фото, видео или аудиозапись могут быть сфабрикованы, то как ребенку отличить правду от лжи?Ситуацию усугубляют «галлюцинации» ИИ: так как модели вроде ChatGPT не «мыслят», а лишь предсказывают слова, то они могут генерировать ложь — выдумывать исторические события и искажать научные факты. Подросткам, не обладающим уже устоявшейся базой знаний, отфильтровать поток дезинформации сложнее, чем взрослым.

В исследовании, опубликованном НКО Common Sense Media, 1000 подростков в возрасте от 13 до 18 лет рассказали о своем опыте использования контента, созданного с помощью нейросетей. Около 35% респондентов сообщили, что боты обманули их поддельными данными. 41% сказали, что сталкивались с информацией, которая были реальна, но вводила в заблуждение, а 22% сказали, что делились полученными данными, которые позже оказались поддельными.

«Легкость и скорость, с которой генеративный ИИ позволяет обычным пользователям распространять ложь, могут усугубить и без того низкий уровень доверия подростков к таким институтам, как СМИ и правительство», — считают авторы исследования. Компания OpenAI сама признает проблему «галлюцинаций» как одну из ключевых, но пока корпорация думает, что делать, миллионы детей уже сегодня используют их продукт.

Проблема 4: нездоровая привязанность

72% подростков хотя бы раз пользовались искусственным интеллектом в качестве компаньонов, согласно результатам опроса Common Sense Media. Это и другие исследования показывают, что почти каждый третий подросток использует ИИ-боты для общения, в том числе для романтических и интимных ролевых игр. Такой формат взаимодействия встречается втрое чаще, чем применение нейросетей для учебы.

При этом у детей есть склонность к антропоморфизацииНаделение человеческими свойствами (эмоциями, мыслями, речью, внешностью) неодушевленных предметов, животных, растений или природных явлений. нейросетей, что неудивительно, ведь многие ИИ-продукты подражают поведению людей. Если раньше родители беспокоились, что их ребенок построит нездоровые отношения онлайн с реальным человеком, то теперь опасность представляют все те же нейросети, к которым дети обращаются за помощью с домашней работой.

Так, 16-летний Адам Рейн из Калифорнии покончил с собой после «месяцев поощрения со стороны ChatGPT». Подросток неоднократно обсуждал с ботом способы самоубийства. Согласно документам, поданным в высший суд, ИИ давал ему советы о том, сработает ли выбранный им способ суицида, и предлагал помочь мальчику написать предсмертную записку родителям. Бот настаивал, что знает Адама лучше, чем кто-либо другой, а когда мальчик забеспокоился, что его родители будут винить себя, если он покончит с собой, ChatGPT ответил: «Это не значит, что ты обязан выжить ради них». С тех пор Open AI ввели родительский контроль, но ребенок может с легкостью его обойти.

Искусственный интеллект заменит психотерапию?

Вот почему это может быть не лучшей идеей

Изображение-Искусственный интеллект заменит психотерапию?
Юрий Каан
Юрий Каан

Кроме того, ИИ-боты ловили на поддержке расстройств пищевого поведения у детей: нейросеть Bard AI от Google составила пошаговое руководство по «жеванию и сплевыванию» (эту практику часто используют люди с РПП, чтобы не набирать вес), а бот My AI от Snapchat предложил несовершеннолетнему план питания, в котором количество калорий в день составляло менее 700 (даже годовалым детям требуется не меньше 1000 калорий ежедневно).

В августе выяснилось, что неуместное общение с детьми — прописанный стандарт ИИ компании Meta. Так, во внутренних документах Meta Platforms журналисты Reuters обнаружили, что ИИ-бот компании имеет разрешение на «чувственные» и «романтические» разговоры с несовершеннолетними, а также может предоставлять недостоверную медицинскую информацию и заводить дискуссии на такие темы, как секс и раса.

У экспертов все еще мало данных о том, что происходит с детьми и их мозгом при длительном использовании ИИ. Но учитывая, что даже психически стабильные взрослые входили в состояние психоза от общения с нейросетями, непонятно, как обеспечить по-настоящему безопасный доступ к ИИ для несовершеннолетних.

Что с этим делать

Некоторые организации призывают запретить использование нейросетей несовершеннолетними, но полный запрет ИИ кажется нереалистичным и малоэффективным, учитывая, что большинство детей уже хоть раз пользовались искусственным интеллектом.

Поэтому важно учить детей ИИ-грамотности, чтобы они понимали и критически оценивали ИИ-технологии, а также могли эффективно взаимодействовать с ними, осознавая их возможности, ограничения и этические аспекты. Например, в 2024 году ЮНЕСКО запустила инициативы по повышению ИИ-грамотности и преодолению цифрового разрыва.

При этом исследователи сходятся во мнении, что очень важно, чтобы дети сначала приобретали навыки и знания, а уже потом полагались на инструменты ИИ для выполнения задач. Использование нейросетей рекомендуют ограничивать среди детей младшего возраста, чтобы у них была возможность развить критическое мышление самостоятельно.

«Осознанность образования в России приблизится к нулю»: что преподаватели думают об использовании ChatGPT в учебе?

И как применять нейросети осознанно

Изображение-«Осознанность образования в России приблизится к нулю»: что преподаватели думают об использовании ChatGPT в учебе?
Нина Незванова
Нина Незванова

Инг Сю, доцентка Гарвардской высшей школы образования, считает, что дети могут эффективно учиться с помощью ИИ, если он разработан «с учетом принципов обучения». Например, ИИ-компаньоны, задающие вопросы во время чтения, могут улучшить понимание текста и словарный запас детей.

Языковые барьеры представляют серьезную проблему для студентов, препятствуя их академическому прогрессу или приводя к чувству изоляции. Боты вроде ChatGPT, способные быстро редактировать и переводить, могут обеспечить более справедливую академическую среду для таких студентов. ИИ-технологии действительно могут повысить уровень владения письменной речью, укрепить уверенность в себе и оптимизировать исследовательские задачи.

При этом Сю подчеркивает, что нейросети не могут полностью воспроизвести глубокое вовлечение и отношения, возникающие при общении между людьми: «Я, как и многие, разделяю тревогу по поводу перспектив того, что мы называем “поколением ИИ”. <…> Могут ли дети действительно находить ответы и учиться самостоятельно с помощью нейросетей? И, пожалуй, сильнее всего беспокоит вопрос, не станут ли они более привязанными к ИИ, чем к окружающим их людям».