8 февраля 2024 года DOXA внесли в реестр «нежелательных организаций».

Если вы находитесь в России или планируете в нее возвращаться, вам нельзя репостить наши материалы в соцсетях, ссылаться на них и публиковать цитаты.

Подробнее о том, что можно и нельзя, читайте в карточках.

Контент с сексуализированным насилием над детьми используется для создания порнографических ИИ-видео — Internet Watch Foundation

Публикация
22 июля 2024 г. 09:26
Источник
IWF
Предупреждение

В тексте упоминается сексуализированное насилие над детьми

В интернете получили распространение ролики с сексуализированным насилием над детьми, созданные с помощью искусственного интеллекта, который, в свою очередь, был обучен на настоящих роликах подобного толка. Об этом сообщается в докладе британского Internet Watch Foundation «Искусственный интеллект и производство изображений с сексуализированным насилием над детьми».

Как говорится пресс-релизе доклада, в 2024 году фонд впервые обнаружил в интернете реалистичные ролики такого рода, а распространенность сгенерированных ИИ видео и картинок с педофильским содержанием достигла «пугающего» уровня. В некоторых случаях ролики созданы на основе «взрослой» порнографии, где лица акт:рис заменены лицами детей, в том числе известных жертв сексуализированного насилия. В других случаях это ролики, целиком созданные нейросетью, обученной на настоящих съемках насилия над детьми.

В марте–апреле 2024 года IWF обнаружила в интернете девять подобных роликов и 12 тысяч изображений, созданных ИИ. 90% таких картинок были настолько реалистичны, что за их распространение в Великобритании можно было бы судить по тем же законам, что и за настоящую порнографию с насилием над детьми. Кроме того, аналитик:ессы фонда обнаружили, что контент с насилием над детьми, создаваемый нейросетями, за последний год стал более жестоким: на большем количестве псевдофотографий изображены проникновение, сексуализированные сцены с животными и садистские действия. Впервые такой контент был обнаружен весной 2023 года.

Аналтикик:ессы считают, что распространение искусственно сгенерированного контента с сексуализированным насилием над детьми вредит и настоящим детям, так как эксплуатирует изображения настоящих жертв насилия. Так, например, на соответствующих ресурсах публикуются настроенные модели для генерации контента с 128 поименованными настоящими жертвами сексуализированного насилия. Фонд настаивает, что распространение подобного контента и инструкций к его созданию необходимо криминализировать.

Другие новости
показать еще