Internet Watch Foundation обнаруживает 260-кратное увеличение CSAM, созданного искусственным интеллектом, всего за один год, и «это верхушка айсберга» | Удача

Дата:

Цифры ошеломляют, но эксперты говорят, что то, что мы видим, — это только начало. Поскольку сгенерированные ИИ материалы о сексуальном насилии над детьми (CSAM) достигают рекордного уровня, исследователи предупреждают, что эта технология не только производит более вредный контент, но и фундаментально меняет способы нападения на детей; как выжившие снова становятся жертвами; и насколько исследователи перегружены.

Исследователи уже были заняты удалением CSAM из Интернета. Но с появлением генеративного ИИ эта проблема усугубилась. Фонд Internet Watch (IWF), крупнейшая в Европе горячая линия по борьбе с онлайн-изображениями сексуального насилия над детьми, зафиксировал 260-кратное увеличение количества видеороликов о сексуальном насилии над детьми, созданных с помощью искусственного интеллекта. В прошлом году их количество выросло с 13 до 3443. Исследователи, которые годами изучали эту тему, говорят, что взрыв не стал сюрпризом. Однако это предупреждение.

«Любая цифра, которую мы видим, — это верхушка айсберга», — сказала Мелисса Стробель, вице-президент по исследованиям и стратегическому анализу Thorn, некоммерческой организации, которая разрабатывает технологии для борьбы с сексуальной эксплуатацией детей в Интернете. «Речь идет о том, что было заранее обнаружено или о чем сообщалось».

Этот рост является прямым следствием того, что генеративный ИИ становится быстрее, дешевле и доступнее для злоумышленников. Торн выделил три различных способа использования этих инструментов в качестве оружия против детей.

Первый – это ревиктимизация тех, кто пережил исторические злоупотребления. Мальчик, подвергшийся насилию в 2010 году и чьи изображения циркулировали в Интернете более десяти лет, теперь сталкивается с совершенно новым слоем вреда. Преступники используют ИИ, чтобы взять существующие изображения и персонализировать их, вставляя себя в записанные сцены насилия для создания нового материала.

«Точно так же, как вы можете прифотошопить бабушку, которая пропустила рождественскую фотографию», — сказал Штребель Fortune, — «плохие актеры могут прифотошопить ее к сценам и записям опознанного ребенка». Этот процесс создает новую виктимизацию для выживших, которые, возможно, потратили годы, пытаясь преодолеть насилие.

Второе — использование невинных образов в качестве оружия. Фотография ребенка на сайте школьной футбольной команды теперь может стать потенциальным материалом для злоупотреблений. С помощью широко доступных инструментов искусственного интеллекта преступник может за считанные минуты превратить это совершенно безобидное изображение в материал сексуального насилия. Торн также документирует случаи общения между сверстниками, когда молодой человек создает оскорбительные образы одноклассника, не до конца осознавая серьезность причиняемого им вреда.

Третье и самое системное воздействие – это давление на и без того перегруженные каналы информирования. Национальный центр по делам пропавших и эксплуатируемых детей ежегодно получает десятки миллионов отчетов CSAM. Скорость, с которой ИИ теперь может генерировать новые материалы, резко усугубляет это бремя и создает новую актуальность. Когда появляется новое изображение, исследователи должны определить, представляет ли оно ребенка, находящегося в активной опасности в данный момент, или это изображение, созданное ИИ.

«Это действительно важная информация, которая поможет им сортировать эти случаи и реагировать на них», — сказал Штробель. Контент, созданный ИИ, значительно усложняет эти определения, но он добавил, что власти сообщают и рассматривают случаи изображения, сделанного в реальном времени, и изображения, созданного ИИ, одинаково.

Технологии также сделали некоторые из наиболее часто повторяемых правил безопасности детей опасно устаревшими. В течение многих лет детей предупреждали не публиковать изображения в Интернете в качестве основной защиты от эксплуатации. Этот совет больше не актуален. Собственное исследование Торна показало, что один из 17 молодых людей лично сталкивался с насилием над дипфейковыми изображениями, а каждый восьмой знал кого-то, на кого напали. Жертвам секс-вымогательства теперь присылают изображения, которые выглядят точно так же, как они сами, изображения, которые они никогда не делали.

«Ребенку больше не обязательно делиться изображением, которое будет эксплуатироваться», — сказал Штребель.

Что касается обнаружения, традиционная технология хеширования, которая действует как отпечаток пальца для известных файлов злоупотреблений, не может идентифицировать контент, созданный ИИ, поскольку каждое синтетически созданное изображение является технически новым. Возьмем, к примеру, фотографию чего-нибудь известного, например Статуи Свободы. На этой фотографии статуи есть отпечаток пальца. Теперь предположим, что вы увеличиваете масштаб, увеличиваете еще немного и снова увеличиваете масштаб, чтобы изменить затенение пикселя на 0,1%. Это изменение, вероятно, незаметно для человеческого глаза. Однако отпечаток этой фотографии теперь совершенно новый, а это означает, что технология хеширования не распознает ее как одну и ту же фотографию с разницей в один пиксель.

Раньше при использовании традиционной технологии хеширования разница в один пиксель с фотографией, известной как CSAM, означала, что технология ее не обнаружит. Однако технология классификации, которая оценивает содержание изображения, а не сопоставляет его с известным файлом, теперь необходима для обнаружения контента, который в противном случае был бы полностью пропущен.

Для родителей послание Штребеля является актуальным и недвусмысленным. Разговор не может ждать и должен выйти за рамки старых предупреждений. Если ребенок выходит вперед, первой реакцией не может быть скептицизм: «Наша работа: «Вы в безопасности и как я могу помочь вам перейти к следующему шагу?»

Website |  + posts

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный