Главная | В МИРЕ | «Дети не могут ждать, пока закон „догонит“ реальность». ЮНИСЕФ — о дипфейках с детьми

«Дети не могут ждать, пока закон „догонит“ реальность». ЮНИСЕФ — о дипфейках с детьми

Фото: Евгений Сорочин / «Газета.uz»

Детский фонд ООН (ЮНИСЕФ) призвал правительства стран мира и цифровые компании к принятию срочных мер по противодействию нарастающей угрозе материалов сексуального насилия над детьми, создаваемых с помощью искусственного интеллекта (дипфейков). Об этом говорится в заявлении фонда, полученном «Газетой».

«ЮНИСЕФ всё больше тревожат сообщения о стремительном росте объёма распространяемых сексуализированных изображений, созданных с помощью ИИ, включая случаи, когда фотографии детей были подвергнуты манипуляции и сексуализации», — говорится в заявлении.

«Дипфейки… всё чаще используются для производства сексуализированного контента с участием детей, в том числе посредством „нудификации“, когда инструменты ИИ применяются для „снятия“ или изменения одежды на фотографиях с целью создания сфабрикованных обнажённых или сексуализированных изображений», — отметили в фонде.

«Сексуализированные изображения детей, созданные или изменённые с использованием инструментов ИИ, являются материалами сексуального насилия над детьми (CSAM). Дипфейк-насилие — это насилие, и вред, который оно причиняет, вовсе не „поддельный“», — подчеркнули в ЮНИСЕФ.

«Когда используется изображение или личность ребёнка, ребёнок становится прямой жертвой. Даже при отсутствии идентифицируемой жертвы материалы сексуального насилия над детьми, созданные с помощью ИИ, нормализуют сексуальную эксплуатацию детей, подпитывают спрос на насильственный контент и создают серьёзные трудности для правоохранительных органов в выявлении и защите детей, которым нужна помощь», — отмечается в заявлении.Реклама на Gazeta

Слишком многие модели ИИ разрабатываются без достаточных мер безопасности. Риски могут усиливаться, когда генеративные инструменты ИИ встраиваются непосредственно в платформы социальных сетей, где изменённые изображения распространяются очень быстро, добавили в фонде.

Рекомендации ЮНИСЕФ:

  • Все правительства должны расширить определения материалов сексуального насилия над детьми (CSAM), включив в них контент, созданный с помощью ИИ, и криминализировать его создание, заказ/получение, хранение и распространение.
  • Разработчики ИИ должны внедрять подходы «безопасность по замыслу» (safety-by-design) и надёжные защитные барьеры, чтобы предотвратить злоупотребления моделями ИИ.
  • Цифровые компании должны предотвращать распространение материалов сексуального насилия над детьми, созданных с помощью ИИ, — а не просто удалять их после того, как насилие уже произошло; и усиливать модерацию контента, инвестируя в технологии выявления, чтобы такой материал удалялся немедленно, а не через дни после обращения жертвы или её представителя.

«Вред от дипфейк-насилия реален и требует срочных действий. Дети не могут ждать, пока закон „догонит“ реальность», — заявили в ЮНИСЕФ.

Источник