
NUEVA YORK.— Los ya alarmante proliferación de imágenes de abuso sexual infantil En Internet podría empeorar mucho si no se hace algo para controlar las herramientas de inteligencia artificial que generan fotografías ultrafalsasadvirtió una agencia de vigilancia esta semana.
En un informe escrito, el Fundación de vigilancia de Internetcon sede en el Reino Unido, insta a los gobiernos y proveedores de tecnología a actuar rápidamente ante una avalancha de imágenes de Abuso sexual infantil generado por IA abruma a los investigadores encargados de hacer cumplir la ley y amplía enormemente el grupo de víctimas potenciales.
“No estamos hablando del daño que podría causar”, dijo Dan Sexton, director de tecnología del grupo de vigilancia. “Esto está sucediendo ahora mismo y es necesario abordarlo ahora mismo”.
En un caso único en su tipo en Corea del Sur, un hombre fue condenado en septiembre a dos años y medio de prisión por utilizar inteligencia artificial para crear imágenes virtuales de 360 grados de abuso infantil, según el Tribunal de Distrito de Busan en Corea del Sur. sureste del país. .
En algunos casos, los niños usan estas herramientas entre sí. En una escuela del suroeste de España, la policía ha estado investigando el presunto uso de una aplicación telefónica por parte de adolescentes para hacer que sus compañeros completamente vestidos aparecieran desnudos en fotografías.
El informe expone el lado oscuro de la carrera por construir sistemas de seguridad inteligencia artificial generativa que permiten a los usuarios describir con palabras lo que quieren producir (desde correos electrónicos hasta obras de arte y videos novedosos) y hacer que el sistema lo escupe.
Si no te detienes, la avalancha de imágenes falsas de abuso sexual infantil podría atascar a los investigadores que intentan rescatar a los niños quienes resultan ser personajes virtuales. Los perpetradores también podrían utilizar las imágenes para preparar y coaccionar a nuevas víctimas.
Sexton dijo que los analistas de la IWF descubrieron rostros de niños famosos en línea, así como una “demanda masiva para la creación de más imágenes de niños que ya han sido abusados, posiblemente hace años”.
“Están tomando contenido real existente y utilizándolo para crear contenido nuevo para estas víctimas”, dicho. “Eso es increíblemente impactante”.
Sexton dijo que su organización benéfica, que se centra en combatir abuso sexual infantil en líneacomenzó a recibir informes sobre Imágenes abusivas generadas por IA. a principios de este año. Eso llevó a una investigación sobre los llamados foros de la web oscura, una parte de Internet alojada dentro de una red cifrada y accesible sólo a través de herramientas que brindan anonimato.
Lo que encontraron los analistas de la IWF fue que los abusadores compartían consejos y se maravillaban de lo fácil que era convertir las computadoras de sus hogares en fábricas para generar i.Imágenes sexualmente explícitas de niños de todas las edades. Algunos también comercializan e intentan sacar provecho de este tipo de imágenes que parecen cada vez más realistas.
“Lo que estamos empezando a ver es esta explosión de contenido”, dijo Sexton.
Si bien el informe de la IWF pretende señalar un problema creciente en lugar de ofrecer recetas, pide a los gobiernos que fortalezcan las leyes para facilitar la lucha contra los abusos generados por la IA. Está particularmente dirigido a la Unión Europea, donde hay un debate sobre las medidas de vigilancia que podrían escanear automáticamente las aplicaciones de mensajería en busca de imágenes sospechosas de abuso sexual infantil, incluso si las autoridades no tienen conocimiento previo de las imágenes.
Uno de los objetivos del trabajo del grupo es prevenir víctimas anteriores de abuso sexual volver a ser abusados mediante la redistribución de sus fotografías.
El informe dice que los proveedores de tecnología podrían hacer más para dificultar que los productos que han creado se utilicen de esta manera, aunque es complicado por el hecho de que algunas de las herramientas son difíciles de volver a guardar en la botella.
El año pasado una serie de Nuevos generadores de imágenes con IA que sorprendieron al público. con su capacidad de evocar imágenes caprichosas o fotorrealistas cuando se lo ordenan. Pero la mayoría de ellos no son favorecidos por los productores de material de abuso sexual infantil porque contienen mecanismos para bloquearlo.
Los proveedores de tecnología que han cerrado modelos de IA, con control total sobre cómo se entrenan y utilizan (por ejemplo, el generador de imágenes DALL-E de OpenAI) han tenido más éxito en bloquear el uso indebido, dijo Sexton.
Por el contrario, una herramienta preferida por los productores de imágenes de abuso sexual infantil es Stable Diffusion, de código abierto, desarrollada por la startup Stability AI, con sede en Londres. Cuando Stable Diffusion irrumpió en escena en el verano de 2022, un subconjunto de usuarios aprendió rápidamente a usarlo para generar desnudos y pornografía. Si bien la mayor parte de este material representaba a adultos, a menudo era no fue consensuadocomo cuando se utilizó para crear fotografías de desnudos inspiradas en celebridades.
Posteriormente, Stability implementó nuevos filtros que bloquean contenido inseguro e inapropiado, y una licencia para usar el software de Stability viene con una prohibición de usos ilegales.
En un comunicado emitido el martes, la compañía dijo que “prohíbe estrictamente cualquier uso indebido con fines ilegales o inmorales” en sus plataformas. “Apoyamos firmemente los esfuerzos de aplicación de la ley contra quienes hacen un mal uso de nuestros productos con fines ilegales o nefastos”, decía el comunicado.
Sin embargo, los usuarios aún pueden acceder a versiones anteriores de Stable Diffusion, que son “abrumadoramente el software preferido… para las personas que crean contenido explícito que involucra a niños”, dijo David Thiel, director de tecnología del Observatorio de Internet. Stanford, otro grupo de vigilancia que estudia el problema. .
El informe de la IWF reconoce la dificultad de intentar criminalizar las propias herramientas de imágenes de IAincluso aquellos “sintonizados” para producir material abusivo.
“No se puede regular lo que la gente hace en sus computadoras, en sus dormitorios. “No es posible”, añadió Sexton. “Entonces, ¿cómo se llega al punto en el que no pueden utilizar software disponible abiertamente para crear contenido dañino como este?”
La mayoría de las imágenes de abuso sexual infantil generadas por IA se considerarían ilegales según las leyes actuales de EE. UU., Reino Unido y otros lugares, pero aún está por verse si las autoridades tienen las herramientas para combatirlas.
Un funcionario de la policía británica dijo que el informe muestra el impacto ya presenciado por los agentes que trabajan para identificar a las víctimas.
“Estamos viendo niños preparados, vemos perpetradores creando sus propias imágenes según sus propias especificaciones, estamos viendo imágenes de IA producidas con fines comerciales, todo lo cual normaliza la violación y el abuso de niños reales”, dijo Ian en un comunicado. . Critchley, líder de protección infantil en el Consejo de Jefes de Policía Nacional.
El informe de la IWF está programado antes de una reunión mundial sobre seguridad de la IA la próxima semana organizado por el gobierno británico que incluirá asistentes de alto perfil, incluida la vicepresidenta de los Estados Unidos, Kamala Harris, y líderes tecnológicos.
“Si bien este informe presenta un panorama sombrío, soy optimista”, dijo la directora ejecutiva de la IWF, Susie Hargreaves, en una declaración escrita preparada. Dijo que es importante comunicar la realidad del problema a “una amplia audiencia porque necesitamos discutir el lado oscuro de esta asombrosa tecnología”.
METRO es un sitio web internacional en donde destacan las noticias más relevantes de hoy, actualidad y diversos temas como deportes, politica, economía y más. Con información veráz y acertada en cada noticia de todo el mundo.
