sáb. May 2nd, 2026

Según los investigadores, las aplicaciones y los sitios web que utilizan inteligencia artificial para desnudar a las mujeres en fotografías están ganando popularidad.

Sólo en septiembre, 24 millones de personas visitaron sitios web de desnudezsegún la empresa de análisis de redes sociales Graphika.

Según Graphika, muchos de estos servicios de desnudez o “desnudez” utilizan redes sociales populares para fines de marketing. Por ejemplo, desde principios de este año, El número de enlaces que anuncian aplicaciones de desnudos aumentó en más de un 2.400 por ciento en las redes sociales, incluso en X y Reddit, dijeron los investigadores. Los servicios utilizan IA para recrear una imagen de modo que la persona esté desnuda. Muchos de los servicios sólo trabajan con mujeres.

Estas aplicaciones son parte de un Preocupante tendencia de la pornografía no consentida que se desarrolla y distribuye gracias a los avances en inteligencia artificial, un tipo de medio fabricado conocido como pornografía deepfake. Su proliferación tropieza con serios obstáculos legales y éticos, ya que Las imágenes a menudo se toman de las redes sociales y se distribuyen sin el consentimiento, control o conocimiento de la persona.

El aumento de popularidad corresponde al lanzamiento de varios modelos de difusión de código abierto, o inteligencia artificial, que pueden crear imágenes muy superiores a las creadas hace apenas unos años, afirmó Graphika. Al ser de código abierto, las plantillas que utilizan los desarrolladores de aplicaciones están disponibles de forma gratuita.

“Se puede crear algo que realmente parezca realista”, dijo Santiago Lakatos, analista de Graphika, señalando que deepfakes Los anteriores a menudo estaban borrosos.


Una imagen publicada en X que anunciaba una aplicación de desnudez usaba un lenguaje que sugería que Los clientes podían crear imágenes de desnudos y luego enviárselas a la persona cuya imagen fue eliminada digitalmente.excitación acoso. Mientras tanto, una de las aplicaciones paga por contenido patrocinado en YouTube de Google y aparece primero cuando se busca la palabra “nudify”.

Un portavoz de Google dijo que la empresa no permite anuncios “que contengan contenido sexual explícito”. “Hemos revisado los anuncios en cuestión y estamos eliminando aquellos que violan nuestras políticas”, dijo la compañía.

Un portavoz de Reddit dijo que el sitio prohíbe compartir sin consentimiento material falso sexualmente explícito y que había prohibido varios dominios como resultado de la investigación. X no respondió a una solicitud de comentarios.

Además del aumento del tráfico, los servicios, algunos de los cuales cobran 9,99 dólares al mes, dicen en sus sitios web que están atrayendo a muchos clientes. “Están haciendo muchos negocios”, dijo Lakatos. Al describir una de las aplicaciones de striptease, dijo: “Si les tomas la palabra, su sitio web anuncia que tienen más de mil usuarios al día”.

La pornografía no consensuada de figuras públicas ha sido durante mucho tiempo un flagelo de Internet, pero los especialistas en privacidad están cada vez más preocupados de que los avances en la tecnología de inteligencia artificial hayan hecho que el software deepfake sea más fácil y efectivo.

“Estamos viendo cada vez más de esto hecho por personas comunes y corrientes con objetivos comunes”, dijo Eva Galperin, directora de ciberseguridad de Electronic Frontier Foundation. “Se ve entre los estudiantes de secundaria y las personas que están en la universidad”.

Muchas víctimas nunca se enteran de las imágenes, pero incluso aquellas que sí lo hacen pueden tener dificultades para lograr que las autoridades investiguen o encuentren fondos para emprender acciones legales, dijo Galperin.

En este momento No existe ninguna ley federal que prohíba la creación de pornografía deepfake., aunque el gobierno de Estados Unidos prohíbe la generación de este tipo de imágenes de niñas y niños. En noviembre, una psiquiatra infantil de Carolina del Norte fue sentenciada a 40 años de prisión por utilizar aplicaciones de desnudos en fotografías de sus pacientes, el primer procesamiento de este tipo bajo la ley que prohíbe generación deepfake de material de abuso sexual infantil.

TikTok bloqueó la palabra clave “strip”, un término de búsqueda popular asociado con los servicios, advirtiendo a cualquiera que busque la palabra que “puede estar asociada con un comportamiento o contenido que viola nuestras pautas”, según la aplicación. Un representante de TikTok se negó a proporcionar más detalles. En respuesta a las preguntas, Meta Platforms también comenzó a bloquear palabras clave asociadas con la búsqueda de aplicaciones de desnudez. Un portavoz se negó a hacer comentarios.

Leer la nota Completa

Metro

By Metro

METRO es un sitio web internacional en donde destacan las noticias más relevantes de hoy, actualidad y diversos temas como deportes, politica, economía y más. Con información veráz y acertada en cada noticia de todo el mundo.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *