La cantidad de pornografía infantil generada por IA que se encuentra en línea está creciendo a un ritmo “escalofriante”, según el organismo de control del país.
La Internet Watch Foundation lucha contra la pornografía infantil en Internet y elimina cientos de miles de imágenes cada año.
Ahora, como él dice inteligencia artificial hace el trabajo mucho más difícil.
“Es realmente aterrador porque creo que estamos en un punto de inflexión”, dijo “Jeff”, un analista senior de la Internet Watch Foundation (IWF) que utiliza un nombre falso en el trabajo para proteger su identidad.
Durante los últimos seis meses, Jeff y su equipo han estado expuestos a más contenido relacionado con la IA que el año anterior y han visto un aumento del 6 % en el contenido impulsado por la IA.
Muchas imágenes de la IA sobre abuso y explotación infantil son inquietantemente realistas.
“Mientras que antes podíamos decir con certeza qué es una imagen de IA, ahora estamos llegando al punto en que incluso un analista capacitado (…) tendría dificultades para determinar si es real o no”, dijo Jeff a Sky News.
Según la IWF, para que la pornografía artificial sea tan realista, el software se entrena con imágenes existentes de abuso sexual.
“La gente no debe hacerse ilusiones”, dijo Derek Ray-Hill, director ejecutivo interino de la IWF.
“El material de abuso sexual infantil generado por IA causa un daño terrible no sólo a quienes pueden verlo, sino también a las víctimas, que son sometidas repetidamente a violencia cada vez que las imágenes y videos de su abuso son explotados sin piedad para el placer pervertido de los depredadores en Internet. “.
La IWF advierte que casi todo el contenido no estaba oculto en la web oscura, sino que se encontró en áreas de Internet de acceso público.
“Esta nueva tecnología está cambiando la forma en que se produce el material de abuso sexual infantil”, afirmó la profesora Clare McGlynn, experta jurídica especializada en explotación en línea y pornografía de la Universidad de Durham.
Lea más de Sky News:
La pandilla vendió vino añejo falso por £12,500 la botella
Presupuesto 2024: ¿Qué podría anunciar la Canciller?
El alcalde prohíbe plantar cactus en los edificios
Ella le dijo a Sky News que ahora es “fácil y simple” crear imágenes de abuso sexual infantil generadas por IA y luego publicitarlas y compartirlas en línea.
“Hasta ahora era fácil hacerlo sin tener que preocuparse de que la policía viniera a presentar cargos”, dijo.
Varios pedófilos fueron acusados el año pasado después de crear pornografía infantil basada en inteligencia artificial, incluido Neil Darlington, quien utilizó inteligencia artificial para intentar chantajear a las niñas para que le enviaran fotos explícitas.
Leer más: Se ha aumentado el castigo 'indulgente' para los pedófilos de IA
Crear imágenes explícitas de niños es ilegal, incluso si se generan utilizando inteligencia artificial, y los analistas de la IWF están trabajando con la policía y los proveedores de tecnología para eliminar y rastrear imágenes encontradas en línea.
Los analistas envían las URL de los sitios web que contienen imágenes de abuso sexual infantil generadas por IA a una lista que se comparte con la industria tecnológica para que pueda bloquear los sitios.
Las imágenes de IA también reciben un código único, como una huella digital, para que puedan rastrearse automáticamente incluso si se eliminan y se vuelven a cargar en otro lugar.
Más de la mitad del contenido generado por IA encontrado por la IWF en los últimos seis meses estaba alojado en servidores en Rusia y Estados Unidos, y también se encontraron cantidades significativas en Japón y los Países Bajos.