Hacete socio para acceder a este contenido

Para continuar, hacete socio de Caras y Caretas. Si ya formas parte de la comunidad, inicia sesión.

ASOCIARME
Mundo abuso | IA |

Perversidad extrema

Imágenes de abuso infantil se usan para entrenar a la IA

Reciente investigación reveló que varios sistemas de inteligencia artificial estaban usando para sus entrenamientos miles de imágenes de abuso sexual infantil.

Suscribite

Caras y Caretas Diario

En tu email todos los días

En una investigación realizada por el Observatorio de Internet de Standford, que fue publicado este miércoles, se informa que fueron halladas imágenes de abuso sexual infantil en una enorme base de datos utilizada para entrenar populares generadores de imágenes con inteligencia artificial (IA), como Stable Diffusion.

En la base de datos de IA LAION-5 se encontraron 3.226 imágenes de presuntos abusos sexuales infantiles. En la base de datos de IA LAION-5 se encontraron 3.226 imágenes de presuntos abusos sexuales infantiles.

Esas imágenes horrendas han facilitado que los tan cuestionados sistemas de IA produzcan imágenes realistas (y explícitas) pero con niños y niñas falsos. Tales sistemas también han tomado fotos de múltiples cuentas de las redes sociales de adolescentes reales, luego se les aplicaban distintas intervenciones técnicas para que estos adolescentes aparecieran desnudos. Esto activo todas las alarmas en los centros educativos y departamentos de policía en varios países.

El Observatorio encontró 3.226 imágenes de presuntos abusos sexuales infantiles en la base de datos de IA LAION-5B. Con la ayuda de organizaciones benéficas contra el abuso infantil, se pudo confirmar que dicho material en efecto retrata explícitamente a menores.

Tras la publicación del informe, LAION dijo en un comunicado, citado por la agencia de noticias AP, que retiró temporalmente sus conjuntos de datos "para garantizar que sean seguros antes de volver a publicarlos".

Respecto a Stable Diffusion, si bien su versión más reciente, Stable Diffusion 2.0, hace más difícil para los usuarios crear contenido nocivo, la versión anterior —Stable Diffusion 1.5 introducida el año pasado— genera contenido explícito y es "el modelo más popular para generar contenido explícito", según el estudio.

"La solución más obvia es que la mayoría de los que poseen conjuntos de entrenamiento derivados de LAION-5B los borren o trabajen con intermediarios para limpiar el material", señalan los investigadores, pidiendo "considerar obsoletos" y "cesar la producción" de los modelos basados en Stable Diffusion 1.5.

Temas

Dejá tu comentario

Forma parte de los que luchamos por la libertad de información.

Hacete socio de Caras y Caretas y ayudanos a seguir mostrando lo que nadie te muestra.

HACETE SOCIO