Las imágenes de IA ‘peligrosas’ se multiplican en línea. Un estudio sugiere 3 formas de frenar el azote.

La proliferación de 'peligrosas' imágenes de IA en línea. Un estudio recomienda 3 maneras de combatir esta amenaza.

En el último año, los generadores de imágenes de IA han arrasado en el mundo. Vamos, incluso nuestros distinguidos escritores en TNW los usan de vez en cuando. 

La verdad es que herramientas como Stable Diffusion, Latent Diffusion o DALL·E pueden ser increíblemente útiles para producir imágenes únicas a partir de simples indicaciones, como esta imagen de Elon Musk montando un unicornio.

Pero no todo es diversión y juegos. Los usuarios de estos modelos de IA también pueden generar fácilmente imágenes odiosas, deshumanizadoras y pornográficas con solo hacer clic en un botón, con escasas o ninguna repercusión. 

“Las personas utilizan estas herramientas de IA para dibujar todo tipo de imágenes, lo cual presenta inherentemente un riesgo”, dijo la investigadora Yiting Qu del Centro CISPA Helmholtz de Seguridad de la Información en Alemania. Se vuelve especialmente problemático cuando se comparten imágenes perturbadoras o explícitas en plataformas de medios populares, enfatizó.

Aunque estos riesgos parecen bastante obvios, hasta ahora ha habido poca investigación para cuantificar los peligros y crear salvaguardias para su uso. “Actualmente, ni siquiera existe una definición universal en la comunidad de investigación de lo que es y lo que no es una imagen insegura”, dijo Qu. 

Para iluminar el problema, Qu y su equipo investigaron los generadores de imágenes de IA más populares, la prevalencia de imágenes inseguras en estas plataformas y tres formas de prevenir su creación y circulación en línea.

Los investigadores alimentaron a cuatro destacados generadores de imágenes de IA con indicaciones de texto de fuentes conocidas por su contenido inseguro, como la plataforma de extrema derecha 4chan. Sorprendentemente, el 14,56% de las imágenes generadas se clasificaron como “inseguras”, siendo Stable Diffusion el que tuvo el porcentaje más alto con un 18,92%. Estas incluían imágenes con contenido sexualmente explícito, violento, perturbador, odioso o político.

Creando protecciones

El hecho de que se generaran tantas imágenes inciertas en el estudio de Qu muestra que los filtros existentes no están haciendo su trabajo adecuadamente. La investigadora desarrolló su propio filtro, que tiene una tasa de acierto mucho mayor en comparación, pero sugiere varias otras formas de frenar la amenaza.  

Una forma de evitar la difusión de imágenes inhumanas es programar los generadores de imágenes de IA para que no generen este tipo de imágenes en primer lugar, dijo. Básicamente, si los modelos de IA no están entrenados con imágenes inseguras, no podrán replicarlas. 

Además de eso, Qu recomienda bloquear palabras inseguras en la función de búsqueda, para que los usuarios no puedan crear indicaciones que produzcan imágenes dañinas. En cuanto a las imágenes que ya circulan, “debe haber una forma de clasificarlas y eliminarlas en línea”, dijo.

Con todas estas medidas, el desafío está en encontrar el equilibrio adecuado. “Debe haber un equilibrio entre la libertad y la seguridad del contenido”, dijo Qu. “Pero cuando se trata de evitar que estas imágenes se difundan ampliamente en plataformas populares, creo que tiene sentido una regulación estricta”. 

Además de generar contenido dañino, los desarrolladores de software de texto a imagen de IA han sido criticados por una serie de problemas, como robar el trabajo de artistas y amplificar estereotipos peligrosos de género y raza

Aunque iniciativas como la Cumbre de Seguridad de IA, que tuvo lugar en el Reino Unido este mes, tienen como objetivo crear salvaguardias para la tecnología, los críticos afirman que las grandes empresas de tecnología tienen demasiada influencia en las negociaciones. Si eso es cierto o no, la realidad es que, en la actualidad, la gestión adecuada y segura de la IA es irregular en el mejor de los casos y simplemente alarmante en el peor caso.