Ahora podemos crear deepfakes de quien sea gracias a esta impresionante IA de Stability y eso está generando mucha polémica

ahora-podemos-crear-deepfakes-de-quien-sea-gracias-a-esta-impresionante-ia-de-stability-y-eso-esta-generando-mucha-polemica

Ahora podemos crear deepfakes de quien sea gracias a esta impresionante IA de Stability y eso está generando mucha polémica

Hace unos días, Stability AI y sus socios anunciaban el lanzamiento de Stable Diffusion a los investigadores, creada también de la mano de Hugging Face y que es de código abierto. Esta IA capaz de producir imágenes realistas a partir de cualquier texto, ha tenido una aceptación rápida en su primera semana.

El modelo Stable Diffusion de Stability AI, de alta fidelidad aunque capaz de funcionar con hardware de consumo estándar, está siendo utilizado por servicios de generación de arte como Artbreeder, Pixelz.ai y otros. Sin embargo, esta nueva IA no está exenta de polémicas (y varias).

Desnudos y falta de controles

Stable Diffusion Kardashian

Tech Crunch, sacada de 4chan y cortada

Stable Diffusion también se ha utilizado en el foro de discusión 4chan, donde el modelo se filtró pronto, hay varios hilos dedicados al arte generado por la IA de personas famosas desnudas o con escenas pornográficas.

Emad Mostaque, director general de Stability AI, calificó de «desafortunado» el hecho de que el modelo se filtrara en 4chan (un foro online muy enfocado en compartir imágenes de desnudos y ponografía y donde ahora hay muchas imágenes de mujeres famosas desnudas creadas con Stability AI) y subrayó que la empresa estaba trabajando con «destacados especialistas en ética y tecnología» en la seguridad y otros mecanismos en torno a la «liberación responsable».

Uno de estos mecanismos es una herramienta de IA ajustable, Safety Classifier, incluida en el paquete general de software Stable Diffusion, que intenta detectar y bloquear imágenes ofensivas o indeseables. Sin embargo, el clasificador de seguridad, aunque está activado por defecto, puede desactivarse.

Cómo hacen otros sistemas, como DALL-E 2

Stable Diffusion es un software muy nuevo. Otros sistemas de generación de imágenes por IA, como DALL-E 2 de OpenAI, han implementado filtros estrictos para el material pornográfico. En el caso de la licencia del código abierto de Stable Diffusion prohíbe ciertas aplicaciones, como la explotación de menores, pero el modelo en sí no tiene restricciones a nivel técnico.

Además, muchos no tienen la capacidad de crear imágenes a partir de personajes públicos, a diferencia de Stable Diffusion. Y la combinación de esats dos capacidades tiene como consecuencia que se puedan crear «deepfakes» con personas haciendo algo y haciendo a la gente creer que eso es la realidad.


La noticia

Ahora podemos crear deepfakes de quien sea gracias a esta impresionante IA de Stability y eso está generando mucha polémica

fue publicada originalmente en

Genbeta

por
Bárbara Bécares

.