Sora 2 de OpenAI: ¿Innovación o Caja de Pandora de Violencia y Racismo?
La reciente presentación de Sora 2, la aplicación de generación de video impulsada por inteligencia artificial de OpenAI, ha desatado una controversia considerable. A pesar de las promesas de realismo y creatividad, la plataforma se ha visto inundada rápidamente con contenido problemático, incluyendo representaciones de violencia gráfica, racismo y uso indebido de personajes con derechos de autor.
Sora 2 bajo la lupa: Violencia, racismo y desinformación
Investigadores en desinformación advierten que la capacidad de Sora 2 para crear escenas realistas podría difuminar la línea entre la verdad y la ficción, facilitando el fraude, el acoso y la intimidación. El propio OpenAI prohíbe en sus términos de servicio la generación de contenido que "promueva la violencia" o "cause daño". Sin embargo, los hechos parecen contradecir estas regulaciones.
Según reportes, Sora 2 ha generado videos que simulan amenazas de bomba y tiroteos masivos, mostrando escenas de pánico en campus universitarios y lugares públicos concurridos como la Grand Central Station de Nueva York. Otros videos recrean zonas de guerra en Gaza y Myanmar, donde niños generados por IA hablan sobre sus hogares incendiados. Incluso, se generó un video con la leyenda "imágenes de Etiopía estilo noticias de guerra civil" que mostraba a un reportero con chaleco antibalas informando sobre un intercambio de disparos entre el gobierno y las fuerzas rebeldes en zonas residenciales.
Un ejemplo alarmante: Charlottesville y el discurso supremacista
Uno de los ejemplos más inquietantes es un video creado con la simple leyenda "Charlottesville rally", que muestra a un manifestante negro con máscara de gas, casco y gafas gritando: "No nos reemplazarán", un eslogan asociado con la supremacía blanca.
Actualmente, Sora 2 solo está disponible por invitación, lo que plantea interrogantes sobre el control de calidad y la moderación del contenido. La rápida aparición de material ofensivo sugiere que los "cortafuegos" de OpenAI no son tan efectivos como se esperaba.
El debate está abierto: ¿Sora 2 representa un avance tecnológico con potencial creativo o una herramienta peligrosa que podría exacerbar la desinformación y el odio en línea? La respuesta, y el futuro de la plataforma, dependerán de la capacidad de OpenAI para abordar estos desafíos de manera efectiva.