Desplazarse por la aplicación Sora puede ser como entrar en un multiverso de la vida real.
Michael Jackson actúa; el extraterrestre de las películas «Predator» voltea hamburguesas en McDonald’s; una cámara de seguridad de una casa capta un alce atravesando la puerta de cristal; La reina Isabel se lanza desde lo alto de una mesa en un pub.
Realidades tan improbables, visiones fantásticas del futuro y vídeos absurdos son el pilar de la aplicación Sora, una nueva aplicación de vídeos cortos lanzada por OpenAI, fabricante de ChatGPT.
El flujo continuo de videos cortos hiperreales creados por inteligencia artificial es alucinante y fascinante a primera vista. Pero rápidamente crea una nueva necesidad de juzgar cada contenido como real o falso.
«El mayor riesgo con Sora es que hace que la negación plausible sea imposible de superar y socava la confianza en nuestra capacidad para distinguir lo auténtico de lo sintético», dijo Sam Gregory, experto en deepfakes y director ejecutivo de WITNESS, una organización de derechos humanos. «Las falsificaciones individuales son importantes, pero el daño real es una niebla de duda que se cierne sobre todo lo que vemos».
Todos los vídeos de la aplicación Sora están completamente generados por IA y no hay opción para compartir imágenes reales. Pero desde la primera semana después del lanzamiento, los usuarios compartieron sus vídeos de Sora en todo tipo de redes sociales.
Menos de una semana después de su lanzamiento el 30 de septiembre, la aplicación Sora superó un hito millones de descargaslo que supera el crecimiento inicial de ChatGPT. Sora también alcanzó la cima de la App Store en Estados Unidos. Por ahora, la aplicación Sora sólo está disponible para usuarios de iOS en los Estados Unidos y las personas no pueden acceder a ella a menos que tengan un código de invitación.
Para usar la aplicación, las personas deben escanear su rostro y leer tres números que aparecen en la pantalla para que el sistema pueda capturar una firma de voz. Una vez hecho esto, los usuarios pueden escribir un mensaje de texto personalizado y crear videos hiperrealistas de 10 segundos con sonido de fondo y diálogos.
Una función llamada «Cameos» permite a los usuarios superponer su cara o la de un amigo en un vídeo existente. Aunque todas las salidas tienen una marca de agua visible, numerosos sitios web ahora ofrecen eliminación de marcas de agua para los videos de Sora.
En su lanzamiento, OpenAI adoptó un enfoque laxo a la hora de hacer cumplir las restricciones de derechos de autor y, de forma predeterminada, permitió la recreación de material protegido por derechos de autor a menos que los propietarios optaran por no hacerlo.
Los usuarios comenzaron a crear videos de IA con personajes de títulos como “Bob Esponja”, “South Park” y “Breaking Bad”, así como videos al estilo del programa de juegos “The Price Is Right” y la comedia de situación de los noventa “Friends”.
Luego vinieron las recreaciones de celebridades muertas, incluido Tupac Shakur deambulando por las calles de Cuba, Hitler frente a Michael Jackson y remezclas del reverendo Martin Luther King Jr., quien pronunció su icónico discurso ‘Tengo un sueño’, pero en el que pidió la liberación del rapero caído en desgracia Diddy.
«Por favor, deja de enviarme videos de IA de papá», escribió Zelda Williams, hija del fallecido comediante Robin Williams. Instagram. «No se hace arte, se hacen hot dogs repugnantes y sobreprocesados a partir de la vida de las personas, de la historia del arte y la música, y luego se los meten en la garganta de otra persona, con la esperanza de que les den el visto bueno y les gusten. Asqueroso».
Otras recreaciones de celebridades muertas, incluidos Kobe Bryant, Stephen Hawking y el presidente Kennedy, realizadas en Sora se han publicado en sitios web de redes sociales y han atraído millones de visitas.
Christina Gorski, directora de comunicaciones de Fred Rogers Productions, dijo que la familia de Rogers estaba «frustrada por los videos de IA que tergiversaban al Sr. Rogers que circulaban en línea».
En Sora se han compartido ampliamente videos de Mister Rogers sosteniendo un arma, saludando al rapero Tupac y otras situaciones satíricas simuladas.
«Los videos están en directa contradicción con la cuidadosa intención y el cumplimiento de los principios básicos del desarrollo infantil que Fred Rogers articuló en cada episodio de Mister Rogers’ Neighborhood. Nos hemos puesto en contacto con OpenAI para solicitar que se bloquee el uso de la voz y la imagen de Mister Rogers en la plataforma Sora, y esperamos que ellos y otras plataformas de IA eliminen el respeto a la identidad personal», dijo Gorski en un comunicado a The Times.
Las agencias y sindicatos de talentos de Hollywood, incluido SAG-AFTRA, han comenzado a acusar a OpenAI de uso indebido de imágenes. La tensión central se reduce al control sobre el uso de imágenes de actores y personajes autorizados, y a una compensación justa por su uso en vídeos de IA.
A raíz de las preocupaciones de Hollywood sobre los derechos de autor, Sam Altman compartió una publicación de blog prometiendo más control para que los titulares de derechos especifiquen cómo se pueden usar sus personajes en videos de IA y explorando formas de compartir los ingresos con los titulares de derechos.
También dijo que los estudios ahora pueden optar por utilizar sus personajes en recreaciones de IA, una inversión de la postura original de OpenAI de un régimen de exclusión voluntaria.
Según Altman, el futuro avanza hacia la creación de contenido personalizado para una audiencia de unos pocos – o una audiencia de uno solo.
«La creatividad podría estar a punto de sufrir una explosión cámbrica, y con ella la calidad del arte y el entretenimiento podría aumentar dramáticamente», escribió Altman, quien llamó a este género de participación «fan fiction interactiva».
Sin embargo, los herederos de los actores fallecidos se apresuran a proteger sus retratos en la era de la IA.
CMG Worldwide, que representa los patrimonios de celebridades fallecidas, se ha asociado con una empresa de detección de deepfake Mucha IA para proteger las listas de actores y patrimonios de CMG del uso digital no autorizado.
Loti AI comprobará continuamente si hay imitaciones de IA de veinte personalidades representadas por CMG, incluidos Burt Reynolds, Christopher Reeve, Mark Twain y Rosa Parks.
«Por ejemplo, desde el lanzamiento de Sora 2, nuestros registros se han multiplicado aproximadamente por 30 a medida que las personas buscan formas de recuperar el control de su imagen digital», dijo Luke Arrigoni, cofundador y director ejecutivo de Loti AI.
Desde enero, Loti AI dijo que ha eliminado miles de instancias de contenido no autorizado a medida que las nuevas herramientas de inteligencia artificial hicieron que fuera más fácil que nunca crear y distribuir deepfakes.
Después de numerosas “imágenes irrespetuosas” de Martin Luther King Jr., OpenAI dijo que detendría la producción de videos que presentaban la imagen del ícono de los derechos civiles en Sora a pedido de los herederos de King. Si bien existen fuertes intereses de libertad de expresión al retratar personajes históricos, las figuras públicas y sus familias deberían, en última instancia, tener control sobre cómo se utiliza su imagen, dijo OpenAI en una publicación.
Ahora los representantes autorizados o los propietarios pueden solicitar que sus imágenes no se utilicen en los cameos de Sora.
A medida que aumenta la presión legal, Sora se ha vuelto más estricto sobre cuándo permitirá la recreación de personajes protegidos por derechos de autor. Los informes de violaciones de la política de contenido son cada vez más comunes.
Ahora, la creación de personajes de Disney u otras imágenes activará una advertencia de infracción de la política de contenido. Los usuarios que no son fanáticos de las restricciones han comenzado a crear memes en video sobre las advertencias de violación de la política de contenido.
Hay una viralidad creciente en lo que se ha llamado «estancamiento de la IA».
La semana pasada hubo imágenes de una cámara de anillo de una abuela persiguiendo a un cocodrilo hasta la puerta, y una serie de vídeos de las «Olimpíadas de los gordos» que mostraban a personas obesas participando en eventos atléticos como salto con pértiga, natación y eventos de atletismo.
Fábricas dedicadas han convertido el compromiso en una fuente de ingresos, creando un flujo constante de videos que son difíciles de ignorar. Un comentarista tecnológico luchador lo llamó «Cocomelon para adultos».
Incluso a medida que aumentan las protecciones contra las imágenes de celebridades, los críticos advierten que la apropiación descuidada de la imagen de una persona o situación común y corriente puede generar confusión pública, aumentar la desinformación y erosionar la confianza del público.
Mientras tanto, quienes están en el poder pueden esconderse detrás de la avalancha de noticias falsas afirmando que incluso la evidencia real es generada por IA, incluso cuando la tecnología es utilizada por malos actores e incluso por algunos gobiernos para propaganda y para promover ciertas opiniones políticas.
“Me preocupa la posibilidad de fabricar imágenes de protesta, escenificar atrocidades falsas o involucrar a personas reales con palabras en la boca en escenarios comprometedores”, dijo.



