Sora 2: la IA hiperrealista de OpenAI que sacude internet y alarma a Hollywood
Desde su lanzamiento, el modelo de IA ha inundado redes como X, TikTok y YouTube con clips que desafían los límites de la percepción

El modelo de generación de video Sora 2, de OpenAI, se ha convertido en la última sensación de internet. En apenas una semana, su capacidad para crear escenas completamente hiperrealistas —que parecen grabadas por una cámara real— ha provocado una oleada de videos virales, pero también una advertencia formal de la Motion Picture Association (MPA), que acusa a la empresa de permitir violaciones masivas de derechos de autor.
Desde su lanzamiento, Sora 2 ha inundado redes como X, TikTok y YouTube con clips que desafían los límites de la percepción: desde un video donde el propio director ejecutivo de OpenAI, Sam Altman, aparece "robando en una tienda de Target", hasta una secuencia en la que Mario Bros escapa de la policía en una persecución nocturna.
Aunque todos los videos incluyen una marca de agua visible, millones de usuarios los han compartido creyendo que se trataba de imágenes reales.
El fenómeno viral ha provocado un debate inmediato sobre la veracidad, la ética y los límites legales de la inteligencia artificial generativa aplicada al video.
Hollywood responde
La MPA —que agrupa a los grandes estudios como Disney, Warner Bros., Universal, Paramount, Sony y Netflix— pidió a OpenAI "medidas inmediatas y decisivas" para detener la proliferación de material que, según la asociación, "infringe derechos de autor y utiliza personajes sin autorización".
"Desde el lanzamiento de Sora 2, los videos que infringen derechos de películas, series y personajes de nuestros miembros han proliferado en redes sociales", declaró Charles Rivkin, presidente y director ejecutivo de la MPA.
"OpenAI debe reconocer que es su responsabilidad, no la de los titulares de derechos, evitar estas infracciones. La ley de derechos de autor protege a los creadores y se aplica en este caso", añadió.
OpenAI promete más control, pero avanza sin freno
En respuesta, OpenAI indicó que Sora 2 incorporará "herramientas de control para los titulares de derechos", permitiendo restringir la generación de personajes o universos protegidos. Sin embargo, la empresa mantiene activa su API, abierta desde ayer, lo que facilita que desarrolladores externos integren el motor de video en sus propias plataformas.
El portavoz de OpenAI afirmó que todos los videos generados llevan una marca de agua y metadatos verificables, con el objetivo de distinguir el contenido sintético del real. No obstante, expertos en tecnología visual advierten que esas señales pueden ser fácilmente eliminadas durante la edición.
Precedentes y nuevos litigios
La queja de la MPA se suma a una serie de litigios que la industria del entretenimiento ha iniciado este año contra empresas de inteligencia artificial.
En junio, Disney y Universal demandaron a Midjourney por el uso de imágenes y personajes generados sin autorización.
Semanas después, Disney envió una carta de cese y desistimiento a Character.AI, acusándola de permitir conversaciones con versiones digitales de personajes de sus películas.
Una nueva frontera audiovisual
Sora 2 representa un salto técnico respecto a su predecesor: puede generar videos de hasta un minuto con coherencia física, profundidad de campo y expresiones humanas extremadamente naturales. Los resultados, según analistas, se acercan más a una filmación real que a una animación computarizada.
Para los usuarios, el impacto ha sido inmediato. Hashtags como #Sora2Reality, #FakeOrReal y #AIcinema acumulan decenas de millones de visualizaciones en TikTok. En foros y comunidades tecnológicas, algunos lo llaman ya "el ChatGPT del cine".
Entre la innovación y la desinformación
El desafío no solo es legal, sino también social. Las simulaciones hiperrealistas de figuras públicas y eventos ficticios alimentan la preocupación sobre los deepfakes políticos y mediáticos, en un contexto global cada vez más sensible a la manipulación digital.
"El peligro no es solo que se usen personajes con copyright, sino que el público no pueda distinguir qué es real y qué no", advirtió la investigadora Kate Crawford, del USC Annenberg Lab, al medio especializado The Verge.