Así es Sora, la herramienta que crea vídeos a partir de texto de los creadores de ChatGPT

Se trata de un modelo que puede convertir indicaciones de texto en vídeos de hasta 60 segundos, con resultados sorprendentes

Sora Ia Open Ia Chatgpt
1 comentario Facebook Twitter Flipboard E-mail

Lo que ha avanzado la inteligencia artificial en los últimos dos años no tiene nombre. OpenAI ha sido una empresa que en muy poco tiempo nos ha sorprendido con distintas versiones de Dall-E y un chat de inteligencia artificial sencillamente sorprendente. Ahora, el siguiente paso de los padres de ChatGPT es un modelo que puede crear vídeos mediante prompts de texto.

No son los primeros en intentarlo, pero lo que puede hacer este modelo, llamado Sora, promete ser revolucionario. La idea, según la compañía liderada por Sam Altman, es que este modelo pueda recibir órdenes detalladas de texto y hacer vídeos de hasta 60 segundos.

Sora apenas acaba de ser presentada, y ya puede hacer vídeos impresionantes

OpenAI es, y seguirá siendo, uno de los grandes protagonistas en la carrera de la inteligencia artificial, una que en 2023 tomó una gran intensidad, con la participación de Google con su propia IA (Gemini) y el Copilot de Microsoft, y en 2024 no va a detenerse. De hecho, para este año también esperamos la incursión de Apple en la carrera con su nueva propuesta en el campo de la inteligencia artificial.

Pero OpenAI ha dado un nuevo golpe sobre la mesa. Aunque empresas como Meta han presentado sus propios modelos de texto a vídeo, lo que vemos que puede hacer Sora es sorprendente, incluso cuando el modelo apenas acaba de ser presentado de forma oficial.

Lo que vemos sobre estas líneas es un vídeo que fue creado por el modelo de OpenAI y que, según explica la compañía, no ha sido editado. El vídeo fue creado por Sora siguiendo las siguientes instrucciones:

“Una mujer con estilo camina por una calle de Tokio que está llena de luces de neón cálidas y animada con señales de la ciudad. Ella lleva una chaqueta de cuero negra, un vestido largo color rojo y botas negras, además de un bolso negro. Ella usa gafas de sol y labial color rojo. La mujer camina con confianza y de forma casual. La calle está humedecida y es reflectante, lo que crea un efecto de espejo para las luces de colores. Muchos peatones caminan a su alrededor”.

El vídeo hace exactamente lo que le ha pedido el prompt de texto, siguiendo la descripción tanto para la mujer como para su alrededor. Interpreta, incluso, el detalle sobre la forma de caminar de la mujer. Esto tiene como resultado un vídeo que si bien no es perfecto, luce espectacular para una primera versión de este modelo.

Según OpenAI, el modelo puede generar escenas complejas de este tipo, entendiendo lo que le ha pedido el usuario en el prompt e interpretando cómo existen los objetos y personas descritos en un mundo físico. En la página web de OpenAI hay más ejemplos de vídeos, cada uno más impresionante que el otro.

Por ahora, este modelo sólo está disponible para los investigadores de OpenAI, lo que significa que los usuarios finales aún no podemos probarlo, pero en el futuro estará disponible, explica la compañía, aunque antes trabajarán en implementar las medidas necesarias para garantizar la seguridad de los usuarios. Este golpe sobre la mesa de OpenAI llega entre nuevos rumores que mencionan que la compañía podría estar trabajando en su propio buscador.

Imagen de portada | OpenAI en X(Twitter)

En Xataka Móvil | Cómo crear tus propios GPTs de ChatGPT desde el móvil: haz que la IA se comporte como tú quieres

En Xataka Móvil | Hay vida más allá de ChatGPT: las siete mejores aplicaciones de inteligencia artificial que puedes descargar en tu móvil

Inicio