Sora d'OpenAI : un drone FPV qui parcourt l'exposé TED le plus étrange que vous ayez jamais vu

Un homme avec des prothèses sur la scène d'un TED Talk
(Crédit photo: OpenAI / TED Talks)

L'outil de génération de vidéos textuelles de nouvelle génération d'OpenAI, Sora, ne sera pas disponible pour le grand public avant la fin de l'année. Cependant, il offre déjà des aperçus alléchants de ses capacités – y compris une vidéo révolutionnaire (ci-dessous) imaginant à quoi pourraient ressembler les conférences TED dans 40 ans.

Pour créer cette vidéo dans le style d'un drone FPV, les conférences TED ont collaboré avec OpenAI et le cinéaste Paul Trillo, qui utilise Sora depuis février. Le résultat est un parcours impressionnant, quoique légèrement déroutant, à travers des conférences futuristes, des laboratoires étranges et des tunnels sous-marins.

La vidéo met de nouveau en lumière le potentiel incroyable de Sora d'OpenAI, ainsi que ses limites. L'effet de style drone FPV est devenu populaire pour les vidéos percutantes sur les réseaux sociaux, mais il nécessite traditionnellement des compétences avancées en pilotage de drone et un équipement coûteux, bien au-delà du DJI Avata.

Le nouveau clip de Sora montre que ces effets pourraient être accessibles à de nouveaux créateurs, potentiellement à un coût considérablement réduit – bien que cela reste à confirmer, car le coût de l'outil lui-même et son accessibilité ne sont pas encore connus.

Mais la vidéo (ci-dessus) montre également que Sora est encore loin d'être un outil fiable pour les films à grande échelle. Les personnes dans les plans n'apparaissent que quelques secondes et l'arrière-plan regorge de scènes qui alimentent les cauchemars de la vallée de l'étrange.

L'expérience est exaltante, tout en laissant une impression étrange, comme après un saut en parachute. Néanmoins, il est très attendu de voir d'autres échantillons à mesure que l'on se rapproche du lancement public de Sora, prévu plus tard en 2024.

Comment la vidéo a-t-elle été réalisée avec Sora ?

Une vidéo créée par OpenAI Sora pour TED Talks

(Image credit: OpenAI / TED Talks)

OpenAI et les conférences TED n'ont pas détaillé comment cette vidéo spécifique a été réalisée, mais son créateur, Paul Trillo, a récemment partagé plus largement son expérience en tant que testeur alpha de Sora.

Trillo a révélé à Business Insider les types d'indications qu'il utilise, y compris "un cocktail de mots que j'utilise pour que cela ressemble moins à un jeu vidéo et davantage à quelque chose de cinématographique". Ces indications incluent des termes comme "35 millimètres", "lentille anamorphique", et "vignette de profondeur de champ", nécessaires pour éviter que Sora ne produise un rendu trop numérique.

Actuellement, chaque indication doit être validée par OpenAI afin d'être traitée en respectant des règles strictes, notamment en matière de droits d'auteur. L'une des observations les plus intéressantes de Trillo est que Sora fonctionne actuellement "comme une machine à sous où l'on demande quelque chose, et cela mélange des idées sans moteur physique réel".

Cela signifie que l'outil est encore loin de présenter une cohérence véritable avec les états des personnes et des objets, comme l'a admis OpenAI dans un article de blog antérieur. OpenAI a indiqué que Sora "présente actuellement de nombreuses limitations en tant que simulateur", y compris le fait "qu'il ne modélise pas précisément la physique de nombreuses interactions de base, comme le bris de verre".

Ces incohérences limiteront probablement Sora à un outil de vidéo de courte forme pendant quelque temps, mais c'est néanmoins un outil que beaucoup sont impatients d'essayer.

Vous pourriez aussi aimer

Adrien Bar Hiyé
Senior Editor

Quand je ne suis pas en train de plonger dans le monde fascinant de la finance et des nouvelles technologies, vous me trouverez probablement en train de parcourir le globe ou de conquérir de nouveaux mondes virtuels sur ma console de jeux.

Avec la contribution de