Sora - OpenAI
Accueil » Sora / Génération de vidéos par IA : en interview, OpenAI garde le flou sur les sources

Sora / Génération de vidéos par IA : en interview, OpenAI garde le flou sur les sources

Cet article est également disponible en: Anglais

Le Wall Street Journal vient de mettre en ligne une interview vidéo d’OpenAI autour de Sora, le système de création de vidéos par IA générative d’OpenAI (à qui l’on doit déjà ChatGPT).
Elle se trouve en fin d’article ; voici les principales informations qu’elle contient.

Rappel : qu’est-ce que Sora ?

Nous avions déjà évoqué Sora lors de son annonce. Rappelons qu’il s’agit d’un système de type prompt to video : pour créer une vidéo, il suffit de taper une description textuelle de ce que l’on souhaite obtenir. L’outil propose des résultats impressionnants, avec des images très convaincantes et une bonne stabilité temporelle (pas de sautes entre les images, par exemple), et une caméra plus mobile que ce que proposent d’autres outils similaires. En revanche, les vidéos générées par Sora comportent encore des défauts parfois flagrants (incohérences visuelles, objet qui change de forme), parfois plus discrets.

Dans l’interview, le Wall Street Journal présente quelques exemples de contenus créés par Sora, mais propose aussi une interview de la CTO d’OpenAI, Mira Murati. Celle-ci réagit tout d’abord à quelques vidéos, et évoque les limites actuelles, le travail des équipes pour apporter plus de contrôle.

Pour plus d’informations sur Sora, nous vous invitons à lire notre article sur le sujet.

Capture de l’écran de la vidéo du Wall Street Journal, montrant une frame d’une vidéo créée par Sora.
Aucune de ces deux femmes n’est réelle.

Données d’entraînement : OpenAI cultive le flou

Plus intéressant, à partir de 4 minutes 03, l’interview porte sur l’entraînement et l’optimisation de Sora. La question des sources est évoquée : nous regrettions justement le flou d’OpenAI sur ce point lors de l’annonce de Sora.
Mira Murati répond mais reste évasive, évoquant « des données disponibles publiquement et des données sous licence ». Une réponse qui sous entend qu’une partie des données d’entraînement n’étaient donc pas sous licence.
La journaliste relance en demandant explicitement si des vidéos issues de Youtube, Facebook, Instagram ont pu servir pour créer Sora.

La réponse de Mira Murati est assez surprenante : la CTO d’OpenAI esquive, indiquant qu’elle ne sait pas. Relancée, elle indique que l’usage de vidéos de plateforme comme Facebook, Instagram est possible mais qu’elle n’en a pas la certitude et préfère ne pas s’avancer. Une réponse pour le moins surprenante, dans un contexte où le sujet des sources et du respect du copyright est un des enjeux majeurs de l’entraînement des IA génératives : la question du Wall Street Journal était donc parfaitement prévisible.
Rappelons que nous sommes dans un contexte où Dall-E (justement développé par OpenAI), Midjourney sont sous le feu des projecteurs pour leur usage de sources sans autorisation des ayants droits. Les enjeux éthiques et potentiellement judiciaires sont majeurs, à la fois pour les personnes/entités dont les données ont pu être utilisées sans licence, et pour les utilisateurs potentiels de Sora : si l’outil a été entraîné sur des données sans licence, le risque de générer du plagiat existe.

Sora : quels risques et limitations ?

L’interview aborde aussi les inquiétudes autour des contenus générés par Sora. Mira Murati explique par exemple que si le but est de sortir l’outil publiquement cette année, OpenAI réfléchit à un possible impact sur les élections américaines, et souhaite donc tester l’outil de manière à ne pas le lancer sans avoir vérifié et limité les possibles usages non éthiques. Elle indique aussi que générer des vidéos avec des personnalités publiques ne sera a priori pas possible. Elle se montre en revanche plus incertaine sur la question de la nudité : à ce stade, il est donc difficile de savoir si Sora permettra ou non d’inclure ce type de contenu dans les vidéos.

Enfin, la dernière partie de l’interview porte sur l’indentification des vidéos générées par IA, un autre enjeu majeur pour permettre de les distinguer des images réelles.

Voici l’interview complète, par Joanna Stern du Wall Street Journal. Des sous-titres anglais sont disponibles, et la traduction automatique en français s’avère plutôt efficace si vous en avez besoin.

00:00 Sora
01:08 Quelques exemples de vidéos générées par Sora
04:03 optimisation, entraînement
06:42 Inquiétudes autour de Sora
08:55 Identification des contenus générés par IA

1 commentaire

jg_loquet 15 mars 2024 at 10 h 23 min

J’ai beau essayer de rester optimiste, mais il est très probable que ces IA génératives impactent radicalement nos jobs. OK ce sont juste d’autres outils, mais le saut de géant qu’ils représentent en termes de productivité risquent de transformer notre travail de fabricants (quelques vidéos par mois ou par an) en travail de contremaîtres, voire de vendeurs (quelques vidéos par semaine ou par jour) pour que notre activité continue de nous permettre de subvenir à nos besoins. Cela implique donc un changement d’activité quotidienne que – pour ma part – je trouve peu enviable. Cela demande également des capacités commerciales dont peu d’entre nous disposent. Je vais peut-être faire une formation d’élagueur acrobatique cette année …

Laissez un commentaire

A Lire également