Sora : une nouvelle étape dans la vidéo par l'IA


 OpenAI a dévoilé Sora, son générateur de vidéos par IA, dans la lignée de ChatGPT et DALL-E. Mais face à des vidéos toujours plus confondantes, les risques se multiplient.


L’évolution et l’innovation en matière d’intelligences artificielles grand public fascinent autant qu’elles inquiètent. Les générateurs d’images, comme Midjourney et DALL-E, ainsi que les générateurs de vidéos, comme Gen-2 de Runway, ont démocratisé la création assistée par IA. Accompagnés d’autres outils, comme des synthétiseurs vocaux, ces modèles ont contribué à rendre miscibles le réel et le virtuel, la création artificielle et artisanale, aux yeux du spectateur non éduqué à ces nouvelles formes d’image.

À chaque innovation, la question des risques engendrés par ces outils d’intelligence artificielle revient comme un écho. Et l’arrivée de Sora, le modèle de génération de vidéos d’OpenAI, concepteur de ChatGPT et DALL-E, l’a fait résonner encore plus fort. Car avec Sora, il sera possible, à l’aide d’une simple requête textuelle, de générer une séquence vidéo ultra-réaliste en quelques dizaines secondes. Si tout n’est pas encore parfait, cette IA montre des capacités impressionnantes. De quoi inquiéter, des artistes aux politiques, en passant par les universitaires et chercheurs, qui n’ont de cesse d’alerter sur ces nouveaux dangers.

« Je pense que nous ne sommes pas très loin d’outils potentiellement effrayants. » Cette petite phrase de Sam Altman, PDG d’OpenAI, rédigée sur Twitter (devenu X) en février 2023, nous promettrait presque des heures sombres si la régulation de l’IA tarde à se mettre en place. Déjà, les créations générées grâce à l’intelligence artificielle – notamment les images et les vidéos – inquiètent les spécialistes, notamment sur le plan sociologique. Dans Les Échos, Marie-Anne Ferry-Fall, directrice générale de l’ADAGP, société d’auteurs dans les arts visuels, rappelle ce constat : « Entre mi 2022 et mi 2023, il y a eu plus d’images créées par des intelligences artificielles qu’en 150 ans de photographie ! » Pour elle, le risque est « que l’IA habitue le public à une certaine médiocrité, que l’on demande de plus en plus à créer vite et moins cher avec l’IA ».


C’est un fait, au premier coup d’œil, la plupart des vidéos générées par Sora sont superbes, riches de détails et d’une qualité parfois confondante. Mais, quand on y prête un regard plus attentif, les exemples partagés pullulent de défauts, d’erreurs de génération, d’incohérences. Cette médiocrité de la qualité de la production visuelle pourrait devenir notre nouveau standard, une forme d’art et de création au rabais qui tirerait l’humain vers le bas. Le risque d’une répétition continue de l’existant, sans nouveauté et sans surprise, est également présent, car les IA ne créent rien de nouveau. Elles continuent notamment de véhiculer les préjugés et biais de notre société : en s’appuyant sur le lourd bagage discriminatoire que nous lui avons transmis, l’IA préfèrera générer un chirurgien à la peau blanche et un voleur à la peau noire, une femme secrétaire et un homme pilote de chasse…

Bien sûr, l’arrivée sur le marché de Sora réduit encore un peu la frontière entre réel et virtuel. Plus les outils évoluent, meilleure est la qualité de leurs créations, plus importants sont les efforts à effectuer pour séparer le vrai du faux. C’est évidemment la porte ouverte aux dérives, deepfakes et autres contenus de désinformation. Encore plus quand on associe différents outils, permettant de générer de la voix, de l’image, pour fabriquer une séquence trompeuse, diffamatoire ou mensongère. Sandra Wachter, professeure de technologies et de régulation à l’université d’Oxford, alerte sur la RTS : « Les nouvelles technologies pourraient être utilisées à mauvais escient pour tenter de manipuler les gens afin qu’ils adoptent certains comportements électoraux. »

Il est très facile de créer des deepfakes ou du faux contenu. Il y a donc un risque réel que certains acteurs utilisent cette technologie pour perturber les processus démocratiques.

Les menaces sont déjà concrètes : CNN relate l’histoire de ce candidat d’opposition slovaque, Michel Simecka, qui a vu circuler une vidéo de lui, à quelques jours des élections législatives, expliquant qu’il cherchait à acheter le vote. Un faux, mais avec la particularité d’être très ciblé : « Ce n’est pas sorti de nulle part. Cela s’inscrit dans le contexte d’un discours selon lequel les élections seraient illégitimes et truquées »raconte CNN. Ainsi, « l’IA est utilisée aussi pour amplifier la propagation des contenus et les acheminer de façon microciblée aux individus », constate, toujours pour la RTS, David Colon, professeur d’histoire à Science Po Paris.

Les outils d’apprentissage profond sont utilisés pour cibler des individus ou des failles de sécurité dans les systèmes d’information, mais aussi générer des faux comptes plus crédibles que les vrais, ou des portails qui relaient automatiquement des contenus.

Les outils d’intelligence artificielle ont divers usages malveillants et viennent renforcer certains actes préjudiciables et répréhensibles, déjà visibles sur le web depuis des années et touchant notamment les femmes. En janvier, la chanteuse Taylor Swift a, par exemple, été victime d’une large campagne de deepfakes pornographiques sur X, qui a obligé la plateforme à censurer les hashtags et les mentions à son sujet. La mise à disposition d’outils toujours plus simples à utiliser et aux résultats toujours plus crédibles pourrait multiplier ce type d’événement, sans distinction.




Commentaires