Guide Pratique pour Détecter les Images Générées par l'IA

Ce guide pratique vous aide à repérer facilement les vidéos générées par l'IA, en analysant les détails visuels, contextuels et techniques pour lutter contre la désinformation.

Désinformation Intox Diffusion
Illustration de la génération d'images

Les progrès de l’intelligence artificielle permettent aujourd’hui de créer des vidéos hyperréalistes en quelques secondes. Sur les réseaux sociaux, on voit fréquemment des scènes surprenantes (un kangourou qui monte à bord d’un avion, des lapins sautant sur un trampoline ou des bébés tombant du ciel…) qui sont en réalité générées par IA. Des outils récents comme Google Veo 3 ou OpenAI Sora transforment du texte en vidéo. Par exemple, Google propose un modèle (Veo 3) qui produit des vidéos de 8 secondes « ultraréalistes » et OpenAI a montré avec Sora la capacité de créer des vidéos HD à partir d’un paragraphe. La diffusion de tels contenus fantastiques rend donc la vigilance indispensable.

Bref aperçu du type de vidéos générées par IA

Deepfakes : contenus audio/vidéo truqués pour imiter des personnes réelles. Par exemple, on peut remplacer le visage d’un personnage dans une vidéo ou cloner la voix d’une célébrité. Ces deepfakes sont déjà utilisés pour la désinformation (fausses déclarations politiques) ou l’escroquerie (usurpation vocale).

Avatars numériques : personnages virtuels entièrement animés par IA (présentateurs de journal télévisé fictifs, « influenceurs » synthétiques, hologrammes, etc.). Ils sont conçus pour ressembler et parler comme des humains, mais n’existent qu’en images de synthèse. C'est par exemple le cas de « Diella », une Intelligence Artificielle qui a été nommée par l'Albanie en tant que ministre des Marchés publics.

Vidéos texte-à-vidéo : nouveaux modèles (OpenAI Sora, Imagen Video, Make-A-Video de Meta, etc.) créent des clips vidéo courts à partir d’une description textuelle. Ces vidéos sont en général très courtes (quelques secondes) car l’IA actuelle peine à garder la cohérence sur une longue durée.

Signes visuels et sonores d’une vidéo truquée

Pour repérer une vidéo générée par IA, voici quelques indices simples à surveiller :

Arrière-plans incohérents : les IA gèrent mal le décor. Des objets ou des personnes peuvent apparaître/disparaître sans raison, ou être déformés. Par exemple, on peut voir un pied humain s’effacer furtivement dans l’arrière-plan. Souvent, le sujet principal est net, tandis que le fond semble flou ou bâclé.

Textes illisibles ou incorrects : l’IA a du mal à générer du texte cohérent. Les panneaux, journaux, étiquettes ou billets affichés sont souvent flous ou composés de lettres sans sens. Par exemple, dans une vidéo truquée d’un kangourou dans un avion, les inscriptions sur son billet et sur son t-shirt étaient totalement illisibles. De même, des enseignes de boutiques ou titres de journaux dans une vidéo IA peuvent sembler incompréhensibles.

Durée anormalement courte : actuellement, les vidéos IA publiées sont souvent très brèves. Les modèles comme Veo 3 génèrent en moyenne 5–8 secondes de séquences. Si une vidéo « virale » reste extrêmement courte ou ressemble à une boucle, c’est un signal d’alarme. La limite à 10 secondes est souvent suspecte.

Incohérences physiques ou biologiques : des lois de la physique peuvent être violées. Par exemple, un avion peut être dessiné avec deux cockpits en même temps, ou un objet peut « clignoter » entre deux plans. Des personnes peuvent marcher sans laisser de traces dans le sable, ou évoluer dans un décor qui change soudainement de texture. Autre indice : les reflets dans l’eau ou les miroirs sont souvent mal reproduits, tout comme l’éclairage global (couleur de peau étrange, contraste incohérent).

Visage et clignements d’yeux anormaux : les visages générés par IA manquent souvent de naturel. On observe fréquemment peu ou pas de clignements, ou un regard fixe « vide ». Par exemple, si les yeux du personnage restent grand ouverts en permanence, c’est suspect. Les expressions faciales peuvent être décalées (la bouche sourit mais les yeux ne sourient pas).

Proportions et mouvements étranges : attention aux corps mal proportionnés ou aux gestes robotiques. Une tête trop grosse pour un corps, des membres qui bougent de façon saccadée, ou des postures impossibles sont des indices typiques. La vidéo peut aussi présenter des artefacts (bords flous, déformations) au changement de plan.

Synchronisation audio/vidéo : si la vidéo contient du son, vérifiez que les lèvres du locuteur collent bien à la voix. Les lipsync imparfaits (léger décalage voix/bouche) sont courants sur les deepfakes. La synthèse vocale elle-même peut paraître monotone ou hachée, avec de petits bruits parasites. Un son « métallique » ou une voix robotisée sont autant de signaux d’alerte.

Outils de vérification

InVID Verification Plugin (extension Chrome) : un « couteau suisse » du fact-checking vidéo. Cette extension permet d’extraire des images-clés d’une vidéo, de faire des recherches inversées sur ces images (Google/Yandex/TinEye), de lire les métadonnées et d’appliquer des filtres d’analyse. Utile pour retrouver la source d’un contenu ou vérifier s’il a déjà circulé. invid-project.eu

Deepware Scanner : application en ligne (gratuite) dédiée à la détection de deepfakes. Il suffit de soumettre la vidéo pour obtenir une analyse basée sur l’IA.

Fakecatcher (Intel) et DeepFake-o-meter (WeVerify) : outils commerciaux qui évaluent la probabilité qu’un contenu soit généré par IA. Par exemple, Intel a un détecteur de deepfakes vidéo, et Microsoft propose son Video Authenticator.

WeVerify : plateforme/extension pour journalistes offrant plusieurs modules de vérification multimédia (image, vidéo, audio). Très utilisée dans le fact-checking.

Conseils pour rester critique

Toutefois, il est essentier de garder en tête qu'aucun outil n’est infaillible, et la technologie évolue vite. Voici quelques bonnes pratiques :

Vérifier la source : renseignez-vous sur l’origine de la vidéo. Si elle provient d’un compte inconnu ou anonyme (votre « cousin Bertrand » sur Twitter, par exemple), soyez très méfiant. À l’inverse, privilégiez les vidéos diffusées par des médias reconnus ou par des journalistes spécialisés.

Croiser et remonter à l’original : faites des recherches inversées comme indiqué ci-dessus. Essayez de retrouver la première publication de cette vidéo sur internet. Souvent, les vidéos IA partent d’une image publique (banque d’images, création Midjourney…). Retrouver l’image source permet de démontrer la manipulation.

Questionner le contenu : posez-vous des questions simples sur la vidéo. Le scénario est-il plausible ? Les détails (lieu, uniformes, objets) sont-ils cohérents avec la réalité ? Par exemple, une attaque violente présentée par un vidéaste amateur sur smartphone alors que les médias officiels n’en parlent pas doit éveiller le doute.

Consulter les fact-checkers : de nombreux portails (Les Décodeurs du Monde, AFP Factuel, Hoaxbuster, etc.) publient des analyses de vidéos virales. Avant de croire ou de partager un contenu, vérifiez s’il n’a pas déjà été décortiqué et dénoncé.

Regarder sur grand écran : beaucoup de ces vidéos sont visionnées sur smartphone, ce qui masque les défauts. Essayez, lorsque c’est possible, de les voir sur un écran plus grand pour repérer des artefacts ou des incohérences qui vous auraient échappé sur un petit écran.

En résumé, pour déjouer les vidéos générées par l’IA, combinez l’observation minutieuse des indices ci-dessus et un bon réflexe de vérification des sources. Ne prenez jamais une vidéo pour argent comptant simplement parce qu’elle est spectaculaire ou partagée par un proche. En cas de doute, ralentissez, recherchez et questionnez. Dans de nombreux cas, cela suffit à révéler la supercherie.