L’assistant conversationnel de Google s’enrichit de capacité de vérification de vidéos artificielles, mais seulement lorsque celles-ci ont été générées par sa technologie.

Google a annoncé, le 18 décembre dernier, avoir étendu ses outils de transparence du contenu à travers Gemini, son agent conversationnel. Ce dernier est ainsi désormais capable de déterminer si une vidéo a été éditée ou créée sur sa plateforme.

Les utilisateurs doivent simplement télécharger la vidéo qu’ils souhaitent vérifier en sélectionnant l’option d’ajout de fichier, puis poser une question explicite telle que « Cette vidéo a-t-elle été générée à l’aide d’intelligence artificielle ? »

Une fois la requête soumise, Gemini procède à une analyse approfondie du contenu. Le système scanne méticuleusement la vidéo à la recherche du filigrane SynthID, une signature numérique développée par Google et intégrée dans les contenus générés par ses outils d’intelligence artificielle.

Cette recherche s’effectue sur deux niveaux : les pistes audio et visuelles de la vidéo. La force de cette nouvelle fonctionnalité réside dans sa capacité à utiliser le raisonnement propre de l’intelligence artificielle pour fournir des réponses contextualisées et détaillées.

Une technologie de détection sophistiquée

Gemini ne se contente pas de répondre par un simple « oui » ou « non ». Au contraire, le système génère une réponse nuancée qui spécifie précisément quels segments de la vidéo contiennent des éléments créés à l’aide des outils d’IA de Google.

Cette approche analytique permet aux utilisateurs de comprendre non seulement si une vidéo est authentique ou générée par IA, mais également d’obtenir des informations sur les raisons de cette détermination, renforçant ainsi la transparence du processus de vérification.

Les vidéos soumises à la vérification doivent respecter deux contraintes principales : elles ne peuvent pas dépasser 100 mégaoctets en termes de taille de fichier, et leur durée doit être limitée à 90 secondes maximum.

Ces restrictions, bien que potentiellement limitantes pour certains cas d’usage, correspondent à la majorité des vidéos courtes circulant sur les réseaux sociaux et les plateformes de messagerie, où la désinformation visuelle pose le plus grand risque.

Une avancée ciblée, mais encore partielle

Cette fonctionnalité s’inscrit dans un mouvement plus large de l’industrie technologique visant à établir des normes de transparence et d’authenticité pour les contenus générés par IA. Google avait déjà lancé à l’automne une fonction similaire pour les images produites ou éditées avec ses modèles.

Avec SynthID, Google promet un filigrane « imperceptible » conçu pour résister aux recadrages, aux filtres ou à la compression, là où d’autres systèmes de marquage peuvent être facilement effacés ou dégradés.

Cet instrument demeure toutefois impuissant face à la masse de vidéos créées par d’autres générateurs, tels ceux d’OpenAI ou d’acteurs moins scrupuleux. Comme le rappelle The Verge à propos de Sora, le modèle vidéo d’OpenAI, des filigranes peuvent déjà être contournés ou effacés relativement facilement. Par ailleurs, il n’est pas encore certain que SynthID soit à l’abri de techniques de brouillage plus sophistiquées.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.