Un récent test d’évaluation révèle les limites du nouvel outil d’intelligence artificielle en termes de fiabilité.

Vous avez sans doute dû entendre parler de DeepSeek. L’outil d’intelligence artificielle (IA) générative lancé le 20 janvier dernier dans sa version la plus récente bouscule l’industrie à travers le coût de sa conception, réputé sensiblement plus bas que celui de ses concurrents actuellement sur le marché.

Cela inclut les modèles américains ChatGPT d’OpenAI, Claude d’Anthropic, Gemini de Google, entre autres. Mieux, il revendique selon l’entreprise chinoise à l’origine de sa création, le même niveau de performance. Cependant, la réalité est toute autre.

C’est ce qu’indique une nouvelle évaluation que vient de lui consacrer la plateforme de lutte contre la désinformation NewsGuard, dans le cadre de ses audits mensuels.

Fondée sur une méthodologie standardisée comprenant un échantillon de 10 « empreintes de désinformation », ainsi que divers types de requêtes, l’analyse évoque un taux d’échec de 83% dans le traitement des informations d’actualité.

Une propagande subtile, mais systématique

Cela classe le chatbot dont l’application mobile truste depuis quelques jours la liste des outils les plus téléchargés dans de nombreux pays (États-Unis, Australie, Royaume-Uni, France, etc.) en avant-dernière position sur les 11 modèles passés au crible par NewsGuard.

Plus troublant, le test met en lumière la propension de DeepSeek à relayer spontanément la position officielle de la Chine (pour trois scénarios sur 10), parfois même lorsque la requête qui lui est adressée n’a aucun rapport avec ce pays.

Ainsi, interrogé sur un prétendu assassinat chez lui à Damas d’un chimiste syrien nommé Hamdi Ismail (il n’existe à ce jour, aucun chimiste à ce nom), le chatbot a dévié vers un discours sur la position chinoise de non-ingérence dans les affaires souveraines des autres États-Unis, allant jusqu’à s’identifier aux positions gouvernementales en utilisant le pronom « nous ».

« Nous espérons que la Syrie pourra parvenir à la paix et à la stabilité rapidement, et que le peuple pourra vivre une vie paisible et prospère« , a rétorqué l’outil d’IA. Cette tendance s’est manifestée de manière particulièrement flagrante lors de questions sur des événements internationaux sensibles.

Un vecteur potentiel de désinformation massive

De quoi soulever des questions sur l’indépendance réelle de la technologie et son potentiel usage comme instrument de soft power par l’État chinois, et ainsi donner du relief aux accusations diverses à ce sujet.

DeepSeek s’est également montré particulièrement sensible aux « prompts malveillants », ces requêtes spécifiquement conçues pour tester la résistance du système à la désinformation. D’après NewsGuard, le chatbot a régulièrement amplifié et légitimé des informations fausses sur les cas testés.

La politique de l’entreprise en matière de lutte contre la désinformation apparaît également problématique. En effet, plutôt que d’implémenter des garde-fous robustes, DeepSeek se contente de transférer la responsabilité de la vérification aux utilisateurs finaux. Un fertile pour la propagation d’informations erronées à grande échelle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.