
Les navigateurs web propulsés par l’intelligence artificielle exposent à des vulnérabilités inédites qui menacent la confidentialité et la protection des informations personnelles, à une faille persistante dans leur conception. Explications !
Dia a initié la tendance et, rapidement, Comet (Perplexity) et Atlas (OpenAI) ont pris le relais. L’apparition de solutions exploitant l’intelligence artificielle dans le secteur de la navigation s’est accompagnée de promesses d’un usage web radicalement transformé, orchestré par des agents capables d’exécuter des actions directes pour le compte de l’utilisateur.
Cette promesse d’efficacité et de simplicité attire naturellement l’attention des utilisateurs en quête d’outils toujours plus performants. Cependant, derrière cette façade d’innovation se cache une menace potentielle pour la confidentialité des utilisateurs, comme l’indiquent des experts en cybersécurité interrogés par TechCrunch.
Aussi paradoxal que cela puisse paraître, c’est précisément leur capacité à intervenir de façon autonome qui, comme l’indiquent les experts interrogés par TechCrunch, représente un talon d’Achille face aux tentatives d’exploitation malveillante.
Afin d’améliorer leurs résultats, ces agents réclament souvent des autorisations étendues vers des ressources comme la messagerie, le calendrier ou les carnets d’adresses. Ce niveau d’accès, accordé à une technologie émergente, soulève de sérieux enjeux de sécurité.
Les attaques par injection de prompt au cœur de la menace
La principale inquiétude liée aux agents IA de navigation concerne les « attaques par injection de prompt », où des individus mal intentionnés insèrent, dans une page web, des consignes camouflées visant à piéger le système automatisé.
Lorsque l’agent analyse ce contenu, il peut se laisser berner par ces signaux furtifs et exécuter, sans consentement, des actions préjudiciables. Ces manipulations peuvent conduire à la divulgation d’informations confidentielles — comme des courriels ou des identifiants —, ou encore à des actes non désirés, tels que des transactions ou la publication sur diverses plateformes sociales.
Ce constat est d’autant plus alarmant que ces techniques indirectes constituent un défi généralisé pour les navigateurs appuyés par l’intelligence artificielle, comme le souligne une étude menée par Brave, entreprise spécialisée dans la confidentialité.
« L’injection de prompts reste un problème de sécurité de pointe non résolu, et nos adversaires consacreront un temps et des ressources importants pour trouver des moyens de faire tomber l’agent ChatGPT dans ces attaques », écrit le responsable de la sécurité informatique d’OpenAI, le 22 octobre dernier.
Comment limiter les risques pour les utilisateurs ?
« Il existe une opportunité énorme de simplifier la vie, mais le navigateur accomplit désormais des tâches en votre nom. C’est fondamentalement dangereux et constitue une nouvelle frontière en matière de sécurité des navigateurs« , déclare Sheran Sahib, ingénieur principal de recherche et de confidentialité chez Brave.
Bien qu’OpenAI et Perplexity aient instauré des dispositifs comme le mode « déconnecté » ou la détection en temps réel, ces protections restent perfectibles.
Steve Groman, directeur technique chez McAfee, souligne auprès de TechCrunch que la faiblesse centrale provient de la difficulté des modèles de langage à identifier précisément la provenance des instructions.
Les utilisateurs sont donc invités à privilégier des mots de passe robustes et l’authentification à plusieurs facteurs pour leurs comptes sur ces navigateurs IA, tout en restreignant l’accès aux informations sensibles, qu’il s’agisse de services financiers, de dossiers médicaux ou de données privées.
