Anthropic annonce l’ouverture de ses modèles d’IA aux enfants pour leur permettre d’apprendre et de mieux préparer leurs examens. Consciente des dangers inhérents à l’utilisation des algorithmes, la startup a mis en place plusieurs mesures de sécurité pour les protéger.
Depuis le lancement de ChatGPT fin 2022, le grand public s’intéresse fortement à l’intelligence artificielle (IA). Les adolescents, notamment, se tournent de plus en plus vers cette technologie pour apprendre et faire leurs devoirs scolaires plus facilement. Ils s’en servent aussi pour résoudre des problèmes personnels comme l’anxiété, le stress, l’intimidation et le harcèlement des amis ou encore les conflits familiaux.
Anthropic veut aider les enfants à mieux apprendre
Pour accompagner ces nouvelles habitudes, Anthropic a mis à jour ses politiques. Dans un billet de blog publié le vendredi 3 avril dernier, la startup américaine annonce permettre désormais aux enfants d’avoir accès aux applications tierces utilisant ses modèles d’IA. Sachant que cette ouverture les exposera à de nombreux risques, elle met en place plusieurs mesures de sécurité à l’intention des applications utilisant ses algorithmes.
Anthropic réclame des systèmes de vérification de l’âge
Anthropic exige des développeurs le déploiement de systèmes de vérification de l’âge, le renforcement de la modération et le filtrage du contenu. L’entreprise réclame aussi une mise à disposition de ressources pédagogiques pour une utilisation sûre et responsable de l’IA par les mineurs. En outre, elle intégrera des outils pour personnaliser l’expérience des produits d’intelligence artificielle.
Se conformer aux réglementations comme la COPPA
Ces dispositifs spéciaux incluent une « invite obligatoire du système de sécurité des enfants » que les développeurs devront mettre en œuvre. Par ailleurs, les applications seront tenues de se conformer aux réglementations applicables en matière de sécurité des mineurs et de confidentialité des données. En particulier à la Children’s Online Privacy Protection Act (COPPA). Cette loi fédérale américaine protège la vie privée en ligne des enfants de moins de 13 ans.
Suspension ou arrêt des applications réfractaires
Les développeurs ont obligation de déclarer clairement, sur les sites publics et dans la documentation, qu’ils se conforment à ces réglementations. Mais cet engagement n’empêchera pas Anthropic de vérifier elle-même périodiquement le respect des mesures. La startup a d’ailleurs prévu des sanctions contre les applis qui violeront à plusieurs reprises ces exigences. Elle les suspendra jusqu’à nouvel ordre ou les bloquera.
Les IA d’Anthropic, de formidables outils pour les élèves
Anthropic pense que ses modèles d’IA peuvent aider les adolescents à comprendre des théories et des concepts complexes. Ses outils seraient précieux dans le secteur de l’éducation pour la préparation aux tests ou le soutien scolaire. Mais ils risquent de se retrouver dans la ligne de mire des enseignants. A l’été 2023, plusieurs écoles et collèges ont interdit l’utilisation des applications d’IA générative par crainte de plagiat et de désinformation.
L’UNESCO appelle à réglementer l’IA
Selon une enquête de l’UK Safer Internet Centre, plus de la moitié des enfants (53 %) déclarent avoir vu des personnes de leur âge utiliser l’IA générative de manière négative. Ils s’en serviraient par exemple pour créer des deepfakes pornographiques ou répandre de fausses informations. L’UNESCO reconnait de son côté l’énorme potentielle de cette technologie. Mais elle appelle les gouvernements à mieux la réglementer pour protéger les utilisateurs et éviter des dérives.