La startup américaine Clearview AI, qui a développé l’une des applications de reconnaissance faciale les plus controversées du moment, a le dos au mur. Elle doit faire face à une volée de critiques des médias et des principaux géants d’Internet, comme Google, Twitter ou encore Facebook à qui elle subtilise des photos.
La startup américaine Clearview AI se trouve actuellement dans les cordes. Pendant des années, elle avait tout fait pour rester aussi discrète que possible, consciente que sa technologie de reconnaissance faciale poussait très loin les limites du moralement acceptable. Mais une enquête publiée par le New York Times fin janvier et des révélations de Buzzfeed, vont brusquement pousser l’entreprise sous les feux des projecteurs.
Un outil d’une importance capitale pour les services de police
Que reproche-t-on à Clearview AI ? Cette application, téléchargeable sur les smartphones, sert à identifier instantanément des inconnus à partir d’une base de données. Comment ? Le logiciel extrait des images des moteurs de recherches et des plateformes de médias sociaux, sans autorisation, pour créer une base de données consultable. Si vous souhaitez identifier quelqu’un, il vous suffit de télécharger une photo ou d’en prendre une nouvelle, et le logiciel Clearview AI tente de faire une correspondance. Les résultats n’indiquent pas seulement le nom, mais fournissent également toutes les informations associées à la photo sur Internet. Par exemple l’occupation professionnelle si le cliché est associé à un profil LinkedIn.
A ce jour, plus de 600 services de police locale aux États-Unis utilisent ce logiciel, a appris le New York Times. Il a permis de retrouver des fraudeurs, des voleurs à l’étalage, ou encore des pédophiles et même de mettre un nom sur un cadavre non identifié. Pour les agents de force de l’ordre, il n’y avait pas photo. Clearview AI est bien meilleure que toutes les autres applications de reconnaissance faciale. Admettons-le, mais la police n’est malheureusement pas le seul client de ce logiciel.
Des États autoritaires et des milliardaires parmi les clients
Selon de nouvelles révélations de Buzzfeed, Walmart, Best Buy, Bank of America, la NBA, ou encore des chaînes de casino de Las Vegas apparaissent dans le fichier d’utilisateurs de Clairview AI, consulté par lui. En tout, près de 200 entreprises ont fait des centaines de milliers de recherches en ayant recours à ce logiciel de reconnaissance faciale, au titre du programme d’essai gratuit de la start-up. Aussi, Clairview AI a approché, indifféremment, les démocraties comme l’Australie ou la France tout comme des États plus autoritaires, tels que l’Arabie saoudite ou les Émirats arabes unis.
Le New York Times a révélé qu’un club de « happy few » – des riches investisseurs, des amis – a également eu accès à l’application de reconnaissance faciale. C’est le cas de Catsimatidis, le milliardaire propriétaire de la chaîne de supermarchés Gristedes. Un jour qu’il aperçoit sa fille dans le même restaurant que lui, dînant avec un jeune homme, il a demandé au serveur de prendre une photo de l’individu à leur insu. Le milliardaire s’est ensuite servi de son smartphone pour identifier le jeune homme à l’aide de Clairview AI, puis a envoyé sa biographie à sa fille.
Les géants du web attaquent, Clearview AI se défend
Google, Facebook, YouTube et Twitter ont émis des inquiétudes à l’idée que des photos mises en ligne sur leur service puissent servir à des régimes autoritaires pour faire la chasse aux dissidents. Les grandes plateformes ont toutes demandé à Clearview AI d’arrêter de piller leurs images et d’effacer celles déjà récupérées. Hoan Ton-Than s’y est opposé, arguant que l’accès à des données publiques relève de la liberté d’expression et d’information.
Tor Ekeland, l’avocat de l’entreprise américaine, a ajouté que « Clearview est un moteur de recherche de photos qui n’utilise que des données accessibles au public sur Internet. Il fonctionne de la même manière que le moteur de recherche de Google ». La start-up a par ailleurs mis en ligne un « code de conduite » expliquant que le but de l’application était uniquement d’aider « les forces de l’ordre et certains professionnels de la sécurité » à « identifier des victimes et les criminels ».