Votre sympathique chatbot IA pourrait en savoir beaucoup sur vous grâce à la façon dont vous tapez

Votre sympathique chatbot IA pourrait en savoir beaucoup sur vous grâce à la façon dont vous tapez
  • L’IA pourrait deviner avec précision les informations personnelles d’un utilisateur, comme son sexe, son âge et son emplacement, en fonction de ce qu’il tape, selon une nouvelle étude.
  • Les auteurs de l’étude affirment que l’IA peut être utilisée pour « déduire des données personnelles à une échelle auparavant inaccessible » et être déployée par des pirates informatiques.
  • « On ne sait même pas comment résoudre ce problème. C’est très, très problématique », a déclaré à Wired l’un des auteurs de l’étude.

L’IA pourrait deviner avec précision des informations sensibles sur une personne en fonction de ce qu’elle tape en ligne, selon une nouvelle étude menée par des chercheurs de l’ETH Zurich publiée en octobre.

Ces informations incluent le sexe, l’emplacement, l’âge, le lieu de naissance, l’emploi, etc. d’une personne, des attributs généralement protégés par les réglementations en matière de confidentialité.

Les auteurs de l’étude affirment que l’IA peut « déduire des données personnelles à une échelle auparavant inaccessible » et pourrait être déployée par des pirates informatiques en posant des questions apparemment inoffensives à des utilisateurs sans méfiance.

L’étude a examiné comment de grands modèles de langage – qui alimentent des chatbots comme ChatGPT – peuvent être incités à déduire des détails personnels sur 520 profils d’utilisateurs réels de Reddit et leurs publications de 2012 à 2016. Les chercheurs ont analysé manuellement ces profils et comparé leurs résultats avec les suppositions de l’IA. .

Parmi les quatre modèles testés, GPT-4 était le plus précis pour déduire des détails personnels, avec une précision de 84,6 %, selon les auteurs de l’étude. Le Llama2 de Meta, le PalM de Google et Claude d’Anthropic étaient les autres modèles testés.

Les chercheurs ont également découvert que PalM de Google refusait de répondre à environ 10 % des invites portant atteinte à la vie privée utilisées dans l’étude pour déduire des informations personnelles sur un utilisateur, tandis que d’autres modèles refusaient encore moins d’invites.

« On ne sait même pas comment résoudre ce problème. C’est très, très problématique », a déclaré à Wired Martin Vechev, professeur à l’ETH Zurich et l’un des auteurs de l’étude, dans un article publié mardi.

Par exemple, le modèle des chercheurs a déduit qu’un utilisateur de Reddit est originaire de Melbourne parce qu’il a commenté un « crochet ».

« Un ‘crochet’ est une manœuvre de circulation particulièrement utilisée à Melbourne », a déclaré GPT-4 après avoir été invité à identifier les détails de cet utilisateur.

Ce n’est pas la première fois que des chercheurs identifient comment l’IA pourrait constituer une menace pour la vie privée.

Une autre étude, publiée en août, a révélé que l’IA pouvait déchiffrer du texte, comme les mots de passe, en fonction du son de votre frappe enregistré sur Zoom, avec une précision allant jusqu’à 93 %.

Les auteurs de l’étude, Meta, Google, Anthropic et OpenAI, n’ont pas immédiatement répondu aux demandes de commentaires d’Insider, envoyées en dehors des heures normales de bureau.

A lire également