Les hackers peuvent espionner vos conversations avec presque n’importe quelle IA, selon les experts


“N’importe qui peut lire les conversations privées envoyées par ChatGPT et d’autres services.”

© Jonas Leupe – Unsplash

Faites attention à ce que vous dites aux chatbots d’IA, car il est apparemment facile pour les pirates d’espionner ces conversations.

“Actuellement, n’importe qui peut lire les conversations privées envoyées par ChatGPT et d’autres services”, a déclaré par courriel à Ars Technica Yisroel Mirsky, directeur du laboratoire de recherche sur l’IA offensive à l’université Ben-Gurion d’Israël. “Il peut s’agir d’acteurs malveillants présents sur le même réseau Wi-Fi ou LAN qu’un client (par exemple, dans le même café), ou même d’un acteur malveillant sur l’internet, c’est-à-dire toute personne capable d’observer le trafic.”

Ce type de piratage, comme l’explique le rapport, est connu sous le nom d'”attaques par canal latéral”, qui impliquent que des tiers déduisent passivement des données en utilisant des métadonnées ou d’autres expositions indirectes plutôt qu’en franchissant les pare-feu de sécurité. Bien que ce type d’exploit puisse se produire avec n’importe quel type de technologie, l’IA semble particulièrement vulnérable parce que ses efforts de cryptage ne sont pas nécessairement à la hauteur.

“L’attaque est passive et peut se produire à l’insu d’OpenAI ou de ses clients”, a révélé le chercheur. “OpenAI chiffre son trafic pour empêcher ce type d’attaques d’écoute, mais nos recherches montrent que la façon dont OpenAI utilise le chiffrement est défectueuse, et que le contenu des messages est donc exposé.”

Bien que les attaques par canal latéral soient moins invasives que d’autres formes de piratage, elles peuvent, comme le rapporte Ars, déduire approximativement une invite de chatbot donnée avec une précision de 55 %, ce qui rend toutes les questions sensibles que l’on pourrait poser à une IA faciles à détecter pour les acteurs malveillants.

Alors que les chercheurs de Ben-Gurion se concentrent principalement sur les erreurs de cryptage dans OpenAI, la plupart des chatbots sur le marché aujourd’hui – à l’exception, pour une raison quelconque, de Gemini de Google – peuvent être exploités de cette manière, indique le rapport.

Ce problème découle de l’utilisation par les chatbots de données codées appelées “tokens” (jetons), qui aident les grands modèles de langage (LLM) à traduire les entrées et à fournir rapidement des réponses lisibles. Celles-ci sont souvent envoyées très rapidement, de sorte que la “conversation” de l’utilisateur avec le chatbot se déroule naturellement, comme si quelqu’un tapait une réponse au lieu de faire apparaître un paragraphe entier en une seule fois.

Si le processus d’envoi est généralement crypté, les jetons eux-mêmes produisent un canal latéral dont les chercheurs n’avaient pas connaissance jusqu’à présent. Toute personne ayant accès à ces données en temps réel pourrait, comme l’expliquent les chercheurs de Ben-Gurion dans un nouvel article, être en mesure de déduire vos messages sur la base des jetons auxquels elle a accès, un peu comme si elle déduisait le sujet d’une conversation à voix basse entendue de l’autre côté d’une porte ou d’un mur.

Pour documenter cet exploit, Mirsky et son équipe de Ben-Gurion ont fait passer les données brutes acquises par le canal latéral involontaire par un second LLM formé à l’identification de mots-clés, comme ils l’expliquent dans leur article, qui n’a pas encore été publié officiellement. Ils ont constaté que le LLM avait une chance sur deux de déduire les invites générales et qu’il était capable de les prédire presque parfaitement dans 29 % des cas.

Dans une déclaration, Microsoft a expliqué à Ars que l’exploit, qui affecte également son IA Copilot, ne compromet pas les données personnelles.

“Il est peu probable que des détails spécifiques tels que les noms puissent être prédits”, a déclaré un porte-parole de Microsoft au site web. “Nous nous engageons à protéger nos clients contre ces attaques potentielles et nous allons y remédier par le biais d’une mise à jour.”

Les conclusions sont inquiétantes – et dans le cas de sujets délicats tels que l’avortement ou les questions LGBTQ, qui sont tous deux criminalisés aux États-Unis à l’heure actuelle, elles pourraient être utilisées pour nuire ou punir des personnes qui cherchent simplement à s’informer.

Lire aussi : Loi justice : comment la police va espionner votre téléphone

Source : Futurism – Traduit par Anguille sous roche


Vous aimerez aussi...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *