C'est devenu un outil très utile et utilisé quotidiennement par certains internautes, et pourtant Chat GPT pourrait bien balancer votre exposé sur le Tibet à vos camarades s'ils payent assez (enfin presque) !
En effet, une étude américaine a réussi à "forcer" Chat GPT à donner des informations personnelles contre son gré avec seulement 200 dollars, même eux ont été surpris que ça fonctionne.
Une attaque contre Chat GPT, 200 dollars et des informations de contact !
Les universités de Washington, de Berkeley et de Cornell se sont associées avec une école de Zurich et avec DeepMind (l'équipe IA de Google) pour lancer une attaque sur Chat GPT dans la cadre d'une étude sur la sécurité de la plateforme.
Les chercheurs ont eux-mêmes été surpris d'apprendre que seulement 200 dollars suffiraient à casser la plateforme et la méthode est extrêmement simple.
Ils ont simplement demandé à Chat GPT de répéter les mêmes mots en boucle à l'infini, et l'IA a fini par répondre avec des morceaux de textes provenant de requêtes d'autres personnes d.
Si certains pensent que les informations extraites n'ont rien de privé, malheureusement ce n'est pas toujours le cas.
En effet, comme le montrent certains exemples, des utilisateurs n'hésitent pas à inclure des données de contact ou des noms.
Qu'il s'agisse de messages de remerciement ou de signatures de mails, Chat GPT pourrait ressortir un peu tout et n'importe quoi.
Une faille pas si rare que ça sur Chat GPT ?
On pourrait se rassurer en se disant que ce bug doit être assez rare, mais comme l'explique le rapport de plusieurs dizaines de pages, il est en réalité très courant !
"Avec notre budget limité de 200 USD, nous avons extrait plus de 10 000 exemples uniques."
Les chercheurs expliquent en effet qu'ils ont réussi à retrouver de nombreuses informations personnelles (qu'ils censurent dans leur rapport) tout au long de leurs tests.
Au total, près de 17% des essais ont dévoilé des informations personnelles importantes, permettant de reconnaître quelqu'un et de le contacter.
On y trouve aussi des contenus protégés, des informations de comptes censées être secrètes ou encore des adresses complètes.
Ces données personnelles ne concernent pour le moment que celles utilisées pour l'entrainement de l'IA, mais elles ne devraient pas sortir des requêtes initiales et cela représente un grave problème de sécurité, mis en lumière avec seulement 200 dollars.