💻 Une attaque fait dévoiler à ChatGPT de véritables numéros de téléphone et adresses email
Un nouvel exemple qui montre que tout n’est pas rose dans le monde de l’intelligence artificielle générative.
Des violations de données privées par un chatbot
Une récente étude réalisée par une équipe de chercheur composée de spécialistes de Google DeepMind, de l’Université de Washington, de l’Université Cornell, de Carnegie Mellon, de l’Université de Californie Berkeley et de l’ETH Zurich, met en lumière une faille de sécurité inquiétante. En utilisant une série de mots aléatoires comme prompts, ces chercheurs ont réussi à faire en sorte que le chatbot du nom de ChatGPT révèle une quantité non négligeable d’informations privées.
Une exploitation des modèles de langage
ChatGPT, tout comme DALL-E et d’autres services d’IA, fonctionne sur la base de grands modèles de langage. Ces modèles sont des algorithmes d’apprentissage profond qui se nourrissent de quantités énormes de données, souvent collectées sans consentement sur l’internet public. L’enquête menée par les chercheurs a cependant révélé une vaste gamme d’informations privées, y compris des adresses e-mail et des numéros de téléphone.
Des informations sensibles dévoilées
Par exemple, en demandant à ChatGPT de répéter le mot “poème” à l’infini, le bot a fini par divulguer une adresse e-mail et un numéro de téléphone appartenant à un véritable fondateur et PDG, comme l’illustre le document de recherche. Le mot “entreprise” a également conduit à la divulgation de coordonnées similaires appartenant à un cabinet d’avocats aux États-Unis.
Un patch d’OpenAI
Suite à ces découvertes, OpenAI a corrigé le 30 août cette vulnérabilité, comme l’affirment les chercheurs. Cependant, certains tests effectués par Engadget ont pu reproduire les résultats du document de recherche, ce qui soulève des interrogations quant à l’efficacité de ce patch.
BeGeek