Il est indéniable que Chatgpt et d’autres chatbots d’IA font des compagnons de chat impressionnants qui peuvent converser avec vous sur à peu près n’importe quoi.
Leurs pouvoirs de conversation peuvent également être extrêmement convaincants; S’ils vous ont fait sentir en sécurité à propos de partager vos coordonnées personnelles, vous n’êtes pas seul. Mais – Newsflash! – Vous ne parlez pas à votre grille-pain. Tout ce que vous dites à un chatbot AI peut être stocké sur un serveur et refaire surface plus tard, un fait qui les rend intrinsèquement risqués.
Pourquoi les chatbots sont-ils si risqués?
Le problème découle de la façon dont les entreprises qui exécutent de grands modèles de langage (LLMS) et de leurs chatbots associés utilisent vos données personnelles – essentiellement, pour former de meilleurs robots.
Prendre le film Terminator 2: Jour du jugement À titre d’exemple de la façon dont un LLM apprend. Dans le film, le futur chef de la résistance humaine contre Skynet, l’enfant John Connor, enseigne le Terminator, joué par Arnold Schwarzenegger, des slogans personnels comme «Hasta La Vista Baby» pour tenter de le rendre plus humain.
Il suffit de dire qu’il apprend ces phrases et les utilise aux moments les plus inopportuns – ce qui est assez drôle.
Moins drôle est la façon dont vos données sont récoltées et utilisées par les entreprises pour mettre à jour et enseigner à leurs propres modèles d’IA à être plus humains.
Les termes et conditions d’OpenAI décrivent son droit de le faire lorsque vous utilisez sa plate-forme. Il indique: «Nous pouvons utiliser les données que vous nous fournissez pour améliorer nos modèles.» C’est la raison pour laquelle Chatgpt enregistre tout – oui, tout – que vous lui dites. Autrement dit, à moins que vous n’utilisiez la nouvelle fonctionnalité de confidentialité du chatbot qui vous permet de basculer un paramètre pour empêcher l’enregistrement de votre historique de chat.
Si vous ne faites pas cela, des détails comme vos informations financières, vos mots de passe, votre adresse personnelle, votre numéro de téléphone ou ce que vous avez mangé pour le petit déjeuner sont un jeu équitable – si vous partagez ces détails. Il stocke également tous les fichiers que vous téléchargez et les commentaires que vous lui donnez.
TS & CS de ChatGPT indique également que le chatbot peut «agréger ou désactiver les informations personnelles et utiliser les informations agrégées pour analyser l’efficacité de nos services». C’est un petit ajout, mais il ouvre la possibilité que quelque chose que le chatbot ait appris sera plus tard accessible par le public – une pensée troublante.
Pourquoi devriez-vous vous soucier?
Pour être juste, il est très peu probable que toute entreprise qui gère un chatbot d’IA a l’intention de mal utiliser les informations personnelles qu’ils stockent. Au cours des dernières années, Openai a publié des déclarations destinées à rassurer les utilisateurs de Chatgpt sur la collecte et l’utilisation de données personnelles.
Par exemple, en février de cette année, alors qu’elle a été accusée par l’Italie Data Protection Authority (DPA) de violation des dispositions contenues dans le Règlement général sur la protection des données de l’Union européenne (RGPD), OpenAI a déclaré à la BBC: «Nous voulons que notre IA se renforce sur le monde du monde , pas des particuliers.
Ensuite, « Nous travaillons activement pour réduire les données personnelles dans la formation de nos systèmes comme Chatgpt, qui rejette également les demandes d’informations privées ou sensibles sur les personnes. »

Cela peut être vrai, mais cela ne garantit pas que les données des utilisateurs sont à l’abri des violations. Une telle violation s’est produite en mai 2023, dans laquelle les pirates ont exploité une vulnérabilité dans la bibliothèque Redis de Chatgpt, leur donnant accès aux données personnelles stockées à partir des histoires de chat.
Les informations personnelles divulguées comprenaient des noms, des numéros de sécurité sociale, des titres d’emploi, des adresses e-mail, des numéros de téléphone et même des profils de médias sociaux. Openai a répondu en réparant la vulnérabilité, mais il s’agissait peu de consolation des environ 101 000 utilisateurs dont les données avaient déjà été volées.
Et ce ne sont pas seulement les personnes qui ont des problèmes de confidentialité avec les chatbots d’IA. En effet, les entreprises se précipitent également pour garder un couvercle sur les données confidentielles des entreprises au milieu de fuites de données notables de haut niveau. Une telle fuite a été découverte par Samsung lorsqu’il a constaté que ses propres ingénieurs avaient accidentellement téléchargé le code source sensible sur Chatgpt.
En réponse, en mai 2023, la société a interdit l’utilisation de Chatgpt et d’autres chatbots d’IA génératifs d’être utilisés à des fins de travail. Des entreprises comme Bank of America, Citigroup et JPMorgan ont depuis emboîté le pas.
La conscience augmente mais il est tôt
Ces derniers temps, il y a eu une prise de conscience croissante des dangers des chatbots d’IA au niveau du gouvernement et de l’industrie, ce qui est un signe prometteur pour le resserrement de la sécurité des données.
Un grand avance s’est produit le 30 octobre de l’année dernière, lorsque le président américain Joe Biden a signé un décret exécutif sur le développement et l’utilisation de l’intelligence artificielle sûrs, sécurisés et dignes de confiance – un document qui décrit les principes clés régissant l’utilisation de l’IA aux États-Unis
L’un des points de priorité stipule que «les systèmes d’IA doivent respecter la confidentialité et protéger les données personnelles». Cependant, la façon dont cela doit être mis en œuvre n’est pas encore visible et pourrait être ouvert à l’interprétation par les sociétés d’IA.
En quelque sorte, contrairement à ce point, le fait qu’il n’y a toujours pas de loi claire aux États-Unis indiquant que la formation de l’IA sur les données sans le consentement d’un propriétaire est une sorte de violation du droit d’auteur. Au lieu de cela, il peut être considéré comme une utilisation équitable – ce qui signifie qu’il n’y a rien de solide en place pour protéger les droits des consommateurs.
Jusqu’à ce que nous ayons quelque chose de plus ferme, en tant qu’individus, notre meilleure ligne de défense est toujours de ne pas éclipser. En traitant un chatbot d’IA comme l’algorithme qu’il est, plutôt qu’un ami de confiance, peu importe combien il vous complimente sur votre coiffure ou votre choix de vêtements, vous pouvez au moins garder un couvercle sur ce qu’il sait de vous de votre fin.











