ChatGPT commet de nombreuses erreurs factuelles, qui sont inhérentes à son fonctionnement. Mais ces erreurs constituent autant de violation du Règlement général sur la protection des données (RGPD), qui interdit en effet de traiter des données personnelles inexactes. La CNIL, saisie du dossier, interdira-t-elle ChatGPT comme l’a déjà fait son homologue italien ? Affaire à suivre.

Diffusion d’informations inexactes par ChatGPT, un député porte plainte
Le député Éric Bothorel a déclaré avoir porté plainte contre OpenAI, l’éditeur du service ChatGPT. Leur Chatbot a été accusé de diffuser de fausses informations susceptibles de violer le RGPD européen.
C’est déjà (au moins) la troisième plainte déposée auprès de la CNIL contre ChatGPT. Mercredi 12 avril, le député Éric Bothorel a déclaré avoir saisi la CNIL. Sur Twitter, il a posté plusieurs captures d’écran truffées d’inexactitudes factuelles. L’élu de la majorité présidentielle, un temps pressenti pour devenir ministre du numérique, indique ainsi que sa date et son lieu de naissance sont différents à chaque fois et sont incorrects lorsqu’on se réfère à l’entrée Wikipedia.
ChatGPT évoque également des expériences professionnelles chez Orange et Havas, qui n’apparaissent pas sur le profil LinkedIn du député. Au cours de la conversation, le chatbot explique qu’il était le maire de Lannion. Dans un autre, il était maire de Saint-Brieuc le même jour. Et dans un troisième il n’était que conseiller des Côtes d’Armor. Trop d’informations inexactes.
Tous les arguments s’accordent : Éric Bothorel est député de la 2e circonscription de la Côtes d’Armor. Dans les faits, il a été élu dans la 5e circonscription du département. ChatGPT invente aussi un poste qu’Éric Bothorel n’occupe pas à l’Assemblée nationale.
OpenAI, développeur de ChatGPT, conscient de la propagation d’information erronées par celui-ci
Ces erreurs sont dues à la manière de fonctionner du chatbot développé par la startup OpenAI. Celui-ci ne cherche pas la réponse la plus juste dans l’énorme data base à sa disposition. Il l’a « prédit« , ce qui entraine des réponses qui s’apparentent à des « hallucinations« .
OpenAI est conscient de cette limitation. « ChatGPT peut produire des informations inexactes sur les personnes, les lieux ou les faits« , prévient la startup sur son site. Son patron, Sam Altman, prévient également : « cela serait une erreur de l’utiliser pour des choses importantes« .
Cependant, ces limitations techniques peuvent entrer en conflit avec le RGPD, qui exige que les données personnelles soient « exactes et, si nécessaires, tenues à jour » en vertu de son article 5. Le document ajoute que « toutes les mesures raisonnables doivent être prises pour que les données à caractère personnel qui sont inexactes […] soient effacées ou rectifiées sans tarder« .
Des risques de diffamation envers des personnes ou organisations
Ces erreurs factuelles font également partie d’une plainte du développeur David Libeau, qui s’occupe activement des problèmes de confidentialité. « Les informations générées par ChatGPT peuvent être incorrectes [et] peuvent nuire à la réputation des personnes ou des organisations concernées”, explique-t-il, estimant que le robot conversationnel doit garantir “l’exactitude et la fiabilité de ses informations générées ».
La question a également été au centre de poursuites pour diffamation en Australie. En effet, un élu local a critiqué le service car celui-ci affirmait qu’il avait été condamné dans une affaire de corruption à la banque centrale australienne.
***