Incroyable : plus de 110 000 conversations ChatGPT exposées sur Google à cause d’un simple clic !
Un partage malencontreux de plus de 110 000 conversations
Un incident majeur secoue la communauté des utilisateurs de ChatGPT : plus de 110 000 échanges privés ont été rendus publics via Google, à la suite d’une utilisation inattendue de la fonction de partage. En voulant simplement produire un lien pour rediffuser un extrait, de nombreux utilisateurs ont coché sans le vouloir l’option “affichable publiquement”, exposant ainsi l’intégralité de leurs discussions à la planète web.
Comment la fonction de partage a-t-elle exposé vos données ?
Lorsque vous choisissez de partager une conversation depuis l’interface ChatGPT, un bouton “Copier le lien” génère deux options :
- Partager en privé : seul le destinataire disposant du lien peut voir le contenu.
- Rendre trouvable via un moteur de recherche : active un paramètre “indexable” qui autorise Google à référencer la page.
Malheureusement, l’interface affichait ces choix de façon confuse, et de nombreux utilisateurs n’ont pas remarqué le libellé indiquant que le lien deviendrait alors “trouvable sur Google”. Résultat : des discussions jugées privées ont fini indexées, laissant libre accès aux résultats de recherche.
Des contenus sensibles dévoilés au grand jour
Parmi les conversations ainsi exposées, on trouve :
- Confidences personnelles : témoignages sur la santé mentale, crises de panique et conseils psychologiques.
- Difficultés relationnelles : échanges sur des disputes de couple, harcèlement ou problèmes intimes.
- Informations professionnelles : documents confidentiels de dirigeants, stratégies d’entreprise et correspondances juridiques.
- Plagiats et devoirs : étudiants sollicitant l’IA pour rédiger des travaux universitaires.
- Discussions techniques sur la cybercriminalité : certains échanges portaient même sur des méthodes de piratage ou cyberattaques.
Ces fuites démontrent à quel point la frontière entre usage privé et publication publique peut être ténue lorsqu’on néglige les paramètres de confidentialité.
Réactions et mesures prises par OpenAI
Face à la polémique, OpenAI a rapidement désactivé la possibilité de rendre un lien “trouvable” par les moteurs de recherche, reconnaissant que “le risque de partage involontaire de contenus sensibles était trop élevé”. Dane Stuckey, directeur sécurité chez OpenAI, a expliqué sur X (ex-Twitter) que la mesure visait à “empêcher toute nouvelle exposition accidentelle”.
Toutefois, bien que la majorité des liens problématiques aient été retirés des résultats Google, plusieurs archives subsistent sur des plateformes tierces comme archive.org, rendant certains échanges encore consultables.
Les experts tirent la sonnette d’alarme
La juriste spécialisée en protection des données Luiza Jarovsky pointe du doigt “une conception d’interface trompeuse” qui fait peser la responsabilité sur l’utilisateur alors que la mise en garde est difficile à repérer. Pour elle, OpenAI doit revoir en profondeur la présentation des options de partage pour éviter tout nouveau scandale.
Comment limiter les risques lors de l’usage de ChatGPT ?
Pour conserver le contrôle de vos échanges et éviter d’exposer des informations privées, voici quelques bonnes pratiques à adopter immédiatement :
- Ne partagez pas de données sensibles : noms, adresses, numéros de sécurité sociale ou informations bancaires doivent rester hors de portée de l’IA.
- Vérifiez la case de partage : avant de copier un lien, assurez-vous que l’option “trouvable” est bien désactivée.
- Désactivez la fonction “Memory” : l’IA ne stockera pas vos échanges, protégeant ainsi votre historique.
- Contrôlez les paramètres de confidentialité : dans la section dédiée, limitez l’usage de vos données pour l’entraînement de l’IA.
- Utilisez le mode incognito : pour les discussions délicates, activez un onglet privé ou un navigateur dédié.
Les leçons à retenir pour l’avenir
Ce cas de figure rappelle qu’en matière de technologies émergentes, l’usager doit rester vigilant, mais aussi que les concepteurs d’interfaces ont la responsabilité d’afficher clairement les implications de chaque action. La transparence et la simplicité doivent primer pour garantir une confiance durable entre l’IA et ses utilisateurs.
Un appel à la transparence et à l’éducation
En attendant des solutions techniques plus robustes, il revient à chaque utilisateur de s’informer et de former son entourage aux risques potentiels. L’ère de l’intelligence artificielle requiert une éducation numérique continue, afin de tirer le meilleur de ces outils tout en protégeant sa vie privée.