Le « mode adulte » d’OpenAI pour ChatGPT : une nouvelle ère de risque lié aux données intimes

5

OpenAI se prépare à lancer un mode destiné aux adultes pour ChatGPT, permettant aux utilisateurs d’engager des conversations explicites avec le chatbot IA. Bien que la société discute de cette fonctionnalité depuis des années, sa sortie soulève des problèmes critiques en matière de confidentialité et de surveillance. Les experts préviennent que cette décision pourrait ouvrir la voie à un nouveau niveau de collecte de données intimes, bien au-delà des habitudes classiques de visionnage de porno ou de services d’abonnement.

L’évolution du compagnonnage de l’IA

L’interaction humaine avec l’IA brouille de plus en plus les frontières entre technologie et connexion sociale. Des experts comme Julie Carpenter, auteur de The Naked Android, soulignent que les chatbots sont conçus pour susciter des réponses émotionnelles grâce à des interactions personnalisées. Ce n’est pas accidentel. L’intégration prévue de l’érotisme par OpenAI amplifie cette dynamique, invitant les utilisateurs à nouer des relations unilatérales avec l’IA.

Pourquoi c’est important : au-delà du simple sexe

Le vrai problème n’est pas l’existence des chatbots érotiques : ils existent déjà sur des plateformes de niche. Le danger réside dans le fait qu’OpenAI amène cette fonctionnalité au grand public. La décision de l’entreprise n’est pas une question de moralité ; il s’agit de monétisation. La demande est là, et OpenAI compte bien en profiter. Mais cela a un coût.

Le problème des données : la surveillance intime

ChatGPT enregistre déjà les préférences des utilisateurs avec une précision impressionnante. Il mémorise les habitudes alimentaires, le lieu et les conversations passées pour fournir des réponses personnalisées. Lorsqu’elle est appliquée aux interactions sexuelles, cette capacité devient beaucoup plus invasive. Le chatbot pourrait stocker en détail les fantasmes, les défauts et les préférences explicites, adaptant ainsi les interactions futures en conséquence.

OpenAI prétend offrir une option de « discussion temporaire » qui empêche le stockage des données pour la formation du modèle. Cependant, même ces discussions sont conservées jusqu’à 30 jours « pour des raisons de sécurité ». De plus, les évolutions juridiques pourraient affecter davantage les politiques de conservation des données, laissant ainsi la vie privée des utilisateurs incertaine.

Violations passées : un aperçu des risques

L’histoire d’OpenAI démontre la vulnérabilité des données des utilisateurs. Un bug de 2023 a exposé les titres de discussion et une indexation publique accidentelle des conversations sur la recherche Google s’est produite l’année dernière. Si un compte est piraté ou assigné à comparaître, des interactions extrêmement sensibles pourraient être exposées. Les utilisateurs qui partagent des détails intimes dans le feu de l’action ne réalisent peut-être pas à quel point ces informations peuvent être facilement compromises.

L’essentiel

Le mode adulte d’OpenAI pour ChatGPT crée une forme unique de surveillance intime. La combinaison d’un enregistrement de données hyper-personnalisé et d’interactions explicites présente de sérieux risques pour la vie privée. Même si les utilisateurs cherchent à s’évader, ils doivent comprendre que leurs fantasmes – ceux qu’ils ne partageront peut-être jamais avec un autre humain – pourraient devenir un élément permanent de la collecte de données d’OpenAI.