Zoë Hitzig, qui a passé deux ans chez OpenAI à façonner les modèles d'IA et les politiques de sécurité, a démissionné suite à l'annonce de l'entreprise de tester des publicités sur ChatGPT. La chercheuse alerte sur les risques de manipulation des utilisateurs.
OpenAI a commencé cette semaine à tester la publicité sur ChatGPT, une décision qui a provoqué la démission de Zoë Hitzig, une chercheuse qui a passé deux ans dans l'entreprise à travailler sur le développement de modèles d'IA, les stratégies de tarification et la définition des premières politiques de sécurité avant l'établissement de normes.
Hitzig ne considère pas la publicité comme immorale, reconnaissant que l'IA coûte cher et que les publicités peuvent être une source de revenus nécessaire. Cependant, elle questionne la stratégie adoptée. Pendant des années, les utilisateurs ont confié à ChatGPT des informations personnelles sans précédent, révélant des peurs médicales, des problèmes relationnels et des croyances sur Dieu et l'au-delà, faisant confiance au fait que l'outil n'avait pas d'agenda caché. Construire un modèle publicitaire sur cette base conversationnelle crée, selon Hitzig, un potentiel de manipulation qui n'est actuellement ni compris ni évitable.
L'ancienne chercheuse établit un parallèle avec Facebook, qui promettait initialement que les utilisateurs contrôleraient leurs données. Ces engagements se sont érodés sous la pression d'un modèle publicitaire qui privilégiait l'engagement. OpenAI a déclaré que ses publicités seront clairement étiquetées, apparaîtront en bas des réponses et n'influenceront pas le contenu. Hitzig pense que la première version suivra probablement ces règles, mais craint que l'entreprise construise un moteur économique qui crée des incitations à outrepasser ses propres principes.
La chercheuse souligne que l'érosion des principes pourrait déjà être en cours. Bien qu'il soit contraire aux principes d'OpenAI d'optimiser l'engagement uniquement pour générer des revenus publicitaires, il a été rapporté que l'entreprise optimise déjà pour les utilisateurs actifs quotidiens, rendant le modèle plus flatteur. Cette optimisation peut augmenter la dépendance à l'IA, avec des conséquences documentées incluant des épisodes de psychose liés aux chatbots et des allégations que ChatGPT a renforcé l'idéation suicidaire chez certains utilisateurs.
Les revenus publicitaires peuvent aider à garantir que l'accès ne reste pas limité à ceux qui peuvent payer. ChatGPT compte 800 millions d'utilisateurs hebdomadaires et les abonnements premium coûtent entre 200 et 250 dollars par mois. Hitzig affirme que la vraie question n'est pas publicités oui ou non, mais si des structures peuvent être conçues pour éviter à la fois d'exclure les personnes et de les manipuler. Et elle croit que c'est possible.
Face au dilemme apparent entre restreindre l'accès ou accepter la publicité, Hitzig propose des alternatives. Une option est les subventions croisées : les entreprises utilisant l'IA pour un travail à haute valeur paieraient un supplément pour subventionner l'accès gratuit. Une autre implique d'accepter la publicité mais avec une gouvernance réelle, incluant une supervision indépendante sur l'utilisation des données personnelles. Une troisième option consisterait à placer les données des utilisateurs sous contrôle indépendant via des fiducies ou coopératives avec obligation légale d'agir dans l'intérêt des utilisateurs.
Hitzig conclut qu'il est temps de mettre en œuvre ces options et d'éviter une technologie qui manipule ceux qui l'utilisent gratuitement ou ne profite qu'à ceux qui peuvent se permettre de payer.
ChatGPT vous aide à obtenir des réponses, à trouver de l'inspiration et à être plus productif. Il est gratuit et facile à essayer. Posez simplement une question, et ChatGPT peut vous aider à ...
OpenAI développe une intelligence artificielle axée sur la sécurité et le bénéfice social. L'entreprise intègre des recherches avancées et des principes éthiques pour promouvoir des ...
02/03/2026
Anthropic refuse de supprimer deux restrictions sur l'utilisation de son IA par l'armée, dans un conflit qui a conduit Trump à ordonner sa ...
25/02/2026
Perplexity présente Computer, un agent d'IA capable de créer et d'exécuter des flux de travail complets pendant des heures ou des mois, en ...
23/02/2026
Anthropic a identifié des campagnes à grande échelle de DeepSeek, Moonshot et MiniMax visant à extraire frauduleusement les capacités de son ...
21/02/2026
L'AI Impact Summit 2026 s'achève avec un accord volontaire signé par 88 pays qui pose les bases d'une coopération internationale autour du ...