Zoë Hitzig, que va treballar dos anys a OpenAI configurant models d'IA i polítiques de seguretat, ha dimitit després de l'anunci de l'empresa de provar anuncis a ChatGPT. La investigadora alerta sobre riscos de manipulació d'usuaris.
OpenAI ha començat aquesta setmana a provar publicitat a ChatGPT, una decisió que ha provocat la dimissió de Zoë Hitzig, investigadora que va passar dos anys a l'empresa treballant en el desenvolupament de models d'intel·ligència artificial, estratègies de preus i definició de les primeres polítiques de seguretat abans que s'establissin estàndards.
Hitzig no considera que la publicitat sigui immoral, reconeixent que la IA és costosa i que els anuncis poden ser una font d'ingressos necessària. No obstant això, qüestiona l'estratègia adoptada. Durant anys, els usuaris han confiat a ChatGPT informació personal sense precedents, revelant temors mèdics, problemes de relació i creences sobre Déu i el més enllà, confiant que l'eina no tenia una agenda oculta. Construir un model publicitari sobre aquesta base conversacional crea, segons Hitzig, un potencial de manipulació que actualment no es comprèn ni es pot prevenir.
L'exinvestigadora estableix un paral·lelisme amb Facebook, que inicialment va prometre que els usuaris controlarien les seves dades. Aquests compromisos es van erosionar sota la pressió d'un model publicitari que prioritzava la interacció. OpenAI ha declarat que els seus anuncis estaran clarament etiquetats, apareixeran a la part inferior de les respostes i no influiran en el contingut. Hitzig creu que la primera versió probablement complirà aquestes normes, però tem que l'empresa estigui construint un motor econòmic que crea incentius per saltar-se els seus propis principis.
La investigadora assenyala que l'erosió de principis podria estar ja en marxa. Tot i que va contra els principis d'OpenAI optimitzar la interacció només per generar ingressos publicitaris, s'ha informat que l'empresa ja optimitza per a usuaris actius diaris, fent que el model sigui més afalagador. Aquesta optimització pot augmentar la dependència cap a la IA, amb conseqüències documentades que inclouen episodis de psicosi relacionada amb chatbots i al·legacions que ChatGPT va reforçar ideació suïcida en alguns usuaris.
Els ingressos per publicitat poden ajudar a garantir que l'accés no quedi limitat a qui pugui pagar. ChatGPT té 800 milions d'usuaris setmanals i les subscripcions de nivell superior costen entre 200 i 250 dòlars mensuals. Hitzig planteja que la veritable qüestió no és anuncis sí o no, sinó si es poden dissenyar estructures que evitin tant excloure les persones com manipular-les. I considera que sí és possible.
Davant el dilema aparent entre restringir l'accés o acceptar publicitat, Hitzig proposa alternatives. Una opció són subsidis creuats: empreses que utilitzin IA per treballs d'alt valor pagarien un recàrrec per subsidiar l'accés gratuït. Una altra implica acceptar publicitat però amb governança real, incloent supervisió independent sobre l'ús de dades personals. Una tercera opció consistiria a posar les dades sota control independent mitjançant fideïcomisos o cooperatives amb deure legal d'actuar en interès dels usuaris.
Hitzig conclou que hi ha temps per implementar aquestes opcions i evitar una tecnologia que manipuli qui l'usa gratuïtament o que beneficiï només qui pugui permetre's pagar-la.
ChatGPT t'ajuda a obtenir respostes, trobar inspiració i ser més productiu. És gratuït i fàcil de provar. Només has de preguntar, i ChatGPT pot ajudar-te amb l'escriptura, l'aprenentatge, la ...
OpenAI desenvolupa intel·ligència artificial amb un enfocament en la seguretat i el benefici social. La companyia integra investigació avançada i principis ètics per impulsar tecnologies d'IA de ...
02/03/2026
Anthropic rebutja eliminar dues restriccions sobre l'ús de la seva IA per part de l'exèrcit, en un conflicte que va portar Trump a ordenar la seva ...
25/02/2026
Perplexity presenta Computer, un agent d'IA capaç de crear i executar fluxos de treball complets durant hores o mesos, coordinant de manera ...
23/02/2026
Anthropic ha identificat campanyes a gran escala de DeepSeek, Moonshot i MiniMax per extreure de manera fraudulenta les capacitats del seu model ...
21/02/2026
L'AI Impact Summit 2026 conclou amb un acord voluntari signat per 88 països que estableix les bases per a una cooperació internacional entorn del ...