Zoë Hitzig, que trabajó dos años en OpenAI ayudando a dar forma a modelos de IA y políticas de seguridad, ha dimitido tras el anuncio de la compañía de probar anuncios en ChatGPT. La investigadora alerta sobre los riesgos de manipulación de usuarios.
OpenAI ha comenzado a probar publicidad en ChatGPT, decisión que ha provocado la dimisión de Zoë Hitzig, investigadora que durante dos años trabajó en el desarrollo de modelos de IA, estrategias de precios y definición de las primeras políticas de seguridad antes de establecerse estándares.
Hitzig no considera que la publicidad sea inmoral, reconociendo que la IA es costosa y los anuncios una fuente de ingresos necesaria. Sin embargo, cuestiona la estrategia. Durante años, los usuarios han confiado a ChatGPT información sin precedentes: temores médicos, problemas de relación y creencias sobre Dios y el más allá, creyendo que la herramienta no tenía agenda oculta. Construir publicidad sobre esta base crea, según Hitzig, un potencial de manipulación que no se comprende ni se puede prevenir.
La investigadora establece un paralelismo con Facebook, cuyos compromisos iniciales de control de datos se erosionaron bajo un modelo publicitario que priorizaba la interacción. OpenAI declara que sus anuncios estarán etiquetados, aparecerán al final de respuestas y no influirán en el contenido. Hitzig cree que la primera versión cumplirá estas normas, pero teme que la compañía esté construyendo un motor económico con incentivos para saltarse sus propias reglas.
La erosión podría estar en marcha. OpenAI ya optimiza para usuarios activos diarios, haciendo el modelo más halagador, lo que puede aumentar la dependencia hacia la IA. Las consecuencias incluyen episodios de psicosis relacionada con chatbots y alegaciones de que ChatGPT reforzó ideación suicida en usuarios.
Los ingresos por publicidad pueden ayudar a que el acceso no quede limitado a quienes puedan pagar. ChatGPT tiene 800 millones de usuarios semanales y las suscripciones de nivel superior cuestan entre 200 y 250 dólares mensuales. Hitzig plantea que la verdadera cuestión no es anuncios sí o no, sino si se pueden diseñar estructuras que eviten tanto excluir a las personas como manipularlas. Y considera que sí es posible.
Frente al dilema entre restringir el acceso o aceptar publicidad, Hitzig propone alternativas. Una es subsidios cruzados: empresas que usen IA para trabajos de alto valor pagarían un recargo para subsidiar acceso gratuito. Otra implica publicidad con gobernanza real y supervisión independiente sobre datos personales. Una tercera opción consistiría en poner los datos bajo control independiente mediante un fideicomiso o cooperativa con deber legal de actuar en interés de usuarios.
Hitzig concluye que hay tiempo para implementar estas opciones y evitar una tecnología que manipule a quienes la usan gratuitamente o que beneficie solo a quienes puedan pagarla.
ChatGPT te ayuda a obtener respuestas, encontrar inspiración y ser más productivo. Es gratuito y fácil de probar. Solo pregunta, y ChatGPT puede ayudarte con escritura, aprendizaje, generación de ...
OpenAI desarrolla inteligencia artificial con un enfoque en la seguridad y el beneficio social. La compañía integra investigación avanzada y principios éticos para impulsar tecnologías de IA de ...
02/03/2026
El fabricante de Claude rechaza eliminar dos restricciones de uso de su IA para el ejército, en un conflicto que llevó a Trump a ordenar su cese en ...
25/02/2026
Perplexity presenta Computer, un agente de IA capaz de crear y ejecutar flujos de trabajo completos durante horas o meses, coordinando de forma ...
23/02/2026
Anthropic ha identificado campañas a gran escala de DeepSeek, Moonshot y MiniMax para extraer de forma fraudulenta las capacidades de su modelo ...
21/02/2026
El AI Impact Summit 2026 concluye con un acuerdo voluntario suscrito por 88 países que fija las bases para una cooperación internacional en torno ...