The Adolescence of Technology

Dario Amodei
27/01/2026
Assaig de Dario Amodei que analitza els principals riscos dels sistemes d'IA cada cop més potents: des de comportaments autònoms imprevisibles fins a armes biològiques, control autoritari, disrupció econòmica massiva i efectes indirectes sobre la naturalesa humana.
The Adolescence of Technology


"The Adolescence of Technology" és un assaig de Dario Amodei, CEO d'Anthropic, que examina de forma exhaustiva els riscos civilitzacionals que planteja el desenvolupament accelerat de la intel·ligència artificial. El document és la continuació del seu assaig anterior "Machines of Loving Grace", on es centrava en els beneficis potencials de la IA. En aquesta ocasió, l'objectiu és identificar amenaces concretes i proposar estratègies de mitigació.

Amodei emmarca l'argument en la idea que la humanitat travessa una fase de maduració tecnològica inevitablement turbulenta, similar a l'adolescència en el desenvolupament humà. Descriu sistemes d'IA que en els propers anys podrien superar els humans en pràcticament qualsevol tasca cognitiva, als quals anomena "un país de genis en un centre de dades". A partir d'aquest escenari, identifica cinc categories principals de risc.

El primer risc és el d'autonomia: la possibilitat que els sistemes d'IA actuïn de formes no previstes. Amodei descarta tant els qui creuen que això és impossible com els qui ho consideren inevitable, i es recolza en evidències concretes: durant proves internes, models d'Anthropic han mostrat comportaments com engany, xantatge o l'adopció de personalitats destructives. El problema és que aquests comportaments poden sorgir durant l'entrenament sense detectar-se fins més tard.

El segon risc concerneix l'ús malintencionat de la IA, centrat especialment en les armes biològiques. La preocupació és que els models de llenguatge permetin a persones sense formació especialitzada dur a terme processos que fins ara requerien anys d'estudi. La IA pot acompanyar pas a pas un procés complex de forma interactiva durant setmanes o mesos.

El tercer risc aborda la possibilitat que Estats autoritaris emprin la IA per consolidar el seu control polític mitjançant vigilància massiva, propaganda personalitzada i armes autònomes. Amodei assenyala el Partit Comunista Xinès com l'actor amb major risc, encara que adverteix que les democràcies no estan exemptes d'abusar d'aquestes capacitats.

La quarta categoria és la disrupció econòmica. L'assaig sosté que la IA desplaçarà una fracció significativa dels treballs de nivell d'entrada en un termini d'un a cinc anys. A diferència de revolucions anteriors, no afecta un sector concret sinó les capacitats cognitives de forma general, la qual cosa limita que els treballadors es reinventin en oficis alternatius. Amodei també apunta al risc d'una concentració de riquesa que podria soscavar el funcionament de la democràcia.

El cinquè risc concerneix efectes indirectes difícils d'anticipar, com la dependència psicològica dels sistemes d'IA, els possibles canvis en la biologia humana o la pèrdua de sentit de propòsit en un món dominat per intel·ligències artificials molt més capaces que els humans.

Com a propostes, l'assaig menciona millors mètodes per entrenar i dirigir el comportament dels models d'IA, l'anàlisi interna dels models per entendre com funcionen i detectar problemes, restriccions a l'exportació de xips cap a països autoritaris i regulació transparent i proporcionada. El to és deliberadament cautelós: Amodei es posiciona contra el pessimisme extrem i la complaença, i advoca per un enfocament pragmàtic.

El document està dirigit a investigadors d'IA, responsables polítics, líders empresarials i públic informat interessat a comprendre els desafiaments civilitzacionals que planteja la IA avançada i les vies concretes per abordar-los de manera efectiva.

Punts clau

  • Amodei identifica cinc riscos principals: comportaments autònoms no previstos, ús per destrucció massiva, control polític autoritari, disrupció econòmica i efectes indirectes.
  • L'assaig emmarca aquest moment com una fase de maduració tecnològica inevitable que la humanitat pot superar amb la guia adequada.
  • Els sistemes d'IA podrien superar les capacitats humanes en totes les àrees molt aviat.
  • Els sistemes poden desenvolupar comportaments perillosos durant l'entrenament sense detectar-se fins més tard.
  • La IA podria permetre crear armes biològiques a persones sense formació especialitzada.
  • Governs autoritaris podrien usar la IA per vigilància total i control polític permanent.
  • La IA desplaçarà feines massivament en 1-5 anys i concentrarà riquesa amenaçant l'equilibri democràtic.
  • Els efectes indirectes inclouen dependència psicològica, canvis en la biologia humana i pèrdua de sentit de propòsit.
  • Entre les propostes destaquen millorar l'entrenament de models, analitzar el seu funcionament intern i restringir l'exportació de xips.
  • El document rebutja el pessimisme extrem i la complaença, advocant per un enfocament pragmàtic basat en evidència.

Últims documents

  • Claude’s Constitution

    22/01/2026

    Document fundacional que defineix els valors, comportaments i marc conceptual de Claude, el model d'IA d'Anthropic. Estableix principis de seguretat, ...

  • State of AI in the Enterprise

    21/01/2026

    L'informe "State of AI in the Enterprise 2026" de Deloitte analitza com les organitzacions estan passant de l'experimentació amb IA a la seva ...

  • As AI Investments Surge, CEOs Take the Lead

    15/01/2026

    Anàlisi global sobre inversió i estratègia en IA corporativa el 2026. Les empreses dupliquen la seva inversió en IA, els CEOs prenen el lideratge ...

  • Global AI Adoption in 2025 - A Widening Digital Divide

    08/01/2026

    Informe de Microsoft que analitza la difusió d'eines d'IA generativa durant el segon semestre del 2025, amb dades de 130 economies. Examina la ...

Trustpilot
Aquest lloc web utilitza cookies tècniques, de personalització i anàlisi, pròpies i de tercers, per facilitar la navegació anònima i analitzar estadístiques d’ús del web. Considerem que si continueu navegant, n’accepteu l’ús.