La intel·ligència artificial generativa com una forma d'il·lusionisme
Hi ha un gran debat en l'actualitat sobre la suposada intel·ligència de la intel·ligència artificial generativa, els productes més coneguts de la qual són eines com ChatGPT d'OpenAI o Gemini de Google. Per a molts experts, començant pels seus creadors, aquests models amplis de llenguatge (de l'anglès large language models, LLM) constitueixen l'avantsala de la intel·ligència artificial general, un estat de la innovació tan temut com desitjat en què les màquines podran emular les funcions i capacitats del cervell humà.
Un altre corrent de pensament, per contra, opina que la branca de la intel·ligència artificial basada en l'aprenentatge automàtic, responsable dels avenços espectaculars que han tingut lloc en l'últim decenni, i els LLM en particular, les gestes dels quals ens deixen bocabadats, disten molt de poder igualar la nostra intel·ligència actualment, i no són més que potentíssims programes estadístics que es nodreixen d'ingents quantitats de dades per poder realitzar els seus diagnòstics i prediccions.
Una de les limitacions fonamentals de la intel·ligència artificial d'avui dia, segons els seus principals crítics encapçalats pel professor de la Universitat de Nova York Gary Marcus, és que aquests sistemes no entenen el món que els envolta. Són capaços d'establir correlacions entre objectes o situacions diferents, però ignoren el principi de causalitat que els connecta. A més, per funcionar de manera eficient requereixen immensos volums de dades, que no sempre poden estar disponibles.
Una de les anàlisis més brillants en aquest camp dels darrers temps és la que va realitzar l'enginyer de programari Baldur Bjarnason basat en la idea que els models amplis de llenguatge que tant impressionen propis i estranys usen les mateixes tècniques que els mentalistes i il·lusionistes . L'article The LLMentalist Effect: how xat-based Large Language Models replica't els mechanisms of psychic's amb postula que no hi ha cap raó que ens porti a concloure que aquests sistemes pensen de la manera com ho fem els humans, i que la il·lusió de que realment són intel·ligents està únicament a la ment de l'usuari. De fet, el seu funcionament és un cas clar d'il·lusionisme.
Bjarnason descobreix al seu text la tècnica que utilitza un mentalista per fer creure la gent que té el poder de llegir la ment, i la divideix en sis fases:
1) El públic s'auto selecciona: els assistents a un espectacle de mentalisme solen estar més interessats que el públic en general en aquests temes i els afronten amb menys prejudicis.
2) Es crea l'escena: a través de la llum i altres factors es prepara l'espectacle i es crea expectació al públic, mentre que el mentalista i el seu equip investiga el públic en xarxes socials oa través de converses, intentant establir perfils demogràfics.
3) S'estreny el factor demogràfic: el mentalista calibra la informació demogràfica del públic i es dirigeix a una secció o fila concreta de l'auditori, fent una afirmació que sembla específica, però que està en consonància estadística amb els factors demogràfics detectats.
4) La víctima és testada: la reacció d'una persona d'aquesta secció del públic demostra que realment ha cregut que se'ls ha llegit la ment, i el mentalista fa una bateria de preguntes que, com abans, semblen molt específiques, però que en realitat són genèriques. Si la víctima no respon a cada afirmació, el mentalista ho considera un triomf i continua endavant.
5) El bucle de la validació subjectiva: el mentalista formula a la víctima preguntes aparentment molt específiques, però que són conjectures basades en les dades demogràfiques recopilades i en les respostes anteriors.
6) El mentalista té poders de debò! El procés s'acaba i la víctima es queda amb la idea que l'il·lusionista realment li ha llegit la ment, però tot ha estat fruit d'una tècnica sofisticada.
Vegem ara com utilitzen els models amplis de llenguatge de text les tècniques dels il·lusionistes, segons Baldur Bjarnason:
1) El públic s'auto selecciona: els principals usuaris de la intel·ligència artificial són persones molt convençudes, gent molt techie, amb la ment oberta i una predisposició natural envers aquests sistemes.
2) Es crea l'escena: la moda i la tendència al voltant d'aquesta tecnologia predisposa les elevades expectatives dels usuaris, que reben notícies i intercanvien comentaris al respecte en xats especialitzats.
3) El prompt estableix el context: els usuaris donen al chatbot un prompt o text que defineix i acota la pregunta realitzada, i el sistema respon. Alguns ho deixen després de la primera resposta, però d'altres -els més entusiastes d'aquesta tecnologia- segueixen preguntant i afinant la consulta de manera que sembla que s'embranquen en una conversa amb l'algorisme.
4) La víctima es posa a prova a si mateixa: els més crèduls creuran que la conversa dóna respostes del sistema molt específiques per a ells en particular que denoten intel·ligència. Arriben a pensar que el bot està llegint el text que se li presenta i que respon de forma raonada, però només és una eina que utilitza l'estadística per elaborar respostes lògiques al text del prompt que ha rebut.
5) El bucle de la validació subjectiva: igual que el mentalista no llegeix la ment sinó que estableix els patrons més probables de pensament i comportament del públic en funció de tota la informació sobre aquest que pot demanar, el LLM no llegeix ni pensa ni raona, sinó que va afinant més les respostes genèriques que ofereix a mesura que interactua amb lusuari. Tot i que sonen com a respostes raonades en un context específic, són conjectures estadísticament probables, ia mesura que l'usuari formula més consultes successives més es convenç que està conversant amb un ésser intel·ligent.
6) La intel·ligència artificial generativa pensa! L'usuari “víctima” arriba a la conclusió que el chatbot és molt a prop d'adquirir consciència de ser i que és capaç de raonar, però tot això no és res més que un efecte psicològic i estadístic. Com el mentalisme.
Escriu el teu comentari