Les màquines intel·ligents no raonen

Un nou estudi postula que els actuals models amplis de llenguatge només es limiten a identificar patrons de dades

|
Catalunyapresscanfranc22ot24
La intel·ligència artificial és un concepte de moda aquests dies. Foto: OpenAI

 

La intel·ligència artificial és un concepte de moda aquests dies, i bona culpa d'això la té la popularitat que han aconseguit des de fa un parell d'anys els anomenats models amplis de llenguatge (de l'anglès large language models LLM ), els exponents més coneguts dels quals són Gemini de Google, LLAMA de Meta o ChatGPT d'OpenAI, sens dubte el més utilitzat pel públic. Es tracta d'una aplicació de la intel·ligència artificial anomenada generativa perquè aconsegueix que aquests programes informàtics generin algun tipus de contingut a partir d'enormes quantitats de dades que s'utilitzen per entrenar-se. Probablement, el seu èxit és perquè, per primera vegada, les persones sense coneixements tècnics poden utilitzar aquest tipus de serveis intel·ligents, ja sigui per obtenir informació en un format de document correctament redactat, ja per crear imatges o vídeos, per posar uns quants exemples. I tot això utilitzant el llenguatge natural, ja que són sistemes que entenen el nostre llenguatge i són capaços de respondre-hi.

Per a molts -entre els quals hi ha Sam Altman, el director executiu d'OpenAI- aquests models cridaners de la intel·ligència artificial generativa són l'avantsala de la intel·ligència artificial general, és a dir, aquella que igualaria o superaria les funcions mitjanes d'un cervell humà. Segons aquest corrent d'opinió estaríem a un pas de la singularitat o el punt en la línia temporal del desenvolupament tecnològic en què les màquines superen els humans. Però no tots els experts estan d'acord amb aquesta visió, i cada cop hi ha més veus que defensen que la intel·ligència artificial actual no és res més que una eina estadística amb un potencial descomunal per processar ingents quantitats de dades.

Un recent estudi dut a terme per tres experts d'Apple ( GSM-Symbolic: sembla confirmar les limitacions en la capacitat per raonar dels LLM ). En concret, el treball ha sotmès a prova a una sèrie de sistemes basats en aquesta tecnologia per resoldre problemes de matemàtiques que requereixen un raonament pas a pas, utilitzant el qüestionari Grade School Math 8K . La conclusió de la investigació empírica avala la tesi que els models amplis de llenguatge no són capaços de dur a terme un raonament matemàtic formal, encara que aparenten comprendre els símbols i semblen poder treballar-hi fins a cert punt.

Això no obstant, el que realment duu a terme un d'aquests algorismes és un procés probabilístic d'identificació de patrons i de cerca de dades entre els que ha rebut en el seu entrenament, però sense entendre'n els conceptes. Els assaigs demostren que aquests models poden donar diferents respostes quan se'ls presenta la mateixa pregunta de maneres diferents. En concret, quan a una mateixa pregunta s'hi afegeixen clàusules addicionals que no afecten el procés de raonament requerit per solucionar-la -són irrellevants-, l'eficàcia en l'exercici dels models cau en picat i, per tant, també ho fa la fiabilitat.

L'estudi conclou que no es veuen traces de raonament als LLM: “no hem trobat cap evidència de raonament formal en els models de llenguatge…El seu comportament pot ser millor explicat per una sofisticada identificació de patrons tan fràgil, de fet, que canviar noms pot alterar els resultats un ~10%” . Sembla que caldrà esperar per veure una intel·ligència artificial que realment comprengui el món que l'envolta, com fa el cervell humà, i que no es limiti a manejar amb eficiència ingents quantitats de dades.

Sense comentarios

Escriu el teu comentari




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
ARA A LA PORTADA
ECONOMÍA