S'apropa l'hivern de la intel·ligència artificial generativa?
Les empreses busquen un model de negoci i superar colls de botella
Des de finals de 2022, la intel·ligència artificial generativa ha esdevingut la principal tendència tecnològica, en part gràcies als seus productes més populars, com ChatGPT de l'empresa Open.IA o Gemini de Google. Bàsicament, es tracta de serveis i aplicacions capaços de generar continguts a petició de l'usuari, entenent com a tals un text, una imatge, un vídeo i fins i tot línies de codi de programació. L'algorisme que mou els fils d'aquests enginys es nodreix de la informació que hi ha a internet per confeccionar una peça que respongui a les necessitats de l'usuari.
Potser l'èxit massiu d'aquests models -es coneixen com a Large Language Models (LLM)- hagi estat que utilitzen majoritàriament el llenguatge natural per comunicar-se amb l'usuari, de manera que no cal tenir coneixements de programació per manejar-los. Salvant les distàncies, aquest fenomen recorda l'arribada al gran públic de l'entorn gràfic de Windows, que va fer possible que entrés a cada llar un ordinador personal fàcil d'utilitzar sense molestar haver-se d'aprendre quantitats de comandes feixugues, com exigien els programes de MS -DOS.
Ara bé, sembla que, malgrat les seves bondats, el futur d'aquesta tecnologia presenta núvols a l'horitzó, molts i molt negres, i les veus més pessimistes ja parlen que s'aproxima un nou hivern de la intel·ligència artificial. Aquesta metàfora estacional fa al·lusió que la intel·ligència artificial generativa pot estar arribant a una situació problemàtica quan no compleix amb les expectatives i es posa en qüestió la seva viabilitat i rendibilitat, de manera que la investigació i el desenvolupament en aquest camp es frena en sec, com ha passat diverses vegades en el passat. A tall de resum, els LLM s'enfronten actualment a obstacles de diferent índole: les seves pròpies limitacions, un model de negoci més que discutible, els dubtes sobre la seva veritable utilitat i el seu impacte energètic i ambiental.
Tot i que la intel·ligència artificial generativa se'ns presenta sovint com l'avantsala de la intel·ligència artificial general, és a dir, aquella que realment emula les funcions del cervell humà, hi ha opinions molt crítiques sobre la seva eficàcia. Per exemple, Gary Marcus, un conegut expert en aquest camp, posa en dubte la seva fiabilitat ja que afirma que, per a una mateixa pregunta, de vegades dóna informació correcta, altres vegades no. A més, presenta el que a l'argot del sector es coneix com a al·lucinacions, s'inventa informació i no hi ha cap senyal que avisi que s'està inventant alguna cosa. Altres experts de la línia més crítica opinen que ChatGPT no és més que una joguina per fer treballs de classe i, com a molt, treballs de final de carrera.
Un altre dels reptes a què s'enfronten les companyies desenvolupadores d'aquests productes és el de com sortir dels números vermells. D'una banda, l'entrenament dels models és summament costós, entre sistemes, programari i personal implicat, i, de l'altra, la manera de generar ingressos no és del tot clara. Un informe recent planteja que Open.AI, l'empresa que ha desenvolupat ChatGPT, podria tenir unes pèrdues operatives de cinc mil milions de dòlars.
El problema de la rendibilitat està directament relacionat amb la seva utilització per professionals i empreses, ja que sembla que no satisfà les expectatives creades i molts usuaris no tornen a aquests productes després de provar-los. Tornant a ChatGPT, paradigma d'aquesta tecnologia, encara que és un èxit que en només divuit mesos gairebé un terç de la població dels països desenvolupats ho hagi provat, la veritat és que la majoria no ho va trobar d'utilitat -encara- d'acord amb uns dades de Reuters Institute.
D'altra banda, la intel·ligència artificial generativa s'ha venut a l'empresa com una font de productivitat, però la veritat és que aquest augment triga a arribar, i de fet, una enquesta realitzada a companyies dels Estats Units, el Regne Unit, Austràlia i Canadà posa en evidència que gairebé la meitat dels empleats que utilitzen aquesta tecnologia no saben com aconseguir els guanys de productivitat promesos, i el 77% afirma que la productivitat ha baixat i que la intel·ligència artificial els afegeix càrrega de treball i no al contrari. En aquest sentit, podem trobar-nos davant d'un nou cas de paradoxa de Solow, i potser és qüestió de temps que vegem la productivitat florir.
L'últim coll d'ampolla a què s'enfronta el creixement dels LLM és el del consum energètic desmesurat, tant el que es dedica al seu entrenament, com l'associat a la resposta a consultes dels usuaris. Per fer-se una idea, l'entrenament de ChatGPT-3 va consumir a grans trets una quantitat d'electricitat equivalent a una família mitjana nord-americana durant 120 anys.
Les expectatives sobre la intel·ligència artificial generativa, després del gran moment de pujada que han conegut semblen estar desinflant-se. Ja veurem al llarg dels propers mesos si aquesta tecnologia és capaç de superar els seus problemes o si s'enfonsa a l'avenc de la desil·lusió, utilitzant terminologia de Gartner.
Escriu el teu comentari