Tot i que sembla un argument de pel·lícula de ciència ficció, ja des de fa temps hi ha experts avisant que la intel·ligència artificial es pot tornar contra l'ésser humà. Fa uns anys algunes figures rellevants de la ciència i la tecnologia -com Bill Gates, Elon Musk o el mateix Stephen Hawking- van alçar la veu alertant sobre els perills per a l'espècie que comportava el grau de desenvolupament actual d'aquesta tecnologia.
L'últim episodi d'aquesta història ha arribat de la mà dels productes basats en la intel·ligència artificial generativa, especialment aquells de l'empresa nord-americana Open.AI, com el programari generador d'imatges Dall-e o el chatbox ChatGPT, la quarta versió del qual va entrar a funcionament el 2023 aconseguint un gran impacte social per la seva capacitat desplegada de generar coneixement. Com que és un sistema obert, tothom ha pogut interactuar amb ChatGPT4 i comprovar la seva habilitat per generar textos sobre qualsevol tema sobre el qual se li pregunti. Per això l'enrenou mediàtic.
Durant la primera meitat del 2023, el sistema d'Open.AI ha ocupat portades i titulars, i ha generat una onada de temor a la intel·ligència artificial generativa que ha recorregut el món. La intel·ligència artificial generativa (IAG) és una branca de la intel·ligència artificial que crea nous resultats -un text, una imatge, un arxiu de so- en base a les dades rebudes, a diferència dels sistemes tradicionals centrats en el reconeixement de patrons i a l'elaboració de prediccions. La primera alarma relacionada amb aquesta tecnologia ha sonat al terreny de l'ocupació: a quantes professions pot desplaçar aquest sistema? quines competències actualment exercides per humans quedaran obsoletes? El segon motiu de preocupació està relacionat amb el mestratge amb què els sistemes d'IAG poden crear continguts falsos que semblen completament reals. Suposen, per tant, eines eficaces per crear desinformació, fake news i deep fakes .
Aquesta vegada han estat els mateixos responsables del desenvolupament d'aquest tipus d'algorismes els que han anunciat que comportaran l'apocalipsi. En una carta publicada el 30 de maig, 350 enginyers i executius d'empreses tecnològiques –entre els quals hi havia Sam Altman (president executiu d'OpenAI), Demis Hassabis (Google DeepMind) i Dario Amodei (Anthropic), les companyies més capdavanteres en aquest camp- han comparat l'amenaça que suposa per a la humanitat la intel·ligència artificial amb una guerra nuclear o una pandèmia. Per a alguns tecnòlegs -encapçalats per Ray Kurzweil- en algun moment no gaire llunyà, la intel·ligència artificial superarà la humana, i les mateixes màquines seran capaces de crear màquines molt més intel·ligents que les actuals. És el que s'anomena la singularitat tecnològica .
La pregunta clau és realment tan avançat el grau de desenvolupament de la intel·ligència artificial? Podem parlar d'intel·ligència real o només estem davant d'eines estadístiques molt poderoses i sofisticades?
Tot i la seva indubtable capacitat per crear continguts, no sembla que els models actuals d'intel·ligència artificial generativa hagin de desplaçar per ara la intel·ligència humana. És cert que determinades habilitats que presenten poden suposar una amenaça per a algunes professions, però per automatitzables que resultin algunes tasques sempre han de portar supervisió humana. Els algorismes podran redactar textos legals o periodístics molt més ràpid que els advocats i els redactors, i no obstant, no tenen la capacitat per avaluar la validesa del seu producte, que hauria de ser revisat per un expert en el tema.
La suposada creativitat dels models amplis de llenguatge també és una mica més que qüestionable, atès que el que solen fer és fondre en els resultats a les consultes rebudes continguts de diferents fonts. En aquest sentit, Charlie Brooker, el creador de la popular sèrie de Netflix Black Mirror , va fer el curiós experiment de demanar-li a ChatGPT que escrivís el guió d'un nou capítol. El resultat no va poder ser més decebedor: l'algorisme havia agafat les sinopsis de diferents capítols i les havia barrejat per escriure'n la trama.
El perill veritable d'aquest tipus d'intel·ligència artificial és la seva utilització per crear bulls i mentides per inundar els espais públics de desinformació que pugui manipular l'opinió pública. El mal ús de la intel·ligència artificial generativa pels humans és la major amenaça que presenta en aquest moment per a nosaltres. Aquest és l'aspecte que necessita més legislació i control institucional. Fins i tot s'ha suggerit que seria convenient que qualsevol contingut generat per intel·ligència artificial porti una marca d'aigua que indiqui l'interlocutor que s'està tractant amb un chatbot.
La desinformació i l'engany que proliferen pels mitjans de comunicació i, especialment, a través de les xarxes socials suposa una amenaça seriosa per a la democràcia. Michael Sandel, professor de la Universitat de Harvard, entrevistat per la revista Telos, adverteix del risc que suposa que les generacions que vénen perdin interès per la línia que separa allò que és fals del que és real. En les seves paraules: “aquest és el veritable perill, no només que cada cop sigui més difícil distingir allò que és real del que és fals, sinó que aquesta distinció deixi d'importar-nos” . Controlar la utilització que es fa dels algorismes generatius és crucial en aquest sentit.
Escriu el teu comentari