IA: és artificial, però és intel·ligència?

Genis Carrasco

Intel·ligència artificial
Intel·ligència artificial / Arxiu

Llegeixo una notícia signada, fa uns dies, per la periodista Mar Aguilar a la versió digital de la revista “Muy Interesante”: “Un dron militar controlat per IA “mata” (elimina) el seu operador en un simulacre”. L'article fa referència a la conferència del Coronel Tucker Hamilton, Cap de Proves i Operacions d'IA de la USAF (Força Aèria dels Estats Units), sobre un experiment militar usant intel·ligència artificial per controlar un dron que havia d'identificar i destruir virtualment una bateria amenaçadora SAM (míssil terra-aire) enemiga.

 

El dron que va eliminar el seu operador humà durant un simulacre

 

Durant les primeres simulacions, la IA es va adonar que, encara que de vegades identificava correctament l'amenaça, l'operador humà li deia que no la matés, de manera que perdia els punts que hagués obtingut eliminant els míssils enemics. Aleshores, la IA va decidir eliminar l'operador que li impedia assolir el seu objectiu. En una segona tanda de simulacions van modificar el programa d'IA amb instruccions que matar l'operador era una decisió dolenta i que perdria els punts si ho feia. Aleshores la IA va optar per destruir la torre de comunicacions que l'operador utilitzava per comunicar-se amb el dron i impedir que eliminés l'objectiu" (https://www.aerosociety.com/news/highlights-from-the-raes-future-combat -air-space-capabilities-summit/).

 

Aquesta notícia ens ha de fer reflexionar sobre si les aportacions actuals de l'anomenada IA són realment producte de la intel·ligència tal com l'entenem els éssers humans. Rotundament no ho són.

 

En contra dels actuals ChatGPT i altres sistemes comercials daprenentatge automàtic

 

Estic a favor dels avenços que la IA seriosa pot aportar per als éssers humans. La intel·ligència és el mitjà amb què la Humanitat resoldrà els seus problemes. El 2030 s'estima que la contribució de la intel·ligència artificial (IA) a l'economia mundial serà de 15,7 bilions de dòlars en sectors com la indústria farmacèutica, la sanitat, la fabricació, la logística i l'agricultura de precisió.

 

Estic en contra i em preocupa la IA comercial, més popular i de moda, que ha facilitat l'accés massiu a programes com ara ChatGPT d'OpenAI, Bard de Google i Sydney de Microsoft. Són erròniament elogiats com a meravelles de l'aprenentatge automàtic, però no ho són gens. Funcionen mitjançant algorismes que actuen a partir de regles de programació i el seu subconjunt Machine Learning (ML) i les diferents tècniques ML com Deep Learning (DL). Però no pensen, només memoritzen i comparen. A grans trets, prenen enormes quantitats de dades, busquen patrons i esdevenen cada cop més competents a l'hora de generar resultats estadísticament probables, amb un llenguatge i un pensament d'aparença humana. Però només en aparença. Perquè ni és un pensament ni és humà. En això subscric totalment l'article de Noam Chomsky al diari The New York Times

(https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html).

 

La ment humana no és una pesada màquina estadística de comparació de patrons, que acumula centenars de terabytes de dades i extrapola la resposta més probable en una conversa o la resposta més probable a una pregunta científica. La ment humana és un sistema sorprenentment eficient i fins i tot elegant que funciona amb petites quantitats dinformació. No cerca inferir correlacions entre dades, sinó crear explicacions.

 

Per poder pensar cal poder equivocar-se

 

El gran error de ChatGPT i els programes semblants per a aprenentatge automàtic és que no plantegen cap mecanisme causal ni lleis físiques. I això és part del que vol dir pensar: per tenir raó, ha de ser possible equivocar-se. La intel·ligència no sols consisteix a realitzar conjectures creatives, sinó també crítiques creatives. El pensament a l'estil humà es basa en explicacions possibles i correcció d'errors, un procés que limita de mica en mica les possibilitats que es poden considerar racionalment. Però, per disseny, ChatGPT i programes similars són il·limitats en allò que poden “aprendre” (és a dir, memoritzar); són incapaços de distingir el que és possible de l'impossible. A diferència dels humans, per exemple, que estem dotats d'una gramàtica universal que limita els idiomes que podem aprendre amb cert tipus d'elegància gairebé matemàtica, aquests programes aprenen idiomes humanament possibles i humanament impossibles amb la mateixa facilitat.

 

Mentre que els humans estem limitats al tipus d'explicacions que podem conjecturar racionalment, els sistemes d'aprenentatge automàtic poden aprendre tant que la Terra és plana com rodona. Es limiten a negociar amb probabilitats que canviïn amb el temps. La veritable intel·ligència es demostra en la capacitat de pensar i expressar coses improbables però lúcides.

 

La veritable intel·ligència també és capaç de pensar moralment. Això significa cenyir la creativitat de les nostres ments, que altrament seria il·limitada, a un conjunt de principis ètics que determinin el que ha de ser i no ha de ser (i, per descomptat, sotmetre aquests mateixos principis a la crítica creativa). Em preocupa que aquest enfocament popular de la IA degrade la nostra ciència i destrueixi la nostra ètica en incorporar a la nostra tecnologia una concepció fonamentalment errònia del llenguatge i el coneixement.

 

Crec que lenfocament de moda de la IA és artificial però no és intel·ligència segons els estàndards del coneixement humà.

 

Cal redissenyar ChatGPT i altres sistemes d'aprenentatge automàtic

 

Per ser útils, els futurs desenvolupaments de programes com ChatGPT han de ser capaços de generar resultats nous i evitar al·legar ignorància o defensar-se amb un “només complia ordres”, traslladant la responsabilitat als creadors. Els seus promotors hauran d'evitar l'amoralitat, la falsa ciència i la incompetència lingüística que aquests sistemes comercials encara tenen.

Aquest, estimat lector, sí que sembla el camí.

 

Sense comentarios

Escriu el teu comentari




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.




Más autores

Opinadores