La intel·ligència artificial i els seus prejudicis

Pablo Rodríguez Canfranc

Els algoritmes d'intel·ligència artificial cada vegada són més presents en les nostres vides. Molts processos relacionats amb les persones s'automatitzen, com poden ser la preselecció de candidats per ocupar un lloc de treball o la concessió de crèdits bancaris, per posar només dos exemples. Un programa informàtic rep tota la informació sobre cada individu i, en funció dels paràmetres amb els quals ha estat programat, realitza l'avaluació.


El problema és que segons per a què siguin utilitzats, aquests algoritmes poden tenir la responsabilitat de la presa de decisions importants que afecten la vida de la gent. Poden determinar que aconseguim o no una feina, que puguem estudiar o no en una escola o universitat sol·licitat, i fins i tot -com hem vist més amunt en el cas de compàs- que se'ns concedeixi la llibertat provisional. L'automatització d'aquests processos persegueix aconseguir una avaluació de cada tema molt més objectiva, eliminant els prejudicis propis dels humans, però, paradoxalment, apareixen biaixos i errors en els algoritmes, que porten a discriminar determinades persones i col·lectius.


És per això que l'experta en sistemes intel·ligents Cathy O'Neil els defineix com a armes de destrucció matemàtica en el seu llibre del mateix nom. Es tracta de programes que poden fer molt de mal a molta gent. I el pitjor és que les víctimes de les seves decisions no saben sota de criteris se'ls ha avaluat, ja que el funcionament dels algoritmes és massa complex i només és conegut pels tècnics que els dissenyen.


Els algoritmes no desenvolupen biaixos discriminatoris per si mateix, sinó que reprodueixen els prejudicis dels seus educadors. Com en el cas d'un nen, el seu aprenentatge depèn en gran mesura del mestre que tingui i del llibre de text que utilitzi.


En aquesta metàfora, concebuda per l'investigador del MIT Rahul Bhargava, el llibre de text per a la intel·ligència artificial serien les dades amb què se li entrenen perquè aprengui a prendre decisions. Es tracta de grans quantitats de dades que constitueixen exemples de situacions que s'han resolt a la nostra conformitat o que responen correctament a la pregunta que volem que l'algoritme aprengui a contestar.


Per exemple, si estem entrenant un sistema perquè estableixi la probabilitat que presenten els sol·licitants d'un crèdit de tornar el deute contret a temps, nodrirem a la intel·ligència artificial amb informació sobre casos de crèdits cancel·lats correctament, perquè pugui extreure d 'ells un patró que descrigui el prestatari més procliu a complir les seves obligacions i, d'aquesta manera, poder classificar als sol·licitants en funció del seu risc d'insolvència.


El segon element que intervé en l'aprenentatge de la màquina és el mestre, és a dir, la persona que fa les preguntes i que determina quin conjunt de dades ha de considerar l'algoritme per elaborar una resposta. En l'exemple anterior, es pot indicar al sistema que tingui en compte dades del sol·licitant com la quantitat sol·licitada, el temps establert per a la seva devolució o el seu nivell d'ingressos, però també es poden incloure d'altres, com la seva situació familiar, gènere o raça.


D'aquesta manera, els biaixos discriminatoris que presenten els algoritmes són reflexos dels nostres propis prejudicis, atès que depenen de les dades amb què alimentem al sistema i de les preguntes que li fem.


Imaginem, seguint amb el mateix exemple, que alimentem l'algoritme creat per avaluar la solvència dels sol·licitants de crèdit amb historials crediticis majorment de persones de raça blanca. Seguidament, li indiquem entre els paràmetres que ha d'utilitzar per a la presa de decisions l'ètnia del sol·licitant.


El patró que genera el sistema sobre com és una persona solvent podria considerar que els prestataris negres no ho són, atès que no troba entre la informació que ha rebut suficients exemples de ciutadans de pell fosca que cancel·len els seus deutes i, el que és pitjor, el seu mestre li ha indicat que la raça és un factor important de cara a establir un judici. En conseqüència, dictamina un elevat risc de prestar fons a sol·licitants que no són blancs.


Afortunadament, algunes de les institucions més punteres en el camp de la intel·ligència artificial estan cobrant consciència dels errors que impliquen els algoritmes que desenvolupen, i, en conseqüència, miren de posar mitjans per poder corregir-los. IBM va anunciar l'any passat el llançament d'una eina que analitza en temps real com i per què els algoritmes prenen decisions. S'anomena Fairness 360 i és capaç de rastrejar signes que el sistema produeix biaixos i fins i tot recomanar ajustos per corregir-los. També Google presentava What-IfTool, una aplicació que explora el funcionament al llarg del temps dels sistemes d'intel·ligència artificial.


Sense comentarios

Escriu el teu comentari




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.




Más autores

Opinadores