A banda de l'assignació de rols de gènere a la robòtica, la qual cosa implica, per exemple, que els robots militars siguin per norma masculins i els socials o relacionals femenins, hi ha altres biaixos de gènere que afecten la intel·ligència artificial, més enllà del mero disseny d'androides. Un recent informe de la Fundació Alternatives els classifica en dos grups: biaixos de dades i de disseny.
El primer aspecte són les dades, el combustible de la intel·ligència artificial actual basada en machine learning o aprenentatge automàtic. Aquests algoritmes aprenen a base de consumir ingents quantitats de dades –com més volum en disposin, més precisos seran els seus diagnòstics–, però ningú no pot garantir que la informació que reben els algorismes sigui realment representativa. De fet, es tracta de dades que tenen els mateixos biaixos que hi ha a les societats. Per exemple, el primer concurs de bellesa a comptar amb un jurat no humà, Beauty.AI 2.0, va demostrar que l'algorisme havia desenvolupat un biaix racista que el va portar a puntuar més baix les dones asiàtiques o de color. Probablement, el biaix es va produir perquè el sistema va ser alimentat a força de models de bellesa més occidentals.
En l'aspecte de gènere, les dades poden no ser prou representatives del que passa a la societat i amagar la presència i el paper de les dones en aquesta, convertint-les en invisibles. Un altre exemple que il·lustra això és l'experiència d'Amazon, que va començar a utilitzar la intel·ligència artificial per dur a terme les contractacions, entrenant l'algorisme sobre l'ideal d'empleat utilitzant dades de les contractacions dutes a terme durant els deu anys precedents. El problema és que els llocs tècnics durant aquest període havien estat ocupats majoritàriament per homes, per la qual cosa el sistema va determinar que les candidates no s'ajustaven al perfil requerit per l'empresa. Les dades que aparentment són neutres amaguen poderosos biaixos.
La segona categoria correspon als biaixos de disseny, és a dir, els prejudicis que aboquen en la intel·ligència artificial els dissenyadors mateixos. Per exemple, és molt comú que els chatbots d'atenció al públic tinguin una veu femenina, portant al pla tecnològic el rol estereotipat de la dona com a assistent, com a recepcionista, o com a empleada d'atenció al client. A Espanya ens trobem nombrosos exemples d'això, com la Lola de la Universitat de Múrcia, l'Eva de Vueling, o la Rosi, que contesta preguntes sobre informació bàsica de Múrcia.
També els assistents de veu solen tenir veus femenines -Siri d'Apple, Alexa d'Amazon, Cortana de Microsoft i Google Assistant-, i els seus creadors els assignen una personalitat específica de dona. Per exemple, James Giangola, un dels desenvolupadors de Google Assistant, va reconèixer davant d'un mitjà de comunicació que havien concebut l'assistent com una dona jove de l'estat de Colorado, filla petita d'una parella d'investigadors. L'estereotip de gènere en els assistents intel·ligents té el seu paradigma en la resposta que dóna Siri davant l'expressió “Ets una guineu” , que és “Em enrojolaria si pogués” , frase que va donar títol a un conegut informe d'Unesco sobre bretxes de gènere tecnològiques .
Una de les causes d'això és l'escassa presència de dones als equips que desenvolupen sistemes basats en intel·ligència artificial. D'acord amb un informe recent de la Fundació Alternatives, a la Unió Europea la bretxa digital de gènere en activitats de programació era de 8 punts el 2014; les dones només representen el 12% dels autors d'articles a les principals conferències sobre machine learning i el 13,83% dels milers que s'escriuen en general sobre intel·ligència artificial. D'altra banda, un estudi realitzat el 2017 per Emerj va demostrar que només el 13% de les altes posicions executives en empreses tecnològiques dedicades a la intel·ligència artificial són ocupades per dones, i, si ens centrem en el subàmbit del llenguatge natural, el percentatge cau fins al 5%.
Escriu el teu comentari