La intel·ligència artificial és al cor de l'agenda científica de la Unió Europea. La Comissió reconeix la capacitat d'aquest conjunt de tecnologies per millorar la vida de les persones, i per generar beneficis per a la societat i l'economia, a través de qüestions com l'impuls de la cura de la salut, l'augment de l'eficiència de l'administració pública, fent el transport més segur, injectant competitivitat en la indústria o generant una agricultura més sostenible.
L'impacte econòmic de l'automatització de la feina intel·lectual, dels robots i dels vehicles autònoms, es calcula que arribarà entre els 6,5 i els 12 bilions d'euros anuals per 2025. No obstant això, Europa es queda enrere en relació a la inversió privada en intel·ligència artificial, ja que va dedicar en 2016 entre 2 400 i 3 200 milions d'euros davant els entre 6 500 i 9 700 milions d'Àsia, i els entre 12 100 i 18 600 milions d'Amèrica del Nord.
És per això, que la Comissió Europea impulsa amb grans inversions aspectes com els sistemes cognitius, la robòtica, el big data i les tecnologies emergents del futur, per tal de garantir el manteniment de la competitivitat del teixit econòmic del continent.
Mitjançant el programa Horizon 2020, ha dedicat 2 600 milions d'euros a les àrees relacionades amb la intel·ligència artificial, com la robòtica, el big data, el transport, la sanitat i les tecnologies emergents. La investigació en robòtica ha rebut fins a 700 milions de fons públics, als quals cal sumar 2 100 milions de finançament privat. Els Fons Estructurals i d'Inversió europeus també han incidit en la formació i el desenvolupament de capacitats amb 27 000 milions de despesa en aquest tema, dels quals 2 300 han estat dedicats al desenvolupament de capacitats digitals.
Les autoritats europees són conscients dels perills que comporta el desenvolupament descontrolat i no raonat de la intel·ligència artificial. En conseqüència, paral·lelament al desenvolupament científic i tecnològic, han vist la necessitat d'obrir un debat per aclarir com aconseguir que els sistemes intel·ligents portin amb si beneficis a les persones, i no perjudicis. A aquest efecte, al juny de 2018 la Comissió va crear el Grup d'experts d'alt nivell sobre IA, que a l'abril de 2019 va presentar el document Directrius ètiques per a una IA fiable. L'informe pretén oferir alguna cosa més que una simple llista de principis ètics, i proporciona orientació sobre com posar en pràctica aquests principis en els sistemes sociotècnics.
Els autors se centren en el concepte de fiabilitat de la intel·ligència artificial, que fan reposar sobre tres pilars: ha de ser lícita, és a dir, complir totes les lleis i reglaments aplicables; també ha de ser ètica, de manera que es garanteixi el respecte dels principis i valors ètics; i, finalment, ha de ser robusta, tant des del punt de vista tècnic com social. Cada un d'aquests components és en si mateix necessari, però no és suficient per a l'assoliment d'una intel·ligència artificial fiable.
Les directrius que proposa a la feina es dirigeixen només als dos últims aspectes, l'ètica i la robustesa. El Grup d'Experts identifica una sèrie de directrius ètiques que han d'acompanyar la construcció de màquines intel·ligents:
1. Desenvolupar, desplegar i utilitzar els sistemes d'IA respectant els principis ètics de: respecte de l'autonomia humana, prevenció del dany, equitat i explicabilitat. Reconèixer i abordar les tensions que poden sorgir entre aquests principis.
2. Prestar una atenció especial a les situacions que afecten els grups més vulnerables, com els nens, les persones amb discapacitat i altres que s'hagin vist històricament desfavorides o que es troben en risc d'exclusió, així com a les situacions caracteritzades per asimetries de poder o d'informació, com les que poden produir-se entre empresaris i treballadors o entre empreses i consumidors.
3. Reconèixer i tenir present que, malgrat que aporten beneficis substancials a les persones i a la societat, els sistemes d'IA també comporten determinats riscos i poden tenir efectes negatius, alguns dels quals poden resultar difícils de preveure, identificar o mesurar (per exemple, sobre la democràcia, l'estat de Dret i la justícia distributiva, o sobre la pròpia ment humana). Adoptar mesures adequades per mitigar aquests riscos quan procedeixi; aquestes mesures han de ser proporcionals a la magnitud del risc.
Escriu el teu comentari