Són nombrosos els experts del sector tecnològic i d'activitats associades a ell que expressen les seves pors i preocupacions sobre els perills que presenta la intel·ligència artificial. Un dels noms més destacats en aquest camp és el d'Elon Musk, el fundador d'empreses d'alta tecnologia com Tesla o Space X, però també el propi Stephen Hawking, en els seus últims anys de vida, també es va manifestar en aquesta direcció.
Sobre aquest particular, Pew Research Center a l'estiu de 2018 va reunir en un estudi l'opinió sobre el tema de grup de gairebé 1.000 pioners tecnològics, innovadors, desenvolupadors, líders polítics i empresarials, investigadors i activistes. Les principals preocupacions que van sorgir sobre el possible impacte negatiu de les màquines intel·ligents van ser les següents:
La pèrdua de control sobre les nostres vides. Acabem cedint a les eines hermètiques basades en el codi aspectes clau de les nostres vides. No coneixem el funcionament d'aquestes complexes eines, ni per què prenen les decisions que prenen, i sacrifiquem la nostra independència, privacitat i en última instància la nostra capacitat d'escollir.
Mal ús descontrolat de les dades per les empreses i els governs. La intel·ligència artificial posa en les mans de les companyies privades i dels poders públics potents sistemes de control i manipulació de la gent, a través de la gestió de les seves dades. És un aspecte molt difícil de regular, donada la globalitat de les xarxes i la dispersió de la informació que circula a través d'elles.
Efectes sobre el mercat de treball. La disrupció que provoca la incorporació de sistemes intel·ligents als entorns laborals comporta la substitució de treballadors per màquines, inflant les xifres d'atur.
Pèrdua d'habilitats i dependència. Encara que hi ha qui pensen que la intel·ligència artificial augmentarà la capacitat de l'ésser humà, hi ha altres teories contràries que defensen que l'ús intensiu de la tecnologia erosionarà les nostres habilitats com a persones i ens farà dependents de les màquines, destruint la nostra iniciativa.
Caos mundial. Per als més catastrofistes el canvi tecnològic farà malbé les estructures sociopolítiques tradicionals, provocant que el planeta vagi derivant al caos. L'ús militar descontrolat d'armes intel·ligents, la propaganda i les notícies falses o un cibercrim cada vegada més sofisticat, són elements que tendeixen a desestabilitzar el fràgil ordre mundial.
En un altre ordre de coses, hi ha riscos molt més concrets i immediats, subratllats pel MIT en un text publicat a principis d'aquest any, que analitza alguns successos que han tingut lloc recentment. L'article fa referència a:
Els accidents dels vehicles autònoms. El cotxe d'Uber que va atropellar un vianant al març de 2018 a Arizona, o el Tesla que es va estavellar el 2016 matant el seu ocupant, posen de manifest que, o bé la tecnologia d'aquests automòbils no està prou desenvolupada per a garantir la seva autonomia completa i que la intervenció d'un conductor humà és encara necessària. En qualsevol cas, els cotxes completament autònoms són actualment un factor de risc.
Els bots que manipulen l'opinió pública i la intenció de vot. El cas Cambridge Analytica, que va saltar als mitjans al març de l'any passat, va demostrar com es pot manipular la intenció de vot de l'electorat fent ús de la informació de la gent (en aquest cas dels usuaris de Facebook), és a dir, explotant adequadament el big data.
La creació d'armes intel·ligents. Els treballadors de Google es van rebel·lar en conèixer la intenció de l'empresa d'aportar tecnologia a les forces aèries dels Estats Units, i van aconseguir impedir l'acord per participar en el projecte Maven. No obstant, el perill que els governs -o, pitjor encara, terroristes- desenvolupin armes autònomes segueix allà, i, de fet, altres grans tecnològiques com Microsoft i Amazon semblen no tenir limitacions morals per col·laborar en programes en aquest terreny.
La identificació facial com a eina de control. Una altra de les aplicacions de la intel·ligència artificial que està en voga en l'actualitat és el reconeixement facial. Es tracta d'una tecnologia que pot envair en dret a la privacitat de les persones i que pot acumular biaixos que duguin a discriminar determinats col·lectius.
Falsificació de vídeos o deepfake. És un camp en el qual els algoritmes han demostrat la seva peculiar destresa: construir vídeos falsos de personalitats per desacreditar (molts d'ells de contingut pornogràfic) o campanyes agressives de desprestigi per manipular a l'opinió pública.
La discriminació que desenvolupen els propis algoritmes. Els biaixos dels programes basats en la intel·ligència artificial, que bé apareixen en el procés d'aprenentatge automàtic o que porten deliberadament en el seu propi disseny, poden conduir a la discriminació de determinats col·lectius, per exemple, per motius racials o de gènere.
Escriu el teu comentari