El club de la lluita dels algoritmes

Pablo Rodríguez Canfranc

Robot intel·ligència artificial


Cada vegada són més les veus que s'alcen avisant del perill que suposa per a l'ésser humà el desenvolupament de sistemes d'intel·ligència artificial cada vegada més perfectes. Si a això li sumem la possibilitat de crear algoritmes deliberadament dissenyats per atacar i confondre sistemes intel·ligents, la capacitat per fer mal creix de forma exponencial. Encara que soni pintoresc, una solució passa per ensenyar als algoritmes a defensar-se i lluitar contra atacants malintencionats. I per això s'ha creat una mena de club de la lluita per a sistemes d'intel·ligència artificial.


Les màquines intel·ligents que aprenen es poden dissenyar per ajudar les persones, per fer-nos la vida més fàcil, però també poden ser utilitzades per cometre cibercrims. Fins i tot els algoritmes més sofisticats poden ser enganyats. Per exemple, un filtre antispam pot ser evitat si es descobreixen els patrons que utilitza per classificar el correu electrònic com no desitjat. També algoritmes basats en xarxes neuronals profundes destinats a identificar objectes a reconèixer-los en imatges poden ser fàcilment confosos .


Els experts adverteixen que tant els hackers i la ciberseguretat es dirigeixen cap a la senda de la intel·ligència artificial. L'investigador de Google Brain Ian Goodfellow ho té clar: "els dolents utilitzaran les màquines que aprenen (machine learning) per automatitzar els seus atacs i nosaltres utilitzarem el machine learning per defensar-nos".


Les possibilitats de delinquir enganyant als sistemes intel·ligents són infinites, des de suplantar la personalitat troleando als sistemes de reconeixement facial o de veu, fins a desorientar i confondre els sensors dels cotxes autònoms per causar un accident.


Davant d'aquest panorama alarmant, hi ha una línia de la ciberseguretat que s'encarrega d'entrenar als algoritmes per defensar-se dels ciberatacs dels sistemes adversos que intenten enganyar-los. En suma, els ensenyen a barallar.


La plataforma per a les competicions científiques Kaggle ha organitzat una curiosa competició que durarà diversos mesos en què els algoritmes "combaten" entre si, com si estiguessin pujats en un ring de boxa ( Competition on adversarial Attacks and Defenses ). L'objecte de cada un dels sistemes intel·ligents participants és intentar enganyar els altres i/o defensar-se de atacs. D'aquesta forma els investigadors que hi ha darrere del projecte poden analitzar el seu grau de resistència davant possibles ciberatacs i poder enfortir-se en conseqüència.


D'una banda, es tracta de descobrir com enganyar a una xarxa neuronal i per altra com construir xarxes neuronals que no es deixin enganyar.


La competició té tres categories, per dir-ho:


- Atac advers sense objectiu (Non-targeted adversarial Attack). La meta d'aquest atac consisteix a modificar lleument una imatge per aconseguir que un sistema intel·ligent la classifiqui incorrectament.


- Atac advers amb objectiu (Targeted adversarial Attack). En aquest cas la modificació d'una imatge persegueix que la intel·ligència artificial la classifiqui incorrectament com una cosa concreta prèviament definit.


- Defensa davant atac advers (Defense Against adversarial Attack). Construir un classificador intel·ligent que sigui immune als atacs adverses.


Kaggle, que és part de Google Cloud, suposa un valuós camp d'experimentació en intel·ligència artificial. A més, els seus responsables consideren que la difusió d'aquest "club de la lluita d'algoritmes" pot atreure l'atenció pública sobre els riscos associats a les màquines intel·ligents en un moment en què la seva presència es va fent cada vegada més visible en molts àmbits de la societat.

Sense comentarios

Escriu el teu comentari




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.




Más autores

Opinadores