"Si no ho veig, no ho crec", diem amb freqüència, atorgant a la imatge un estatut de veracitat del que mostra, que avui dia podria estar en perill. No és un problema que afecti només a la interpretació dels fets que pugui tenir lloc en un judici, per posar un exemple pràctic de situacions en què modificar les proves és un tema gravíssim; en el periodisme, l'evidència visual és una pedra angular en la creació de l'opinió pública, i, a més, és un element fonamental per a determinar com es conforma el poder polític. D'alguna manera, les manipulacions d'arxius audiovisuals -tant de vídeo, com d'àudio- suposen un perill per a la convivència democràtica i per la dignitat de les persones afectades, que veuen com els registres de la seva imatge són alterats per tal de desacreditar, o de convertir-les en portadores d'un missatge o opinió amb el qual no combreguen i al què no donen suport.
Es tracta d'alguna cosa que ha estat batejat com deepfake, un fenomen que avui dia afecta especialment el vídeo, donada la capacitat que ha desenvolupat la intel·ligència artificial per trucar, amb un grau d'èxit més que notable, qualsevol peça audiovisual, posant en boca de polítics afirmacions que no han realitzat, o -i això és el més comú- alterant escenes de pel·lícules pornogràfiques situant els rostres de personatges coneguts en el cos dels actors embrancats en actes sexuals.
D'acord amb BBC News, l'any passat es va duplicar el nombre de vídeos falsos que proliferen per les xarxes. L'empresa tecnològica Deeptrace va arribar a detectar més 14.600, enfront dels menys de 8 000 trobats al desembre de 2018. D'ells, el 96% eren de caràcter pornogràfic, generalment amb la cara d'una celebritat generada per ordinador sobre el cos d'un actor o d'una actriu de la trama porno. Per cert, que el deepfake, a part d'una eina per condicionar l'opinió pública, suposa un lucratiu negoci per a alguns.
La paraula deepfake procedeix de la contracció de deep learning (aprenentatge profund) i mentida (falsificació). És a dir, que implica l'ús d'intel·ligència artificial per generar vídeos sintètics, generalment per tal de desacreditar algú i / o condicionar l'opinió pública. Fa algun temps va aparèixer a la xarxa Instagram un vídeo de Mark Zuckerberg, el popular conseller delegat de Facebook, en el qual aquest confessava la seva intenció de fer-se amb el control de la planeta, gràcies a disposar de les dades de les persones. Fins i tot feia l'ullet al cinema de James Bond a l'esmentar a l'organització Spectra, la arxienemiga de l'agent 007. Això és un exemple del que es pot fer en el camp del deepfake.
L'organització Witness introdueix el deepfake dins el marc conceptual del desordre informatiu. Resulta especialment preocupant l'impacte en les persones de la informació visual, bastant més forta que la textual, atès que els nostres cervells tendeixen a confiar més en la imatge. L'anàlisi d'aquesta oenagé distingeix tres aspectes diferents: misinformation (misinformació), quan la mala informació no ha estat producte de mala intenció, sinó d'un error o equívoc; malinformation (malinformación), el difondre informació vertadera, però de caràcter privat, amb la intenció de fer mal (per exemple, airejar un vídeo íntim d'algú mantenint relacions sexuals); i, entre totes dues, la disinformation (desinformació), que implica crear i difondre informació falsa amb males intencions. Les deepfake entrarien dins d'aquesta categoria.
La preocupació davant el dany que pot produir aquest delicte emergent, tant a la reputació de persones concretes com per la possibilitat de manipulació de l'opinió pública, ha portat al fet que s'estiguin prenent mesures per frenar-lo en la mesura del possible. El Govern dels Estats Units ha posat en marxa el projecte Media Forensics (MediFor) des DARPA (Defense Advanced Research Projects Agency) per a la investigació i desenvolupament de tecnologies capaços de certificar l'autenticitat d'una imatge o vídeo, i de detectar automàticament les manipulacions .
Igualment, Google ha posat a disposició del públic una base de dades amb més de 3 000 vídeos deepfake en què ha estat utilitzada intel·ligència artificial per alterar els rostres de les persones que hi apareixen. L'objecte és donar suport als investigadors en aquest camp en el desenvolupament d'eines contra aquest delicte, mitjançant els coneixements que puguin adquirir d'aquest gran banc de dades. Per la seva banda, Facebook ha creat el projecte Deepfake Detection Challenge (DFDC), en col·laboració amb socis com el MIT, Microsoft i diverses universitats nord-americanes. La iniciativa persegueix el desenvolupament de tecnologia que tothom pugui utilitzar per poder saber quan un vídeo ha estat manipulat.
Escriu el teu comentari