La dada ha esdevingut el combustible de l'economia digital. La cura de la salut no n'és una excepció, i la recol·lecció, l'anàlisi i l'ús de dades sanitàries -des de les anàlisis clíniques, fins als historials mèdics- és la base de la pràctica de la medicina i de la investigació en aquest camp. La progressiva digitalització del sector ha fet que durant les darreres dues dècades hagi augmentat exponencialment el tipus de dades utilitzades pels serveis de salut, incloent ara informació personal sobre els individus procedent de diverses fonts de vegades no directament relacionades amb la salut, com, per exemple, dades sobre lentorn del pacient, sobre el seu estil de vida, socioeconòmics o comportamentals.
Sens dubte, el potencial de les macrodades i la intel·ligència artificial aplicades a la cura sanitària és immens, tant en termes de la velocitat i precisió a l'hora de realitzar diagnòstics, com en la millora de la qualitat del servei prestat o el suport a la presa de decisions. Això no obstant, aquest ús d'informació personal pot comportar problemes ètics, que cal poder identificar i controlar mitjançant una legislació adequada, que protegeixi els drets de la ciutadania.
Un dels principals riscos que comporta la utilització de grans col·leccions de dades és la possibilitat de vulnerar el dret a la privadesa dels individus. Compartir dades o transferir dades personals cedides pels pacients -o generades dins d'un procés sanitari-, pot fer que la informació recollida sigui utilitzada per discriminar o per cometre injustícies, i fins i tot, si cauen en males mans, es poden utilitzar per cometre actes delictius. En aquest sentit, és fonamental establir protocols i normes estrictes sobre qui pot accedir a les dades personals i sota quines circumstàncies al llarg de tot el cicle de vida de la intel·ligència artificial.
L'Organització Mundial de la Salut (OMS) alerta del perill addicional que les institucions encarregades de prestar els serveis de salut recullin més dades de caràcter personal que les que requereix l'algorisme per funcionar, i que aquest “superàvit de dades” sigui compartit amb tercers, per exemple, agències governamentals, per dur a terme accions que puguin vulnerar els drets humans, com ara la vigilància i el control de la població, o l'aplicació de càstigs individuals. L'OMS posa d'exemple d'això l'aplicació per rastrejar contactes de COVID-19 que va posar en marxa el Govern de Singapur, les dades del qual podien ser accedides en el marc d'una investigació criminal.
Un altre dels grans problemes que presenta l'ús de big data a la intel·ligència artificial és la possible aparició de biaixos no desitjats en els resultats que ofereixen els algorismes, cosa que es pot originar per la mala qualitat de la informació utilitzada. Un estudi dut a terme per Marzyeh Ghassemi al MIT ha descobert que les dades utilitzades en medicina sempre porten algun tipus de biaix de sexe, gènere o raça, tant els que procedeixen de dispositius clínics, els associats a les intervencions, com els que tenen el seu origen a les interaccions entre pacients i personal sanitari. En alimentar amb aquestes dades el machine learning , les conclusions a què arriben els algorismes reprodueixen aquests biaixos. A la pràctica l'estudi ha revelat que els models d'intel·ligència artificial sanitaris analitzats funcionen de manera diferent en funció del tipus de pacient, i ofereixen resultats esbiaixats en funció del gènere i la raça.
Resulta primordial que un algorisme relacionat amb la cura de la salut resulti prou comprensible, transparent i explicable per al personal sanitari que hi ha de treballar, que són aquells que han d'estar al corrent de les dades i variables que ha utilitzat el sistema per elaborar el resultat. El problema és que sovint un sistema de machine learning pot ser difícil de comprendre pels usuaris i difícil d'explicar pels tècnics que l'han creat. En aquest sentit, segons apunta un informe de DigitalES, s'ha comprovat que el personal sanitari prefereix sacrificar una mica de precisió per tal que el sistema sigui més comprensible.
D'altra banda, la intel·ligència artificial ha de ser robusta, és a dir, ha de tenir una solidesa tècnica i haver estat desenvolupada amb un enfocament preventiu de riscos, de manera que es comporti sempre com s'espera que ho faci, minimitzant els danys involuntaris i imprevistos .
I, en última instància, en l'aplicació d'algorismes intel·ligents a la prestació sanitària sempre ha de regir la supervisió humana.
Escriu el teu comentari