Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

L'OEIAC contribueix al reportatge sobre el sistema predictiu de la Seguretat Social

El director de l'OEIAC, Albert Sabater, col·labora en el reportatge del Confidencial sobre "Preguntas sin respuesta sobre el sistema predictivo de la Seguridad Social", a càrrec del periodista Pablo Jiménez Arandia.

En el reportatge s'explica com l'ús de algoritmes sofisticats per gestionar recursos públics és una pràctica cada vegada més freqüent en governs de tot el món, i com la majoria de vegades són empreses privades les que desenvolupen aquests sistemes sota la promesa d'augmentar l'eficiència i reduir la despesa pública. En l'article es subratlla que l'opacitat és una altra de les constants habituals que envolten aquest tipus d'eines i que, moltes vegades, les administracions no tenen comptes sobre els detalls tècnics d'aquests projectes que tenen impacte en el dia a dia de la població. Evidentment, això és un problema si tenim en compte que aquests sistemes cometen errors ja que igual que passa amb les decisions humanes, les decisions algorítmiques no són perfectes però el principi de responsabilitat i discrecionalitat algorítmica no està gens clar. En aquest sentit, s'explica com els algorismes daprenentatge automàtic de la Seguretat Social generen una puntuació que pot resultar decisiva per als treballadors que estan de baixa. Tot i que l'última paraula sobre l'alta mèdica recau sempre sobre un professional, aquests models determinen quins expedients es revisen en primer lloc, en detriment d'altres. Mitjançant una sol·licitud d'informació i entrevistes amb els metges que interactuen amb el sistema, Lighthouse Reports i El Confidencial van accedir a dades rellevants sobre els models predictius implementats des del 2018 per l'Institut Nacional de la Seguretat Social (INSS). No obstant, encara hi ha moltes preguntes encara sense resposta. Per exemple, a dia d'avui, no sabem del cert quin tipus de controls o auditories s'estan realitzant sobre els models predictius per a la gestió de les baixes laborals de la Seguretat Social. Des del ministeri, s'han limitat a aclarir que "cada any, en funció dels resultats, s'avalua novament el model", amb l'objectiu d'obtenir "un resultat més favorable i poder valorar la recuperació laboral de manera més precisa". Tot i això, en cap cas no aclareixen quins mètodes s'estan utilitzant ni qui realitza aquesta avaluació. En aquest context, una de les preocupacions més grans al voltant de la intel·ligència artificial (IA) és el risc de discriminació cap a certs col·lectius o persones d'un determinat perfil. Aquesta preocupació és encara més gran en parlar de sistemes aplicats a sectors especialment sensibles, com l'accés a una prestació pública o tot allò que té a veure amb la salut. Per exemple, als EUA, hi va haver casos molt sonats de discriminació algorítmica al sistema judicial, com l'algorisme Compas. A Espanya, la manca de transparència de la Seguretat Social fa que no sigui possible conèixer si aquests algorismes estan discriminant algun col·lectiu concret. I tampoc hi ha cap certesa que des del Govern s'hagin pres les mesures necessàries per evitar aquests potencials biaixos. Tenint en compte aquests aspectes, el director de l'OEIAC, Albert Sabater, senyala a l'article que "els riscos han de ser identificats. Perquè si no es fa prèviament, l'impacte és molt més gran, ja que el sistema s'aplica a tothom". De fet, el mateix director de l'OEIAC assenyala que "és important que la transparència, l'explicabilitat i la confrontació entre allò que demanen els funcionaris —que és com hauria de ser el sistema— i allò que acaba sent —que és el que ofereixen els tecnòlegs— no només estiguin intervingudes per l'Administració, sinó també per la ciutadania i la societat civil. I aquí incloc associacions, grups d'acadèmics, etc.”.

Al següent enllaç podeu llegir tot el reportatge de Lighthouse Reports i El Confidencial a càrrec del periodista Pablo Jiménez Arandia.

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.