Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

Relatoria de la Jornada "Els Drets Humans en l’Era de la Intel·ligència Artificial"

Amb motiu del 75è aniversari de la Declaració Universal dels Drets Humans, el Departament d’Igualtat i Feminismes de la Generalitat de Catalunya amb la col·laboració de l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya, organitzà el passat 29 de setembre a l'Auditori Josep Irla de Girona, la Jornada "Els Drets Humans en l'Era de la Intel·ligència Artificial".

La Jornada es va iniciar amb la benvinguda institucional del Director General de la Direcció General per a la Promoció i Defensa dels Drets Humans, el Sr. Adam Majó. En la primera part de l’acte, vam comptar amb la ponència marc sobre “La Intel·ligència Artificial i com els drets humans expressen els valors ètics”, a càrrec del professor Joan Manuel del Pozo, professor emèrit i ex síndic de la Universitat de Girona. En aquesta ponència, el professor del Pozo ens va proporcionar una excel·lent panoràmica històrica sobre l’evolució de com els Drets Humans (DDHH) expressen els valors ètics, subratllant la constant reforma i mutació de l’ètica així com la centralitat que la societat ha donat als DDHH en funció del moment de la història moderna que ens trobéssim. En aquest sentit, va fer un repàs de les tres principals generacions d’assoliment de drets. En primer lloc, tenint en compte la protecció de la llibertat i la participació en la vida pública (per exemple, a través de la Carta Magna o Declaració dels Drets anglesa, la Declaració Francesa dels Drets de l’Home i del Ciutadà, la Carta Magna dels Estats Units i, és clar, la Declaració Universal dels Drets Humans); després en relació als drets econòmics, socials i culturals (reconeguts en el Pacte Internacional i en la Carta Social Europea i, és clar, en la DUDH, però molt subjectes a la construcció i desenvolupament de l’estat del benestar); i, finalment, considerant una tercera generació de drets relacionats amb els drets col·lectius o planetaris i la protecció dels recursos naturals (per exemple, a través de la la Carta Africana sobre Humans i Pobles, la Declaració d'Estocolm o la Declaració de Rio sobre el medi ambient). Així doncs, en aquesta panoràmica, el professor del Pozo ens va ubicar als inicis de la seva creació, on hi imperava una concepció androcèntrica dels mateixos i, per tant, la concepció d’uns drets polítics elaborats i aplicats per un subjecte determinat. A posteriori vam avançar a una concepció social d’aquets drets, passant per a una òptica de solidaritat internacional fins a l’actualitat, on ens trobem al voltant dels drets de caràcter més planetaris. Aquest recorregut ens va portar a comprendre el repte que encetem per tal de garantir l’aplicació de la Intel·ligència Artificial (IA) d’acord als DDHH. Nogensmenys assenyalant també, els riscos i les vulneracions que la IA pot produir respecte el segrest massiu o vigilància de dades personals, condicionar l’autonomia de la persona, distorsionar o afectar la veritat i la creativitat cultural. Així com, ser conscients del paper que juguen diversos biaixos en la seva aplicació.

A la segona part va tenir lloc una Taula rodona sobre el tema en qüestió però també amb un èmfasi especial en la "Intel·ligència Artificial, drets i provisió de serveis socials”. Aquesta Taula rodona moderada per l’Albert Sabater, professor a la Universitat de Girona i Director de l’OEIAC, va comptar amb la participació de la Karina Gibert, catedràtica a la Universitat Politècnica de Catalunya i  Directora del IDEAI, la Judith Membrives i Llorens, tècnica en incidència en digitalització a Lafede.cat, i la Beatriz López, professora a la Universitat de Girona i coordinadora del Laboratori de Recerca en IA Aplicada a la Salut del grup eXIT de la Universitat de Girona. El debat d'aquesta Taula rodona va partir de la qüestió sobre la necessitat d’establir uns límits clars a la IA, amb una perspectiva respectuosa i garant dels DDHH per tal d’assegurar la vida privada de les persones així com protegir-nos de la vigilància constant. Les interventores van arribar al consens que la innovació ha de produir-se sempre dins del marc que tals drets estableixen per a garantir que sigui ètica. D’altra banda, un factor que també cal tenir en compte en aquest procés són els neurodrets on va sorgir el debat de si cal incloure’ls en la regulació. Recordem que quan fem referència aquest concepte de neurodrets estem parlant de la intimitat del cervell per tal d’evitar que la informació que hi tenim pugui ser recollida, emmagatzemada, utilitzada i fins i tot esborrada sense consentiment explícit. I per tant, es tracta d’una nova frontera en la lluita per a la privacitat que tenim les persones, ja que un grup d’experts en tecnologia i ètica apunten que la conseqüència de moltes aplicacions no podrem ser-ne conscients fins d’aquí molts anys quan hagin causat un dany irreversible per al cervell.

Tanmateix, les interventores van destacar la funcionalitat que la IA pot tenir com a eina per a protegir i garantir els DDHH. Un exemple n’és el conjunt de millores que pot dur a terme en el camp de la salut per tal de mitigar malalties o patologies però, també la funcionalitat en la previsió i detecció de futures. A més, es va debatre entorn el contrapunt perjudicial al voltant de les preocupacions ètiques i vulneracions dels DDHH amb els exemples dels algoritmes o sistemes automatitzats els quals compten amb biaixos de múltiples factors com la raça, el sexe, el gènere, l’orientació sexual, la capacitat, la identitat, la nacionalitat, la llengua, l’edat, la classe social, la religió, la cultura... Arran dels exemples que evidenciaven l’existència d’aquets biaixos i els perjudicis i conseqüències que havien causat, van sorgir un conjunt de propostes per tal de resoldre’ls. Partim, doncs, del principi que la solució no és única i que varia en funció de l’aplicació de la IA que s’estigui duent a terme, cal primer analitzar l’impacte del sistema i apostar per la creació d’equips multidisciplinaris els quals incloguin perfils diversos i fins i tot, més enllà dels acadèmics. Això permetrà que les dades i la informació que es bolqui al sistema d’IA inclogui moltes realitats i sensibilitats que mitigar els esmentats biaixos.

Un dret que va encetar un altre debat va ser el de la llibertat d’expressió i el dret a accedir a una informació precisa degut a la vulneració o efecte que podia patir amb la IA. La proposta de consens va ser garantir una educació crítica a les aules i ja des de la primera etapa educativa per tal d’assegurar que els infants creixent amb un coneixement de la tecnologia divers, es a dir, que coneixen múltiples eines informàtiques, cercadors, aplicacions i doncs, els recursos que compten són variats. Aquesta diversitat els permetrà ser conscients de quan estan davant d’una IA prohibida o d’alt risc per poder actuar conseqüentment.

Finalment, el fil conductor de la Taula ens va portar al darrer punt de debat entorn a qui té el poder i qui pren les decisions per a programar els sistemes d’IA així com l’assumpció de responsabilitat i la garantia que els sistemes siguin transparents i basats en l’equitat. Un nou punt d’acord entre les tres interventores va ser la valoració de la IA com una eina que acompanya a les tasques i l’ús quotidià de les persones i a la qual mai se li ha d’atribuir una agència ni personificació per a la presa de decisions. Socialment s’ha d’assumir l’ús de la IA sense concebre-la com una substitució de les persones. El debat va finalitzar amb l'apunt de que en un futur proper coneixerem les novetats que la regulació de la Unió Europea du a terme respecte qui i com assumeix la responsabilitat i les tasques i garanties que hauran de complir els Estats en aquest nou escenari.

El comiat de la Jornada fou a càrrec de la Sra. Gina Tost, Secretària de Polítiques Digitals de la Generalitat de Catalunya, qui pronuncià unes paraules d'agraïment a totes les persones assistents i participants de l'acte, i subratllà la importancia d'abordar de forma continuada els temes de la Jornada així com dels reptes i les oportunitats que planteja la IA des d'una perspectiva d'usos ètics i de defensa dels Drets Humans.

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.