Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

Article d'opinió OEIAC pel butlletí de Vigilància Tecnològica de CIDAI

El director de l'OEIAC, Albert Sabater, escriu l'article d'opinió "Consideracions ètiques en IA: d’una qüestió filosòfica a una necessitat d’aplicació tangible" pel butlletí de Vigilància Tecnològica del Centre of Innovation for Data Tech and Artificial Intelligence (CIDAI)

Durant els últims anys, les consideracions ètiques de la intel·ligència artificial (IA) han passat de ser una qüestió filosòfica d’alt nivell a convertir-se en una necessitat d’aplicació tangible per minimitzar els seus riscos i maximitzar les seves oportunitats. Alhora, la proliferació dels smartphones i les aplicacions d’IA que utilitzem diàriament, l’impacte de la tecnologia en tots els sectors (incloent la indústria, la cura de la salut, la justícia, el transport, finances o l’entreteniment), l’augment de la capacitat de processament de dades, ha fet sorgir un intens i necessari debat sobre l’ús ètic de la IA que ha estat relacionat, en primera instància, amb els biaixos de les dades i amb les anomenades caixes negres de la IA.

Sobre el primer, val a dir que el focus inicial s’ha centrat en que els sistemes d’IA poden mantenir i fins i tot amplificar diferents biaixos negatius cap a diferents grups de persones, com a dones, persones majors, persones amb discapacitat i també cap a ètnies minoritàries, grups racialitzats o altres grups vulnerables. Com a conseqüència, una de les preguntes més recurrents, especialment en el context de l’aprenentatge automàtic, ha estat com evitar les discriminacions dels sistemes d’IA. Tenint en compte que un dels objectius principals dels sistemes d’IA és aconseguir una major eficiència, precisió, escala i velocitat per prendre decisions i trobar les millors respostes, l’existència d’aquests biaixos en l’ús de la IA no solament pot menystenir aquestes característiques aparentment positives diverses maneres, sinó que genera una falta de confiança no menyspreable, especialment entre les persones més afectades per aquesta situació.

Quan parlem de biaixos, el primer problema és que la utilització de dades que contenen desequilibris implícits o explícits no només reforça una distorsió en les dades també afecta qualsevol presa de decisions, fent que el biaix pugui ser sistemàtic. El segon problema és que un sistema d’IA pot sofrir un biaix algorítmic a causa dels biaixos implícits o explícits del desenvolupador. Això es deu  en gran part a  que el disseny d’un programa es basa en la comprensió del desenvolupador dels valors normatius i no normatius d’altres persones. Per això, és important incloure en el procés de desenvolupament als usuaris i les parts interessades afectades. El tercer problema té a veure amb el biaix de resultat o selecció que freqüentment s’associa a l’ús de registres històrics però que també té a veure amb la selecció sistemàtica de grups de persones i llocs que passen a vincular-se amb determinats resultats. Per exemple, en la predicció d’activitats delictives en determinades àrees urbanes, un sistema d’IA pot acabar assignant més policies a un àrea en particular a partir dels registres històrics i una selecció per part de la comandància de policia de vigilar unes zones molt més que unes altres. Aquesta lògica dona lloc no solament al fet que es reportin més casos delictius en una zona sinó també que s’assignin més policies en una determinada zona a causa dels resultats esbiaixats del sistema d’IA.

Per tant, si no estem atents podem trobar alguns sistemes d’IA facin que les desigualtats entre grups socials s’amplifiquin i fins i tot siguin més perdurables. Sens dubte, perquè això no ocorri es requereix una millor compressió social de les dades que s’utilitzen en els sistemes d’IA. Per exemple, és possible que alguns professionals de la IA no sàpiguen que les dades sobre X (com codis postals, registres de salut, ubicació de carreteres) també són, alhora, dades sobre Y (com  sexe o gènere, grup ètnic, estatus socioeconòmic), i puguin pensar que les dades sobre X són una dada neutral que s’aplica a totes les persones per igual en lloc d’entendre que els codis postals molt sovint brinden informació sobre discriminació, desigualtat i segregació social. Sens dubte, la discriminació indirecta, on les variables que no pensem que fossin sensibles al proxy, com el sexe o gènere o grup ètnic, suposen un gran desafiament. Així doncs, cal en primer lloc prendre en consideració aquestes qüestions bàsiques d’estructura social, identificant de forma prioritària les correlacions entre els grups vulnerables, els contextos i les oportunitats de vida recollides en les dades.

Sobre el segon punt, val a dir que molts dels sistemes d’IA en l’actualitat estan basats en un enfocament connectivista, sigui en la visió per computador, el processament del llenguatge natural o la investigació d’operacions, entre altres. Aquest enfocament, que té molt èxit a l’hora d’aprendre a partir de dades estadísticament correlacionades, també té un problema, i és que depèn més de la nostra intuïció que no pas de la nostra comprensió per explicar una idea general de per què funcionen. És per aquesta raó que els percebem com a sistemes de caixes negres, un fet que suposa un problema de transparència, explicabilitat i, en definitiva, d’opacitat. Aquest motiu és el principal pel qual es denomina a molts sistemes d’IA actuals com a caixes negres o black boxes. Tal i com ja hem apuntat, aquest enfocament de caixa negra és molt diferent al que teníem prèviament quan els marcs lògics formals eren la norma en la IA simbòlica, o sigui, quan les regles apreses solien estar presents en un format llegible per a les persones. Amb la IA connectivista, en moltes ocasions és difícil compendre el procés pel qual aquests sistemes arriben a determinades solucions o prediccions. Per aquesta raó, es proposa l’explicabilitat com un criteri ètic bàsic fonamental.

La normalització d’aquesta situació és problemàtica, especialment en sistemes democràtics on la transparència és un principi fonamental i, per tant, les implicacions d’aquesta incapacitat per entendre, o millor dit, explicar el procés de presa de decisions són profundes a nivell individual i col·lectiu. D’una banda, aquesta opacitat apareix com un afront a la dignitat i autonomia d’una persona quan les decisions sobre aspectes importants de la seva vida les prenen sistemes d’IA sobre els que no podem explicar el motiu o el per què. En aquest sentit, els algorismes ben documentats i accessibles poden proporcionar informació sobre la presa de decisions o solucions, augmentant la transparència i responsabilitat del procés algorítmic.

En general, la creixent importància dels sistemes d’IA per a nombrosos aspectes de la nostra vida quotidiana fa que es demani una major inclusió de consideracions ètiques i socials. I, és clar, per fer-ho hem de tenir clar quins són els aspectes a considerar per aplicar-los d’una manera sistemàtica i coherent per tal d’exercir un continu procés de rendició de comptes sobre el disseny i ús de la IA. Malauradament, són molt poques les orientacions sobre com s’integren les consideracions ètiques i d’impacte social en ecosistemes d’innovació accelerada, com és el cas de la IA. Per tant, cal avançar ràpidament per fomentar una IA que sigui realment de confiança, on la justícia i equitat facin referència a què un sistema d’IA pugui desplegar-se d’una manera justa i on les persones tinguin un tracte just o imparcial. Això inclou la prevenció, el seguiment o la mitigació de biaixos i discriminacions no desitjades, i també mecanismes d’apel·lació a decisions algorítmiques.

És clar, també han de ser robustos i segurs durant tot el seu cicle de vida perquè no presentin riscos de seguretat ja que les conseqüències pels seus resultats o els accidents del seu mal ús poden afectar tant individus com grups socials i a la societat general. A més, quan ens referim a la seguretat dels sistemes d’IA no sols fem referència a garantir que la tecnologia sigui segura des d’una perspectiva tècnica del seu funcionament, també ens referim al fet que els sistemes d’IA no infringeixin sobre els drets humans, avaluant els riscos de seguretat pública que sorgeixen de la seva implementació.

Juntament amb aquestes consideracions de transparència, justícia i seguretat, hi ha el de responsabilitat. Aquest fa referència principalment a la responsabilitat moral, que inclou tant la gestió i ús responsable de les dades dels usuaris com a la responsabilitat dels actors involucrats en el desenvolupament i implantació d’un sistema d’IA. Així doncs, les organitzacions han de ser conscients dels problemes relacionats amb l’ús de dades deficients i ser responsables si hi ha conseqüències perjudicials com a resultat d’això. D’altra banda, la responsabilitat s’ha erigit com un tema clau per a avançar en els usos ètics de la IA ja que hi ha el temor que les organitzacions puguin ofuscar la culpa o amagar-se de la seva responsabilitat en els sistemes autònoms o semi autònoms.

Protegir la privacitat dels usuaris també s’ha convertit en una condició indispensable per a la protecció de l’autonomia individual ja que és vista com un valor a defensar relacionat amb la protecció de dades i el tractament d’aquestes, així com amb la personalització de les dades, la transparència i la supervisió. De forma relacionada, s’identifica un altre principi, com és el d’autonomia i que en la IA fa referència a que l’usuari sigui central a la funcionalitat del sistema, eliminant la seva dependència enfront dels models de presa de decisions automatitzada. Finalment, cal destacar el principi de sostenibilitat, entenent-la com la capacitat de generar efectes positius i a llarg termini des de tres perspectives: la social, l’econòmica i la mediambiental.

Amb l’objectiu general de demostrar que és possible avançar en aquesta direcció d’aplicació de 7 principis ètics, l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) ha presentat una aplicació web i un informe sobre el model PIO (Principis, Indicadors, Observables): Una proposta d’autoavaluació organitzativa sobre l’ús ètic de dades i sistemes d’Intel·ligència Artificial, dissenyat i desenvolupat pel mateix OEIAC. Els objectius específics del model PIO són:

  • Sensibilitzar als diferents agents de la quàdruple hèlix, és a dir, la presència dels quatre pilars clau en qualsevol procés innovador: universitats i centres de recerca, administració pública, teixit empresarial, i ciutadania, que utilitzen dades i sistemes d’intel·ligència artificial, sobre la importància d’adoptar principis ètics fonamentals per minimitzar riscos coneguts i desconeguts i maximitzar oportunitats.
  • Identificar accions adequades o inadequades a través d’una proposta d’autoavaluació basada en principis, indicadors i observables per valoritzar, recomanar i avançar en l’ús ètic de dades i sistemes d’intel·ligència artificial.

Aquests objectius parteixen d’un fet incontestable, que és la proliferació de productes i serveis que utilitzen sistemes d’IA. Davant això, les organitzacions públiques i privades així com els usuaris d’IA i ciutadans en general han d’assegurar-se que els sistemes d’IA no tan sols són segurs des d’un punt de vista tècnic, sinó que també són sostenibles des d’un punt de vista ambiental i social. Així doncs, per fomentar la confiança del públic en les tecnologies d’IA cal un suport creixent a les estratègies d’autoavaluació sistemàtica de principis ètics per, d’aquesta manera, materialitzar i valoritzar un element clau i transformador en l’economia del benestar: els estàndards ètics més alts per part d’organitzacions a l’hora de dissenyar, desenvolupar i implementar solucions tecnològiques en general i de sistemes d’IA en particular.

En aquest sentit, el model PIO és un pas més per seguir avançant en aquesta direcció ja que proporciona una integració de la teoria a la pràctica de principis ètics fonamentals de la IA, i es construeix al voltant de la senzillesa i d’una pregunta clau i efectiva que qualsevol persona que desenvolupa, gestiona o dirigeix un projecte on hi ha dades i sistemes d’IA: Ho hem fet? En aquest sentit, partint d’una perspectiva de responsabilitat social organitzativa, es proposa la utilització d’un model que es pot utilitzar en qualsevol fase del cicle de vida de les dades i sistemes d’IA. Això significa que és aplicable en el disseny i modelització, incloent-hi planificació, recollida de dades i construcció de models; en el desenvolupament i validació, incloent-hi formació de models i proves; i en el desplegament, seguiment i perfeccionament, incloent-hi en la resolució de problemes. El formulari d’autoavaluació del model PIO, així com l’informe complet del model, estan disponibles en aquest enllaç.

Aquest article ha estat publicat a la web del CIDAI el 17 d'abril de 2023.

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.