Blog Post OEIAC: Quina intel·ligència artificial, i per a què?
Anar al contingut (clic a Intro)
UdG Home UdG Home
UdG 30 anys
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

Blog Post OEIAC: Quina intel·ligència artificial, i per a què?

Albert Sabater, director de l'Observatori d’Ètica en Intel·ligència Artificial de Catalunya

La intel·ligència artificial (IA) és una irrupció tecnològica que afecta a la nostra vida quotidiana, tant si ens n’hem adonat com si no. En el pla personal, professional i en les nostres interaccions socials, amb empreses i administracions públiques, la IA s’ha convertit en indispensable, transformant d’una manera silenciosa la societat en què vivim. Però el coneixement que tenim sobre les especificitats de la IA, i què significa això per als valors i principis que han fonamentat la nostra societat fins ara, segueix sent limitat. Tampoc sabem l’abast de la IA en vàries qüestions socials i econòmiques com, per exemple, en relació al futur del treball o a la distribució de riquesa. El que sí que sabem és que, en termes geopolítics, regions del món i països específics veuen el desenvolupament de la IA de manera distinta, amb diferències molt acusades quant a la inversió financera i també sobre la seva utilització, incloent-hi en l’àmbit militar.

A Europa, des del mes d’abril de 2018 els estats membres de la Unió Europea s’han marcat un full de ruta comú de cooperació en IA davant la competència global per tal d’abordar les oportunitats i els reptes de la IA, amb la intenció de definir el seu propi camí, “basat en els valors europeus per promoure el desenvolupament i el desplegament de la IA” tal i com figura a la primera pàgina del llibre blanc de la IA de la Comissió Europea. És a partir d'aquestes coordenades que la Comissió Europea ha realitzat el primer marc legal sobre IA de la història, que aborda els riscos de la IA i posiciona Europa a tenir un paper de lideratge a nivell mundial. Però malgrat aquest avenç a través d’una identificació de riscos i usos inacceptables de determinats sistemes d’IA (podeu veure un resum infogràfic de les prohibicions), la proposta de regulació té mancances i omissions importants. Per exemple, la regulació no conté un enfocament sobre l’impacte social dels sistemes d’IA que inclogui, entre altres, el requisit general d’informar a persones sotmeses a avaluacions algorítmiques, el que suposa que les avaluacions de conformitat poden acabar sent processos interns i no pas documents que el públic o un regulador puguin revisar. D’altra banda, la proposta de regulació no prohibeix de manera estricta els sistemes d’identificació biomètrica remota en temps real ja que deixa les portes obertes al seu ús per part de les forces de l’ordre quan la llei ho autoritzi. Mentre aquesta llacuna preocupa especialment als defensors de les llibertats civils, sembla que satisfà els estats membres de la Unió Europea en matèria de seguretat interna i terrorisme.

Evidentment, el fet que els sistemes d'IA s'utilitzin cada vegada més en tots els àmbits de la nostra vida quotidina també implica un interès i preocupació creixent, especialment quan la IA s'utilitza en els límits ètics i legals com, per exemple, per monitoritzar i supervisar protestes o per fer prediccions sobre el nostre comportament, entre altres. Així doncs, sense garanties clares, alguns sistemes d'IA poden afavorir un desequilibri de poder entre aquells que desenvolupen i utilitzen la IA i els que n'estan sotmesos a la tecnologia. És per això, que la proposta de regulació de la IA és pot considerar un pas endavant però, a la vegada, també cal tenir en compte els possibles contextos d’actuació. Dit d’altra manera, la interpretació de diferents aplicacions tècniques no tan sols pot diferir segons una avaluació del risc de la IA, aquesta també està subjecte al propi sistema judicial i als diferents valors eticosocials de cada context o país. En aquest sentit, el desenvolupament i implantació de la IA podria variar segons si el context aplica o no una política de màxima democràtica per tal de protegir i emparar tant els drets civils com la pluralitat i diversitat dels seus ciutadans. Per tant, cal anticipar que la supervisió i el compliment de la regulació de la IA serà complexa degut a la inherent divisió de responsabilitats de la UE entre els reguladors de Brussel·les i els estats membres, i també al fet que es preveu que les autoritats nacionals de supervisió siguin les que prendran la iniciativa en l’anomenada "vigilància del mercat" dels sistemes d'IA.

Sabem que la IA té un enorme potencial d’ajudar-nos tal i com s’ha demostrat en la crisi provocada per la Covid-19. Molt probablement la pandèmia esdevindrà un punt d’inflexió, ja que aquesta ha accelerat moltíssim l’ús de sistemes d’IA i de les dades massives (Big Data), demostrant en molts casos la seva eficàcia en el monitoratge, detecció i identificació de factors bioquímics, moleculars i cel·lulars associats amb la Covid-19, el que ha permès una millor comprensió dels diferents estats d’infecció, incubació, propagació i tractaments a emprar. I no és l’únic exemple de gran abast. L’assoliment de cadascun dels ODS també dependrà en gran part de l’ús de la tecnologia i, especialment, de la IA tal i com ho demostren múltiples iniciatives d’IA for Good de les Nacions Unides. Però la IA no només presenta solucions i oportunitats amb el seu creixement, també presenta implicacions i preocupacions més enllà de la seva regulació. Així doncs, en aquest estadi de primavera de la IA és important plantejar-se quina IA volem i per a què. En aquest context, també cal preguntar-se: Pot resoldre la IA qualsevol problema? Les respostes a aquestes preguntes depenen, en gran part, a consideracions ètiques que fem nosaltres mateixos, i també a l’impacte social que estiguem preparats per assumir a mesura que la IA es fa omnipresent.

En l’actualitat, el progrés tecnològic de la IA és ràpid i genuí en molts camps, des de la percepció d’imatges a l’automatització de criteris, però cap d’ells està exempt d’errors i inexactituds, especialment en la predicció de comportaments de naturalesa social. Però al marge de si arribem a elevats graus de precisió en moltes disciplines amb l’ús de la IA, la qüestió central no és si la IA pot fer una o altra cosa, la qüestió central és si l’hauria de fer i com. Així doncs, aprofundir en els motius i intencions del desenvolupament de la IA és fonamental, tant per establir si és necessari o no utilitzar la IA, com per saber en quins contextos i circumstàncies. I, és clar, si utilitzem sistemes d’IA també cal preveure que això implica un escrutini (cada vegada major) de si els beneficis de fer-ho van més enllà dels interessos privats, o sigui, si abasten a les persones, grups de persones o la societat en general. Per això cal estudiar i analitzar preguntes diverses (positives i negatives) envers la IA com: La IA em pot donar millors opcions? La IA em pot estalviar molt temps? La IA pot perjudicar-me a mi i als altres? La IA podria substituir-me o restringir-me?

És a través d’aquesta comprensió o si voleu de la saviesa pràctica que Aristòtil definia com a frònesi, que podem saber què és bo o dolent, què es pot i que s’ha de fer i també com fer-ho. Sabem que això es diferencia tant del coneixement filosòfic o científic (epistêmé) com del coneixement tècnic o el saber fer (téchne). Primer, perquè es centra en la pràctica, el que vol dir que no es tracta només del que és cert, sinó també del que seria bo fer en determinades circumstàncies. Segon, perquè es preocupa tant per avaluar i prescriure objectius com per seleccionar mitjans. Però el temps d’actuació també és de gran importància. Com deia Shakespeare “millor tres hores massa aviat que un minut massa tard”, ja que encara tenim la possibilitat de canviar alguna cosa respecte a una implantació generalitzada de la IA tenint en compte la saviesa pràctica, i de fer-ho bé, però també hi ha la possibilitat que això no passi, i fem tard.

Sense aquesta comprensió i coordenades d’actuació no seria d’estranyar que hi hagi una desconfiança creixent i una demanda igualment forta a establir límits altament reguladors als desplegaments de la IA, tant a nivell nacional com Europeu. Aquesta major comprensió també demana una implicació conjunta (i m'atreviria a dir una simbiosi) entre l’humanisme i la tecnologia, per tal de tenir en compte que, per molt que la IA ofereixi solucions a múltiples problemes, és impossible oferir-ne per tot i tenir-ne el control complet. En la IA com en qualsevol tecnologia no tot funciona, ni tampoc tot funciona com estava previst. I, és clar, hi ha factors imprevisibles que poden provocar efectes negatius enormes. No és d’estranyar, doncs, que en un informe recent de l’Institute of Electrical and Electronic Engineers (IEEE) on s’analitzen 112 documents de normatives, estratègies i marcs reguladors de diferents àmbits públics i privats de tot el món, es destaca que la IA ha de tenir en compte, per sobre de tot, un principi de responsabilitat social. En certa manera, això ens recorda que en la IA no cal buscar una substitució de la intel·ligència (o estupidesa) humana, sinó un complement que, juntament amb la intel·ligència comunitària, ens permeti sumar intel·ligències. Aquesta és, precisament, la visió estratègica que la Universitat de Girona vol desplegar en els propers anys.

Com qualsevol tecnologia, els sistemes d’IA sovint distribueixen beneficis i perjudicis de manera desigual, i també agreugen o perpetuen condicions socials injustes preexistents. En aquest sentit l’administració pública ha de ser un clar referent envers el desenvolupament d’una IA ètica i centrada en les persones. És evident que la IA pot ajudar moltíssim a gestionar i analitzar el Big Data administratiu, oferint avantatges com un servei més ràpid i transparent a la vegada que es poden detectar anomalies o fraus. Però, per sobre de tot, cal assegurar-se que la IA s’utilitza sense provocar cap disparitat respecte als drets socials i la cohesió social. Una assignació de recursos assistencials i d’avaluació de l’elegibilitat no pot basar-se en una IA de predicció de risc ja que això té un impacte potencialment greu sobre el dret fonamental a la seguretat social i a l’assistència social.

Finalment, cal subratllar que tant en l’àmbit públic com privat els sistemes d’IA només poden ser tan bons com les dades utilitzades per al seu desenvolupament. Així doncs, les dades d’alta qualitat són essencials per a sistemes d’IA d’alta qualitat. Malauradament, la realitat actual de la IA està encara molt allunyada d’una utilització generalitzada de dades d’alta qualitat. Malgrat és impossible tenir dades sense errors, si que és possible conèixer les diverses fonts d'error en totes les col·leccions de dades, i els usuaris de tecnologies relacionades amb la IA necessiten saber d’on provenen les dades i les seves potencials deficiències. Aquest és un aspecte fonamental ja que els sistemes d’IA basats en dades incompletes o esbiaixades poden conduir a resultats inexactes que infringeixin els drets fonamentals de les persones, inclosos els de la discriminació. Per tant, ser transparent sobre quines dades s’utilitzen en sistemes d’IA és un primer pas que pot ajudar a evitar possibles vulneracions de drets, i això és especialment important en l’actualitat amb el Big Data, on molt sovint es valora el volum de dades per sobre de la qualitat de les dades.

Vetllar perquè la tecnologia s’apliqui per millorar el benestar de les persones de manera segura, justa i respectant les nostres normes socials i culturals és un objectiu de present i futur. A Catalunya, la creació de l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya (OEIAC),  que pren forma de Càtedra a la Universitat de Girona i que s'insereix en l’Estratègia d’Intel·ligència Artificial (IA) impulsada per la Generalitat de Catalunya amb el nom de CATALONIA.AI, respon clarament a aquesta necessitat, i també a la necessitat de millora de la nostra comprensió sobre les conseqüències ètiques, socials i legals així com dels els riscos i oportunitats que suposa la implantació cada vegada més generalitzada de la IA.

En aquest sentit, us convidem a visitar la nostra pàgina web per consultar i participar en les activitats que desenvolupem, entre elles, el primer Cicle de Seminaris sobre la IA en la nostra vida quotidiana, que començarà el dilluns 10 de maig i s’allargarà fina al novembre de 2021.

Gràcies per llegir el Blog Post OEIAC, i fins aviat!

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.