Anar al contingut (clic a Intro)
UdG Home UdG Home
UdG 30 anys
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

L'OEIAC clou amb èxit el seu segon cicle de seminaris

L'Observatori d'Ètica en Intel·ligència Artificial de Catalunya (OEIAC) va cloure el passat 3 de novembre el seu segon cicle de seminaris amb un acte a la Casa de Cultura de la Diputació de Girona que comptà amb la inestimable contribució del professor Ramon López de Mántaras.

L’Observatori d’Ètica en Intel·ligència Artificial de Catalunya (OEIAC) s’ha visibilitzat notablement durant aquest temps des de la seva creació el juny de 2020. El Govern, a través del Departament de Polítiques Digitals i Territori de la Generalitat de Catalunya, va apostar per la UdG i la va posar com a punt de referència en aquest àmbit tal i com va subratllar en la benvinguda institucional de l’acte de cloenda del segon cicle de seminaris de l’OEIAC, el Vicerector de Projectes Estratègics i Internacionalització, Josep Calbó.

El cicle de seminaris de l’OEIAC constitueix una de les actuacions de divulgació i transferència de coneixement de l’Observatori. Enguany, el cicle ha servit per aportar respostes i reflexionar sobre les implicacions de la intel·ligència artificial en la presa de decisions. A llarg del cicle s’han plantejat qüestions importants sobre la responsabilitat, el retiment de comptes o la transparència i, és clar, sobre la qualitat de les decisions i el seu impacte individual i col·lectiu. En el cicle han participat ponents tan rellevants com ara Daniel Innerarity, Carlos Castillo, Alexa Hagerty, Lucía Velasco, Itziar de Lecuona o Ana Valdivia.

L’acte de cloenda del cicle va comptar amb la inestimable contribució de Ramon López de Mántaras, professor d'investigació (emèrit) de l'CSIC a l'Institut d'Investigació en Intel·ligència Artificial (IIIA), del qual fou fundador i Director. El ponent de la cloenda és pioner de la intel·ligència artificial (IA) i podem dir que és un dels pares de la IA a Catalunya, Espanya i Europa. En un diàleg amb el director de l’OEIAC, el professor Albert Sabater, el ponent va fer un repàs als diferents tipus d’IA (dèbil, general i forta) i com aquestes poden tenir un impacte en la presa de decisions. En aquest sentit, va distingir entre una IA dèbil centrada en les aplicacions, una IA general que és multitasca i una IA forta que té estats mentals, consciència, etc. Fent aquest repàs, va fer incís que tota IA forta implicaria que seria general forçosament però que, segons la seva opinió, encara que sigui possible dissenyar una IA forta, no s’hi arribarà ja que seria un enorme problema per la humanitat, que esdevindria obsoleta. També va subratllar en el perill de considerar la IA, ja actualment, com una espècie de Déu embolcallat de racionalitat, malgrat els problemes coneguts de biaixos, de manca de context, entre altres.

En aquest sentit, el ponent va abordar la pregunta clau del cicle OEIAC: ens treu el poder de decisió la IA o bé aquesta representa una nova manera d’aprofitar el nostre poder de decisió? Segons el professor López de Mántaras, els sistemes d’intel·ligència artificial acaben fent les dues coses ja en l’estadi actual d’IA dèbil. Així doncs, el ponent va posar l’exemple dels vehicles autònoms, que ens treuen el poder de decisió a la carretera però, a la vegada, suposen una nova manera d’aprofitar el nostre poder de decisió i poden provocar una reducció significativa del nombre de víctimes a la carretera. Això si, semblava que havien d’arribar ja fa uns anys però no ha estat així. En aquesta línia el ponent va exposar que el que preocupa als fabricants d’automòbils és quin principi aplicaran els sistemes d’IA a l’hora de prendre decisions, si posen en perill els ocupants del cotxe. Hi ha qui afirma que ha de ser una decisió aleatòria, que podria ser l’equivalent del reflex en la conducció humana però en d’altres contextos es creu que no hauria de ser així. És per aquesta raó que es planteja que hi haurà d’haver una caixa negra per poder verificar les causes de possibles accidents. 

En el diàleg es va posar de manifest que estem a la frontera de retirar usos no ètics de la IA ara que comencem a veure alguns dels seus impactes no desitjats com la vigilància o recomanació constant, o degut a que no alguns no tenen en compte el nostre context sociocultural, incloent-hi la presència de dilemes morals que no són necessàriament universals. Per exemple, apareix que en els darrers conflictes bèl·lics hi ha drons que identifiquen objectius i que prenen autònomament la decisió, fins i tot el moment d’atacar. Si bé es tracta d’un escenari de guerra o no civil, es planteja que caldrà sol·licitar que sempre hi hagi persones responsables en la presa de decisions i els processos que se’n deriven, també des del moment de dissenyar la IA. Per altra banda, en aquest escenari de responsabilitats es planteja que no té cap sentit dissenyar màquines amb valors morals ja que, entre altres coses, això podria suposar fer aprendre les màquines d’experiències comunes i això no és necessàriament el més ètic.

Finalment, en el diàleg va sortir un tema recurrent com l’abús de les dades massives o Big Data, i el fet que s’ha de prevenir l’acumulació de dades sense més propòsit que la vigilància, com ara succeeix amb moltes de les dades biomètriques, tenint en compte el que suposa per l’exercici de drets democràtics i el seu impacte en la seva manifestació i en poblacions vulnerables. Des d’aquesta perspectiva, en el diàleg es va abordar el seu replantejament i la necessitat que es parli de Small Data en contraposició al Big Data, malgrat que algunes tecnologies emergents com la del metavers es proposen com un invent perfecte per aconseguir moltes més dades que les que es recullen en l’actualitat. No obstant, el ponent també va recordar que s’està treballant per una IA simbòlica i menys depenent de les dades, fent èmfasi en que l’actual status quo no és sostenible, ja que les infraestructures de dades consumeixen una quantitat d’energia molt considerable. En la part final del diàleg, el ponent i director de l’OEIAC van apel·lar a un principi fonamental, la prudència, no tan sols per l’adquisició d’informació o dades, sinó també per recordar que cal plantejar-se constantment la presència i l’absència de la IA ja que automatitzar-ho tot no és ni factible ni desitjable.

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.