Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

IV Cicle de Seminaris OEIAC

Ètica, impacte social i compliment legal

Les consideracions ètiques sovint configuren les lleis i, a la vegada, les normes legals poden influir en les consideracions ètiques, generalment amb l'objectiu de promoure el benestar social i protegir els drets de les persones. No obstant, poden sorgir situacions en què els estàndards legals i les consideracions ètiques entrin en conflicte i, en aquests casos, cal una anàlisi de les necessitats de les parts interessades ja que els principis ètics i les avaluacions d'impacte social sovint van més enllà dels requisits legals per abordar necessitats i expectatives de la societat. Un clar exemple d’això és la Llei d’Intel·ligència Artificial (IA) de la Unió Europea recentment aprovada i coneguda com a AI Act. Aquesta normativa que classifica els sistemes d'IA segons els seus nivells de risc, des de mínims fins a inacceptables, i que estableix requisits de compliment basats en aquests nivells, es basa en imperatius ètics i aspectes pràctics del compliment. Però per tal que esdevingui un marc de protecció sòlid ha de conciliar tensions entre l’ètica, l’impacte social i el compliment legal, assegurant que les regulacions d'IA no només siguin exigibles, sinó que també garanteixin els drets individuals, el benestar de la comunitat, els valors socials, l'estat de dret i la protecció ambiental.

En aquest moment, es considera que la AI Act no té una visió prou àmplia i centrada en les persones ja que no protegeix suficientment drets fonamentals com la privadesa, la igualtat o la no discriminació. Per exemple, la normativa sobre IA té llacunes importants en principis com la transparència sobre certs desplegaments d'IA, especialment pel que fa als proveïdors i desplegadors de sistemes d'alt risc en àrees d'aplicació de la llei, migració, asil i control de fronteres. En aquests casos, es demanarà una quantitat molt limitada d'informació que, a més, s'inclourà en una base de dades no pública, la qual cosa limitarà molt la supervisió i el seu escrutini. A més, si bé la normativa inclou avaluacions d'impacte sobre els drets fonamentals, encara hi ha dubtes sobre quin serà l’abast real que tindran aquestes avaluacions, entre altres perquè els desplegadors de sistemes d’IA només hauran d'especificar quines mesures s'adoptaran un cop es materialitzin els riscos.

D’altra banda, no hi ha obligatorietat d’implicar parts interessades com són la societat civil i les persones afectades per la IA en el procés d'avaluació. Això vol dir que les organitzacions de la societat civil no tindran una manera directa i legalment vinculant de contribuir a les avaluacions d'impacte. Aquí també cal subratllar que, en la AI Act, quan hi hagin queixes es contemplaran alguns recursos, però no hi haurà un reconeixement clar de la persona afectada. Així doncs, tenint en compte que ha d’existir el dret a una explicació dels processos de presa de decisions individuals, especialment per als sistemes d'IA catalogats com a d'alt risc, això planteja preguntes sobre l'accés a la informació i l’obtenció d’explicacions per part dels desplegadors de sistemes d’IA. Aquesta aspecte es considera especialment rellevant donada l'absència de disposicions com ara el dret a la representació de les persones físiques o la capacitat de les organitzacions d'interès públic per presentar queixes davant les autoritats de control.

D’una forma relacionada, cal remarcar que la Llei d’IA fa de la seguretat nacional una zona que sembla, en gran part, lliure de drets. Malgrat que en aquest àmbit poden haver-hi motius justificats per a les excepcions de la Llei d'IA, habitualment això s'ha d'avaluar cas per cas, d'acord amb la Carta dels Drets Fonamentals de la UE. Però el text adoptat no va en aquesta direcció i, en termes pràctics, això pot significar que els governs podrien invocar la seguretat nacional per introduir sistemes d’IA com els biomètrics de vigilància massiva, sense haver d'aplicar cap salvaguarda prevista a la Llei d'IA; sense realitzar una avaluació d'impacte en els drets fonamentals; i sense garantir que el sistema d'IA no discrimina a determinats col·lectius.

Un altre punt important és que la AI Act només fa un primer pas per abordar els impactes ambientals de la IA i, això, malgrat la preocupació creixent en com l'ús exponencial dels sistemes d'IA pot tenir impactes greus en el medi ambient. Per exemple, mentre la normativa d’IA exigirà als proveïdors de models de propòsit general (GPAI en anglès) que documentin els seu consum d’energia quan estiguin entrenats amb grans quantitats de dades, encara no existeix una metodologia adequada per mesurar-ho de manera transparent, comparable i verificable. Per tant, caldrà crear procediments per garantir l'ús eficient dels recursos per part d'alguns sistemes d'IA i, alhora, que aquests procediments puguin ajudar a reduir el consum d'energia i altres recursos dels sistemes d'IA durant el seu cicle de vida. Però això només és un punt de partida ja que calen enfocaments més integrals que abordin tots els danys ambientals al llarg del procés de producció d'IA, incloent-hi el consum d'aigua i minerals.

Finalment, un altre aspecte a destacar sobre les consideracions ètiques i legals de la AI Act és que permet una doble moral quan es tracta dels drets humans de les persones fora de la UE. De fet, la Llei d'IA no compleix l'exigència de la societat civil de garantir que els proveïdors d'IA amb seu a la UE, que afecten a persones fora de la UE, estiguin subjectes als mateixos requisits que els de dins de la UE. Dit d’altra manera, la AI Act no impedeix que les empreses amb seu a la UE exportin sistemes d'IA prohibits a la UE i, per tant, crea un gran risc de violar els drets de les persones de països no comunitaris amb tecnologies fabricades a la UE que són essencialment incompatibles amb els drets humans.

Per tal d’aportar algunes respostes i, és clar, també per obrir més preguntes sobre la complexa interacció entre l'ètica, la legislació i la tecnologia, l’OEIAC inicia aquest nou cicle de seminaris de transferència de coneixement amb persones convidades d’arreu que treballen i promouen el desenvolupament d’usos ètics i responsables de la IA.

El Cicle de Seminaris OEIAC començarà el dimecres 29 de maig i s’allargarà fins al 15 de novembre, quan tindrà lloc l'acte de Cloenda. Aquest cicle està dirigit a tothom que tingui interès en la IA en general i en els usos ètics i responsables en particular, així com del sector públic i privat.

Si voleu rebre l'enllaç de connexió per a les ponències, només cal que ompliu aquest formulari d’inscripció

Aquelles persones que vulgueu qualsevol altra informació sobre el cicle també podeu dirigir-vos al nostre correu electrònic suport.oeiac@udg.edu .

Tots els seminaris seran gratuïts.

Anys anteriors

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.