Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

IV Cicle de Seminaris OEIAC

Ètica, impacte social i compliment legal

El IV Cicle de Seminaris OEIAC sobre "Ètica, impacte social i compliment legal" tracta com les consideracions ètiques sovint configuren les lleis i, a la vegada, com les normes legals poden influir en les consideracions ètiques, generalment amb l'objectiu de promoure el benestar social i protegir els drets de les persones. De vegades, però, poden sorgir situacions en què els estàndards legals i les consideracions ètiques entren en conflicte i, en aquests casos, cal una anàlisi de les necessitats de les parts interessades ja que els principis ètics i les avaluacions d'impacte social sovint van més enllà dels requisits legals per abordar necessitats i expectatives de la societat. Un clar exemple d’això és la Llei d’Intel·ligència Artificial (IA) de la Unió Europea recentment aprovada i coneguda com a AI Act, que no tan sols ha d'esdevenir un marc d'avaluació i protecció envers els riscos de la IA, sinó també un instrument de garanties de drets individuals, benestar de la comunitat, valors socials i protecció ambiental.

No obstant, en aquest moment es considera que la AI Act no té una visió prou àmplia i centrada en les persones ja que no protegeix suficientment drets fonamentals com la privadesa, la igualtat o la no discriminació. Si bé la normativa inclou avaluacions d'impacte sobre els drets fonamentals, encara hi ha dubtes sobre quin serà l’abast real que tindran aquestes avaluacions, entre altres perquè els desplegadors de sistemes d’IA només hauran d'especificar quines mesures s'adoptaran un cop es materialitzin els riscos. D’altra banda, no hi ha obligatorietat d’implicar parts interessades com són la societat civil i les persones afectades per la IA en el procés d'avaluació. Això vol dir que les organitzacions de la societat civil no tindran una manera directa i legalment vinculant de contribuir a les avaluacions d'impacte. Tenint en compte que ha d’existir el dret a una explicació dels processos de presa de decisions individuals, especialment per als sistemes d'IA catalogats com a d'alt risc, això planteja preguntes sobre l'accés a la informació i l’obtenció d’explicacions per part dels desplegadors de sistemes d’IA. Aquesta aspecte es considera especialment rellevant donada l'absència de disposicions com ara el dret a la representació de les persones físiques o la capacitat de les organitzacions d'interès públic per presentar queixes davant les autoritats de control. Finalment, cal remarcar un altre punt important és que la AI Act només fa un primer pas per abordar els impactes ambientals de la IA i, això, malgrat la preocupació creixent en com l'ús exponencial dels sistemes d'IA pot tenir impactes greus en el medi ambient.

Per tal d’aportar algunes respostes i, és clar, també per obrir més preguntes sobre la complexa interacció entre l'ètica, la legislació i la tecnologia, l’OEIAC inicia aquest nou cicle de seminaris de transferència de coneixement amb persones convidades d’arreu que treballen i promouen els usos ètics i responsables de la IA.

El Cicle de Seminaris OEIAC començarà el dimecres 29 de maig i s’allargarà fins al 15 de novembre, quan tindrà lloc l'acte de Cloenda. Aquest cicle està dirigit a tothom que tingui interès en la IA en general i en els usos ètics i responsables en particular, així com del sector públic i privat. ​Tots els seminaris seran gratuïts.

Per rebre un avís així com més detalls i l'enllaç de connexió a totes les ponències (en streaming a través del canal YouTube de la Universitat de Girona) només cal que ompliu aquest formulari d’inscripció 

Per qüestions logístiques, també us demanem que indiqueu si assistireu a la conferència d'obertura i cloenda, que tindran lloc presencialment a la Universitat de Girona.

Aquelles persones que vulgueu més informació també podeu contactar-nos a través del nostre correu electrònic suport.oeiac@udg.edu

The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements

CONFERÈNCIA D'OBERTURA 

29 DE MAIG, A LES 11:00H 

Facultat de Ciències Econòmiques i Empresarials (Sala de Graus) de la Universitat de Girona i en streaming (canal YouTube UdG) 

Dr. ALESSANDRO MANTELERO, Polytechnic University of Turin

Abstract: What is the context which gave rise to the obligation to carry out a Fundamental Rights Impact Assessment (FRIA) in the AI Act? How has assessment of the impact on fundamental rights been framed by the EU legislator in the AI Act? What methodological criteria should be followed in developing the FRIA? These are the three main research questions that this speech aims to address, through both legal analysis of the relevant provisions of the AI Act and discussion of various possible models for assessment of the impact of AI on fundamental rights. The overall objective is to fill existing gaps in the theoretical and methodological elaboration of the FRIA, as outlined in the AI Act. This will facilitate the future work of EU and national bodies and AI operators in placing this key tool for human-centric and trustworthy AI at the heart of the EU approach to AI design and development.

Alessandro Mantelero is Associate Professor of Private Law and Law & Technology at Polytechnic University of Turin and EU Jean Monnet Chair in Mediterranean Digital Societies & Law. He is a member of the EDPB Support Pool of Experts, the OECD AI Expert Group on AI, Data, and Privacy, and a UNDP (United Nations Development Programme) expert on human rights and AI. He has advised several organizations on data regulation, AI, and human rights, including the Council of Europe (2016-2022), the UN, the European Commission, the EDPB, the EU Agency for Fundamental Rights. His latest book is Beyond Data. Human Rights, Ethical and Social Impact Assessment in AI (Springer-Asser, 2022, open access).

Inteligencia artificial y derechos humanos en América Latina: Tendencias y reflexiones a partir de estudios de caso

SEMINARI VIRTUAL

10 DE JUNY, A LES 17:00h 

Streaming a través del canal YouTube de la UdG

JAMILA VENTURINI, Derechos Digitales

Abstract: La sesión analizará el uso de IA desde el sector público en América Latina a partir de un conjunto de estudios de caso desarrollados por Derechos Digitales, y planteará reflexiones sobre tendencias regionales en materia de regulación de IA para discusión con las participantes. Derechos Digitales es una organización de alcance latinoamericano, independiente y sin fines de lucro, fundada en 2005 y que tiene como objetivo fundamental el desarrollo, la defensa y la promoción de los derechos humanos en el entorno digital. El trabajo de la organización se concentra en tres ejes fundamentales: Libertad de expresión, privacidad y datos personales, y derechos de autor y acceso al conocimiento. La visión de Derechos Digitales es contribuir hacia una sociedad latinoamericana más justa, inclusiva e igualitaria, en la cual Derechos Digitales participa, directamente y en coordinación con otras organizaciones, en la defensa de los derechos humanos en el entorno digital para que las tecnologías estén al servicio del desarrollo. integral de las personas.

Jamila Venturini es codirectora ejecutiva de Derechos Digitales. Su trabajo está relacionado con los impactos de las tecnologías en la libertad de expresión, privacidad y protección de datos, especialmente su interacción con el ejercicio de otros derechos fundamentales. Es periodista por la Universidad de São Paulo y magíster en Ciencias Sociales con Orientación en Educación por FLACSO Argentina. Es autora de los libros “Términos de servicio y derechos humanos: un análisis de los contratos de plataformas en línea” y “Recursos Educacionais Abertos no Brasil” y miembro de la Red Latinoamericana de Estudios en Vigilancia, Tecnología y Sociedad (Lavits) y del Colectivo Intervozes.

Biaixos algorítmics i privadesa de dades: Com podem utilitzar la informàtica teòrica per abordar un problema interdisciplinari?

SEMINARI VIRTUAL

16 DE SETEMBRE, A LES 17:00H 

Streaming a través del canal YouTube de la UdG

SÍLVIA CASACUBERTAUniversity of Oxford (Global Rhodes Scholar) & Stanford University

Abstract: Avui en dia, els algoritmes estan cada vegada més presents en situacions que involucren dades privades i es fan servir per prendre decisions d’alta importància en les nostres vides. Aquesta presència creixent dels algoritmes en tots els àmbits ha comportat diversos casos de violacions de privacitat i també s’ha demostrat repetidament que certes preses de decisions automatitzades mostren biaixos i discriminen contra certs subgrups. Tot i que aquest és un problema interdisciplinari, el camp de la informàtica també hi ha de participar, i hi està participant, aportant-hi solucions de caire tècnic. En aquesta xerrada, descriurem com el camp de la informàtica teòrica ha desenvolupat eines rigoroses i amb garanties matemàtiques per estudiar la privacitat i l’equitat algorítmica. A través de les lliçons apreses amb el desenvolupament de la criptografia durant el segle XX, parlarem de com definir “privacitat” i “equitat” de manera formal i de com podem construir mètodes que ens permetin preservar aquestes propietats. Aquests mètodes han esdevingut fonamentals en moltes aplicacions pràctiques, i a més han demostrat tenir connexions molt profundes amb altres camps de la informàtica. En general, veurem per què dur a terme recerca responsable en informàtica és necessari a nivell social i fascinant a nivell tècnic.

Sílvia Casacuberta és actualment a la Universitat d'Oxford (Global Rhodes Scholar) després de graduar-se summa cum laude a Harvard en Matemàtiques i Informàtica i on va rebre el Premi Captain Jonathan Fay, atorgat a les tres millors tesis de graduació de la Universitat de Harvard. Després d'una estada al Max Planck Institute for Intelligent Systems, començarà el doctorat en informàtica a la Universitat de Stanford, amb el suport d'una beca de postgrau de la mateixa universitat. Els seus interessos es centren en la informàtica teòrica i les seves implicacions socials, com ara la privadesa de dades, la criptografia, l'equitat algorítmica, la teoria de l'aprenentatge i els algorismes de matrius. 

La infrastructuralització de la intel·ligència artificial: Implicacions per als drets fonamentals

SEMINARI VIRTUAL

21 D'OCTUBRE, A LES 17:00H
Streaming a través del canal YouTube de la UdG

Dr. ROSER PUJADAS, University College London

Abstract: Els discursos mediàtics i dels líders tecnològics tendeixen a parlar de la intel·ligència artificial (IA) en singular, però els models i les aplicacions d’IA són múltiples i distribuïdes. Malgrat la tendència a associar la IA a aplicacions amb les quals interactuem directament (ex. ChatGPT), els sistemes d’IA s’estan convertint en infrastructurals, és a dir, formen part de les infraestructures digitals de moltes de les nostres pràctiques quotidianes. Encara que potser no en siguem conscients, darrere de les plataformes digitals que usem a diari, com ara plataformes de comerç, cercadors, o xarxes socials, hi ha tot un entramat de sistemes de múltiples empreses que interactuen en temps real i usen IA per personalitzar continguts, ofertes i determinar preus. Aquests algoritmes es desenvolupen segons uns models de negoci que es basen principalment a generar ingressos a través de la publicitat i promoció de contingut. Tal com desgranaré en aquesta ponència, això ha dut a males pràctiques, que afecten diversos drets fonamentals i fins i tot la salut democràtica.

Roser Pujadas és professora d’Innovació Digital al Departament de Ciència, Tecnologia, Enginyeria i Polítiques Públiques de la University College London, on imparteix cursos de grau i postgrau sobre Drets digitals; Innovació tecnològica i social; Tecnologia i polítiques públiques. Prèviament va ser investigadora postdoctoral al grup de Sistemes d’Informació i Innovació Digital, de la London School of Economics, on també es va doctorar. Estudiosa de l’economia digital, des d’una perspectiva sociotècnica, la seva recerca actual se centra en les plataformes digitals i la infrastructuralització de la intel·ligència artificial.

Concerns arising from large scale datasets and AI systems and approaches for structural change

CONFERÈNCIA DE CLOENDA

15 DE NOVEMBRE, A LES 11H 

Presencial a la Universitat de Girona i en streaming (canal YouTube UdG)

Dr. ABEBA BIRHANE

Mozilla Foundation & Trinity College Dublin

Abstract: As Artificial Intelligence systems pervade day-to-day life, the need for these systems to be robust, fair, accurate, and just has become of urgent importance. In this talk, I present work that highlights numerous concerns arising from large scale datasets and AI systems and review some approaches to both incremental improvements as well as shepherding broader structural change.

Abeba Birhane researches human behaviour, social systems, and responsible and ethical AI – work for which she was recently featured in Wired UK and TIME on the TIME100 Most Influential People in AI list. Birhane also serves on the United Nations Secretary-General’s AI Advisory Body and the newly-convened AI Advisory Council in Ireland.

Anys anteriors

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.