Cátedras de la UdG > OEIAC > Ciclo de Seminaris OEIAC
Ir al contenido (clic en "Intro")
UdG Hombre UdG Hombre
Cerrar
Menú

Observatorio de Ética en Inteligencia Artificial

IV Ciclo de Seminarios OEIAC

Ética, impacto social y cumplimiento legal

El IV Ciclo de Seminaris OEIAC sobre "Ética, impacto social y cumplimiento legal" trata como las consideraciones éticas a menudo configuran las leyes y, a la vez, como las normas legales pueden influir en las consideraciones éticas, generalmente con el objetivo de promover el bienestar social y proteger los derechos de las personas. A veces, sin embargo, pueden surgir situaciones en que los estándares legales y las consideraciones éticas entran en conflicto y, en estos casos, hace falta un análisis de las necesidades de las partes interesadas ya que los principios éticos y las evaluaciones de impacto social a menudo van más allá de los requisitos legales para abordar necesidades y expectativas de la sociedad. Un claro ejemplo de eso es la Ley de Inteligencia Artificial (IA) de la Unión Europea recientemente aprobada y conocida como AY Act, que no tan solo se tiene que convertir en un marco de evaluación y protección hacia los riesgos de la IA, sino también un instrumento de garantías de derechos individuales, bienestar de la comunidad, valores sociales y protección ambiental.

No obstante, en este momento se considera que la AY Act no tiene una visión lo bastante amplia y centrada en las personas ya que no protege suficientemente derechos fundamentales como la privacidad, la igualdad o la no discriminación. Si bien la normativa incluye evaluaciones de impacto sobre los derechos fundamentales, todavía hay dudas sobre cuál será el alcance real que tendrán estas evaluaciones, entre otros porque los desdobladores de sistemas d'IA solo tendrán que especificar qué medidas se adoptarán una vez se materialicen los riesgos. Por otra parte, no hay obligatoriedad de implicar partes interesadas como son la sociedad civil y las personas afectadas por la IA en el proceso de evaluación. Eso quiere decir que las organizaciones de la sociedad civil no tendrán una manera directa y legalmente vinculante de contribuir a las evaluaciones de impacto. Teniendo en cuenta que tiene que existir el derecho a una explicación de los procesos de toma de decisiones individuales, especialmente para los sistemas d'IA catalogados como de alto riesgo, eso plantea preguntas sobre el acceso a la información y la obtención de explicaciones por parte de los desdobladores de sistemas d'IA. Esta aspecto se considera especialmente relevante dada la ausencia de disposiciones como el derecho a la representación de las personas físicas o la capacidad de las organizaciones de interés público por presentar quejas ante las autoridades de control. Finalmente, haber que remarcar otro punto importante es que la AY Act solo da un primer paso para abordar los impactos ambientales de la IA y, eso, a pesar de la preocupación creciente en cómo el uso exponencial de los sistemas d'IA puede tener impactos graves en el medio ambiente.

Con el fin de aportar algunas respuestas y, claro está, también para abrir más preguntas sobre la compleja interacción entre la ética, la legislación y la tecnología, el OEIAC inicia este nuevo ciclo de seminarios de transferencia de conocimiento con personas invitadas de todas partes que trabajan y promueven los usos éticos y responsables de la IA.

El Ciclo de Seminarios OEIAC empezará el miércoles 29 de mayo y se alargará hasta el 15 de noviembre, cuando tenga lugar el acto de Clausura. Este ciclo está dirigido a todo el mundo que tenga interés en la IA en general y en los usos éticos y responsables en particular, así como del sector público y privado.  Todos los seminarios serán gratuitos.

Para recibir un aviso así como más detalles y el enlace de conexión a todas las ponencias (en streaming a través del canal YouTube de la Universidad de Girona) solo hacer falta que llenéis este formulario de inscripción 

Para cuestiones logísticas, también os pedimos que indiquéis si asistiréis a la conferencia de apertura y clausura, que tendrán lugar presencialmente en la Universidad de Girona.

Aquellas personas que queráis más información también podéis contactarnos a través de nuestro correo electrónico suport.oeiac@udg.edu

The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements

CONFERÈNCIA D'OBERTURA 

29 DE MAIG, A LES 11:00H 

Facultat de Ciències Econòmiques i Empresarials (Sala de Graus) de la Universitat de Girona i en streaming (canal YouTube UdG) 

Dr. ALESSANDRO MANTELERO, Polytechnic University of Turin

Abstract: What is the context which gave rise to the obligation to carry out a Fundamental Rights Impact Assessment (FRIA) in the AI Act? How has assessment of the impact on fundamental rights been framed by the EU legislator in the AI Act? What methodological criteria should be followed in developing the FRIA? These are the three main research questions that this speech aims to address, through both legal analysis of the relevant provisions of the AI Act and discussion of various possible models for assessment of the impact of AI on fundamental rights. The overall objective is to fill existing gaps in the theoretical and methodological elaboration of the FRIA, as outlined in the AI Act. This will facilitate the future work of EU and national bodies and AI operators in placing this key tool for human-centric and trustworthy AI at the heart of the EU approach to AI design and development.

Alessandro Mantelero is Associate Professor of Private Law and Law & Technology at Polytechnic University of Turin and EU Jean Monnet Chair in Mediterranean Digital Societies & Law. He is a member of the EDPB Support Pool of Experts, the OECD AI Expert Group on AI, Data, and Privacy, and a UNDP (United Nations Development Programme) expert on human rights and AI. He has advised several organizations on data regulation, AI, and human rights, including the Council of Europe (2016-2022), the UN, the European Commission, the EDPB, the EU Agency for Fundamental Rights. His latest book is Beyond Data. Human Rights, Ethical and Social Impact Assessment in AI (Springer-Asser, 2022, open access).

Inteligencia artificial y derechos humanos en América Latina: Tendencias y reflexiones a partir de estudios de caso

SEMINARI VIRTUAL

10 DE JUNY, A LES 17:00h 

Streaming a través del canal YouTube de la UdG

JAMILA VENTURINI, Derechos Digitales

Abstract: La sesión analizará el uso de IA desde el sector público en América Latina a partir de un conjunto de estudios de caso desarrollados por Derechos Digitales, y planteará reflexiones sobre tendencias regionales en materia de regulación de IA para discusión con las participantes. Derechos Digitales es una organización de alcance latinoamericano, independiente y sin fines de lucro, fundada en 2005 y que tiene como objetivo fundamental el desarrollo, la defensa y la promoción de los derechos humanos en el entorno digital. El trabajo de la organización se concentra en tres ejes fundamentales: Libertad de expresión, privacidad y datos personales, y derechos de autor y acceso al conocimiento. La visión de Derechos Digitales es contribuir hacia una sociedad latinoamericana más justa, inclusiva e igualitaria, en la cual Derechos Digitales participa, directamente y en coordinación con otras organizaciones, en la defensa de los derechos humanos en el entorno digital para que las tecnologías estén al servicio del desarrollo. integral de las personas.

Jamila Venturini es codirectora ejecutiva de Derechos Digitales. Su trabajo está relacionado con los impactos de las tecnologías en la libertad de expresión, privacidad y protección de datos, especialmente su interacción con el ejercicio de otros derechos fundamentales. Es periodista por la Universidad de São Paulo y magíster en Ciencias Sociales con Orientación en Educación por FLACSO Argentina. Es autora de los libros “Términos de servicio y derechos humanos: un análisis de los contratos de plataformas en línea” y “Recursos Educacionais Abertos no Brasil” y miembro de la Red Latinoamericana de Estudios en Vigilancia, Tecnología y Sociedad (Lavits) y del Colectivo Intervozes.

Biaixos algorítmics i privadesa de dades: Com podem utilitzar la informàtica teòrica per abordar un problema interdisciplinari?

SEMINARI VIRTUAL

16 DE SETEMBRE, A LES 17:00H 

Streaming a través del canal YouTube de la UdG

SÍLVIA CASACUBERTAUniversity of Oxford (Global Rhodes Scholar) & Stanford University

Abstract: Avui en dia, els algoritmes estan cada vegada més presents en situacions que involucren dades privades i es fan servir per prendre decisions d’alta importància en les nostres vides. Aquesta presència creixent dels algoritmes en tots els àmbits ha comportat diversos casos de violacions de privacitat i també s’ha demostrat repetidament que certes preses de decisions automatitzades mostren biaixos i discriminen contra certs subgrups. Tot i que aquest és un problema interdisciplinari, el camp de la informàtica també hi ha de participar, i hi està participant, aportant-hi solucions de caire tècnic. En aquesta xerrada, descriurem com el camp de la informàtica teòrica ha desenvolupat eines rigoroses i amb garanties matemàtiques per estudiar la privacitat i l’equitat algorítmica. A través de les lliçons apreses amb el desenvolupament de la criptografia durant el segle XX, parlarem de com definir “privacitat” i “equitat” de manera formal i de com podem construir mètodes que ens permetin preservar aquestes propietats. Aquests mètodes han esdevingut fonamentals en moltes aplicacions pràctiques, i a més han demostrat tenir connexions molt profundes amb altres camps de la informàtica. En general, veurem per què dur a terme recerca responsable en informàtica és necessari a nivell social i fascinant a nivell tècnic.

Sílvia Casacuberta és actualment a la Universitat d'Oxford (Global Rhodes Scholar) després de graduar-se summa cum laude a Harvard en Matemàtiques i Informàtica i on va rebre el Premi Captain Jonathan Fay, atorgat a les tres millors tesis de graduació de la Universitat de Harvard. Després d'una estada al Max Planck Institute for Intelligent Systems, començarà el doctorat en informàtica a la Universitat de Stanford, amb el suport d'una beca de postgrau de la mateixa universitat. Els seus interessos es centren en la informàtica teòrica i les seves implicacions socials, com ara la privadesa de dades, la criptografia, l'equitat algorítmica, la teoria de l'aprenentatge i els algorismes de matrius. 

La infrastructuralització de la intel·ligència artificial: Implicacions per als drets fonamentals

SEMINARI VIRTUAL

21 D'OCTUBRE, A LES 17:00H
Streaming a través del canal YouTube de la UdG

Dr. ROSER PUJADAS, University College London

Abstract: Els discursos mediàtics i dels líders tecnològics tendeixen a parlar de la intel·ligència artificial (IA) en singular, però els models i les aplicacions d’IA són múltiples i distribuïdes. Malgrat la tendència a associar la IA a aplicacions amb les quals interactuem directament (ex. ChatGPT), els sistemes d’IA s’estan convertint en infrastructurals, és a dir, formen part de les infraestructures digitals de moltes de les nostres pràctiques quotidianes. Encara que potser no en siguem conscients, darrere de les plataformes digitals que usem a diari, com ara plataformes de comerç, cercadors, o xarxes socials, hi ha tot un entramat de sistemes de múltiples empreses que interactuen en temps real i usen IA per personalitzar continguts, ofertes i determinar preus. Aquests algoritmes es desenvolupen segons uns models de negoci que es basen principalment a generar ingressos a través de la publicitat i promoció de contingut. Tal com desgranaré en aquesta ponència, això ha dut a males pràctiques, que afecten diversos drets fonamentals i fins i tot la salut democràtica.

Roser Pujadas és professora d’Innovació Digital al Departament de Ciència, Tecnologia, Enginyeria i Polítiques Públiques de la University College London, on imparteix cursos de grau i postgrau sobre Drets digitals; Innovació tecnològica i social; Tecnologia i polítiques públiques. Prèviament va ser investigadora postdoctoral al grup de Sistemes d’Informació i Innovació Digital, de la London School of Economics, on també es va doctorar. Estudiosa de l’economia digital, des d’una perspectiva sociotècnica, la seva recerca actual se centra en les plataformes digitals i la infrastructuralització de la intel·ligència artificial.

Concerns arising from large scale datasets and AI systems and approaches for structural change

CONFERÈNCIA DE CLOENDA

15 DE NOVEMBRE, A LES 11H 

Presencial a la Universitat de Girona i en streaming (canal YouTube UdG)

Dr. ABEBA BIRHANE

Mozilla Foundation & Trinity College Dublin

Abstract: As Artificial Intelligence systems pervade day-to-day life, the need for these systems to be robust, fair, accurate, and just has become of urgent importance. In this talk, I present work that highlights numerous concerns arising from large scale datasets and AI systems and review some approaches to both incremental improvements as well as shepherding broader structural change.

Abeba Birhane researches human behaviour, social systems, and responsible and ethical AI – work for which she was recently featured in Wired UK and TIME on the TIME100 Most Influential People in AI list. Birhane also serves on the United Nations Secretary-General’s AI Advisory Body and the newly-convened AI Advisory Council in Ireland.

Años anteriores

Escoge qué tipos de galletas aceptas que la web de la Universidad de Girona pueda guardar en tu navegador.

Las imprescindibles para facilitar vuestra conexión. No hay opción de inhabilitarlas, dado que son las necesarias por el funcionamiento del sitio web.

Permiten recordar vuestras opciones (por ejemplo lengua o región desde la cual accedéis), con el fin de proporcionaros servicios avanzados.

Proporcionan información estadística y permiten mejorar los servicios. Utilizamos cookies de Google Analytics que podéis desactivar instalándoos este plugin.

Para ofrecer contenidos publicitarios relacionados con los intereses del usuario, bien directamente, bien por medio de terceros (“adservers”). Hay que activarlas si quieres ver los vídeos de Youtube incrustados en la web de la Universidad de Girona.