UdG Chairs > OEIAC > OEIAC Cycle of Seminars
Go to content (click on Intro)
UdG Home UdG Home
Close
Menu
Machine translation, text awaiting revision

Observatory of Ethics in Artificial Intelligence

4th OEIAC Seminar Cycle

Ethics, social impact and legal fulfilment

The IV Cycle of Seminaris OEIAC about "Ethics, social impact and legal fulfilment" is as the ethical considerations often configure the laws and, at the same time, as the legal rules they can influence on the ethical considerations, generally with the objective of promoting the social welfare and protecting the rights of the persons. Sometimes, however, situations in which the legal standards and the ethical considerations come into conflict can appear and, in these cases, an analysis of the needs of the interested parts is necessary since the ethical principles and the evaluations of social impact often go beyond the legal requirements to approach needs and expectations of the society. A clear example of this is the Law of Artificial Intelligence (IA) of the European Union recently approved and known as AI Act, which not just has to become a frame of evaluation and protection towards the risks of the IA, but also an instrument of guarantees of individual rights, welfare of the community, social values and environmental protection.

However, in this moment is considered that the AI Act does not have a vision extensive enough and centred in the persons since it does not protect right enough fundamental as the privacy, the equality or the no discrimination. Although the regulations include evaluations of impact about the fundamental rights, there are still doubts about which it will be the real scope that they will have these evaluations, among others because the defolders of systems d'IA will only have to specify which measures will be adopted once the risks are materialised. On the other hand, there is not forcing of implying interested parts as the civil society and the persons affected by the IA in the evaluation process are. This means that civil society organisations will not have a direct and legally binding way to contribute to impact assessments. Taking into account that there has to be the right to an explanation of the processes of decision making individual, especially for the catalogued systems d'IA as of high risk, this brings up questions about the access to the information and the obtaining of explanations on the part of the defolders of systems d'IA. This aspect is regarded as particularly relevant given the absence of considerations such as the right to the representation of natural persons or the capacity of the organisations of public interest for lodging complaints with the controlling bodies. Finally, it be necessary to remark another important point it is that the AI Act only a first step makes to approach the environmental impacts of the IA and, this, in spite of the increasing worry in that how the exponential use of the systems d'IA can have severe impacts in the environment.

In order to bring some answers and, of course, also to open more questions about the complex interaction among the ethics, the legislation and the technology, the OEIAC start this new cycle of seminars of transfer from knowledge with persons invited of farming implement that they work and promote the uses ethical and responsible for the IA.

The OEIAC Seminar Cycle starts on Wednesday, 29 May, and will run until 15 November, the day of its closing ceremony. This cycle is aimed at anybody who is interested in AI in general and in its ethical and responsible uses in particular, as well as from the public and private sector.  All seminars will be free.

To receive a warning as well as more details and the link of connection to all the reports (in streaming across the canal YouTube of the University of Girona) only it be necessary that you fill in this form of inscription 

For logistical questions, we also ask you that you indicate, that they will take place in the University of Girona in an on-site way, if you will attend the lecture of opening and ending.

You, those persons who want more information also, can contact us through our electronic mail suport.oeiac@udg.edu

The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements

CONFERÈNCIA D'OBERTURA 

29 DE MAIG, A LES 11:00H 

Facultat de Ciències Econòmiques i Empresarials (Sala de Graus) de la Universitat de Girona i en streaming (canal YouTube UdG) 

Dr. ALESSANDRO MANTELERO, Polytechnic University of Turin

Abstract: What is the context which gave rise to the obligation to carry out a Fundamental Rights Impact Assessment (FRIA) in the AI Act? How has assessment of the impact on fundamental rights been framed by the EU legislator in the AI Act? What methodological criteria should be followed in developing the FRIA? These are the three main research questions that this speech aims to address, through both legal analysis of the relevant provisions of the AI Act and discussion of various possible models for assessment of the impact of AI on fundamental rights. The overall objective is to fill existing gaps in the theoretical and methodological elaboration of the FRIA, as outlined in the AI Act. This will facilitate the future work of EU and national bodies and AI operators in placing this key tool for human-centric and trustworthy AI at the heart of the EU approach to AI design and development.

Alessandro Mantelero is Associate Professor of Private Law and Law & Technology at Polytechnic University of Turin and EU Jean Monnet Chair in Mediterranean Digital Societies & Law. He is a member of the EDPB Support Pool of Experts, the OECD AI Expert Group on AI, Data, and Privacy, and a UNDP (United Nations Development Programme) expert on human rights and AI. He has advised several organizations on data regulation, AI, and human rights, including the Council of Europe (2016-2022), the UN, the European Commission, the EDPB, the EU Agency for Fundamental Rights. His latest book is Beyond Data. Human Rights, Ethical and Social Impact Assessment in AI (Springer-Asser, 2022, open access).

Inteligencia artificial y derechos humanos en América Latina: Tendencias y reflexiones a partir de estudios de caso

SEMINARI VIRTUAL

10 DE JUNY, A LES 17:00h 

Streaming a través del canal YouTube de la UdG

JAMILA VENTURINI, Derechos Digitales

Abstract: La sesión analizará el uso de IA desde el sector público en América Latina a partir de un conjunto de estudios de caso desarrollados por Derechos Digitales, y planteará reflexiones sobre tendencias regionales en materia de regulación de IA para discusión con las participantes. Derechos Digitales es una organización de alcance latinoamericano, independiente y sin fines de lucro, fundada en 2005 y que tiene como objetivo fundamental el desarrollo, la defensa y la promoción de los derechos humanos en el entorno digital. El trabajo de la organización se concentra en tres ejes fundamentales: Libertad de expresión, privacidad y datos personales, y derechos de autor y acceso al conocimiento. La visión de Derechos Digitales es contribuir hacia una sociedad latinoamericana más justa, inclusiva e igualitaria, en la cual Derechos Digitales participa, directamente y en coordinación con otras organizaciones, en la defensa de los derechos humanos en el entorno digital para que las tecnologías estén al servicio del desarrollo. integral de las personas.

Jamila Venturini es codirectora ejecutiva de Derechos Digitales. Su trabajo está relacionado con los impactos de las tecnologías en la libertad de expresión, privacidad y protección de datos, especialmente su interacción con el ejercicio de otros derechos fundamentales. Es periodista por la Universidad de São Paulo y magíster en Ciencias Sociales con Orientación en Educación por FLACSO Argentina. Es autora de los libros “Términos de servicio y derechos humanos: un análisis de los contratos de plataformas en línea” y “Recursos Educacionais Abertos no Brasil” y miembro de la Red Latinoamericana de Estudios en Vigilancia, Tecnología y Sociedad (Lavits) y del Colectivo Intervozes.

Biaixos algorítmics i privadesa de dades: Com podem utilitzar la informàtica teòrica per abordar un problema interdisciplinari?

SEMINARI VIRTUAL

16 DE SETEMBRE, A LES 17:00H 

Streaming a través del canal YouTube de la UdG

SÍLVIA CASACUBERTAUniversity of Oxford (Global Rhodes Scholar) & Stanford University

Abstract: Avui en dia, els algoritmes estan cada vegada més presents en situacions que involucren dades privades i es fan servir per prendre decisions d’alta importància en les nostres vides. Aquesta presència creixent dels algoritmes en tots els àmbits ha comportat diversos casos de violacions de privacitat i també s’ha demostrat repetidament que certes preses de decisions automatitzades mostren biaixos i discriminen contra certs subgrups. Tot i que aquest és un problema interdisciplinari, el camp de la informàtica també hi ha de participar, i hi està participant, aportant-hi solucions de caire tècnic. En aquesta xerrada, descriurem com el camp de la informàtica teòrica ha desenvolupat eines rigoroses i amb garanties matemàtiques per estudiar la privacitat i l’equitat algorítmica. A través de les lliçons apreses amb el desenvolupament de la criptografia durant el segle XX, parlarem de com definir “privacitat” i “equitat” de manera formal i de com podem construir mètodes que ens permetin preservar aquestes propietats. Aquests mètodes han esdevingut fonamentals en moltes aplicacions pràctiques, i a més han demostrat tenir connexions molt profundes amb altres camps de la informàtica. En general, veurem per què dur a terme recerca responsable en informàtica és necessari a nivell social i fascinant a nivell tècnic.

Sílvia Casacuberta és actualment a la Universitat d'Oxford (Global Rhodes Scholar) després de graduar-se summa cum laude a Harvard en Matemàtiques i Informàtica i on va rebre el Premi Captain Jonathan Fay, atorgat a les tres millors tesis de graduació de la Universitat de Harvard. Després d'una estada al Max Planck Institute for Intelligent Systems, començarà el doctorat en informàtica a la Universitat de Stanford, amb el suport d'una beca de postgrau de la mateixa universitat. Els seus interessos es centren en la informàtica teòrica i les seves implicacions socials, com ara la privadesa de dades, la criptografia, l'equitat algorítmica, la teoria de l'aprenentatge i els algorismes de matrius. 

La infrastructuralització de la intel·ligència artificial: Implicacions per als drets fonamentals

SEMINARI VIRTUAL

21 D'OCTUBRE, A LES 17:00H
Streaming a través del canal YouTube de la UdG

Dr. ROSER PUJADAS, University College London

Abstract: Els discursos mediàtics i dels líders tecnològics tendeixen a parlar de la intel·ligència artificial (IA) en singular, però els models i les aplicacions d’IA són múltiples i distribuïdes. Malgrat la tendència a associar la IA a aplicacions amb les quals interactuem directament (ex. ChatGPT), els sistemes d’IA s’estan convertint en infrastructurals, és a dir, formen part de les infraestructures digitals de moltes de les nostres pràctiques quotidianes. Encara que potser no en siguem conscients, darrere de les plataformes digitals que usem a diari, com ara plataformes de comerç, cercadors, o xarxes socials, hi ha tot un entramat de sistemes de múltiples empreses que interactuen en temps real i usen IA per personalitzar continguts, ofertes i determinar preus. Aquests algoritmes es desenvolupen segons uns models de negoci que es basen principalment a generar ingressos a través de la publicitat i promoció de contingut. Tal com desgranaré en aquesta ponència, això ha dut a males pràctiques, que afecten diversos drets fonamentals i fins i tot la salut democràtica.

Roser Pujadas és professora d’Innovació Digital al Departament de Ciència, Tecnologia, Enginyeria i Polítiques Públiques de la University College London, on imparteix cursos de grau i postgrau sobre Drets digitals; Innovació tecnològica i social; Tecnologia i polítiques públiques. Prèviament va ser investigadora postdoctoral al grup de Sistemes d’Informació i Innovació Digital, de la London School of Economics, on també es va doctorar. Estudiosa de l’economia digital, des d’una perspectiva sociotècnica, la seva recerca actual se centra en les plataformes digitals i la infrastructuralització de la intel·ligència artificial.

Concerns arising from large scale datasets and AI systems and approaches for structural change

CONFERÈNCIA DE CLOENDA

15 DE NOVEMBRE, A LES 11H 

Presencial a la Universitat de Girona i en streaming (canal YouTube UdG)

Dr. ABEBA BIRHANE

Mozilla Foundation & Trinity College Dublin

Abstract: As Artificial Intelligence systems pervade day-to-day life, the need for these systems to be robust, fair, accurate, and just has become of urgent importance. In this talk, I present work that highlights numerous concerns arising from large scale datasets and AI systems and review some approaches to both incremental improvements as well as shepherding broader structural change.

Abeba Birhane researches human behaviour, social systems, and responsible and ethical AI – work for which she was recently featured in Wired UK and TIME on the TIME100 Most Influential People in AI list. Birhane also serves on the United Nations Secretary-General’s AI Advisory Body and the newly-convened AI Advisory Council in Ireland.

Previous years

Choose which types of cookies you accept which the University of Girona can store in your browser.

Those that are essential for enabling your connection. There is no option for disabling them, as they are necessary for the functioning of the website.

These enable your options to be remembered (for example language or region you are accessing from), to provide you with advanced services.

They provide statistical information and enable improved services. We use Google Analytics cookies which you can deactivate by installing this plugin.

To offer advertising contents relating to the interests of users, either directly, or through third parties (“adservers”). These must be activated if you wish to see the YouTube videos uploaded to the University of Girona’s website.