Cátedras de la UdG > OEIAC > Ciclo de Seminaris OEIAC
Ir al contenido (clic en "Intro")
UdG Hombre UdG Hombre
Cerrar
Menú

Observatorio de Ética en Inteligencia Artificial

III Ciclo de Seminarios OEIAC

Implicación con la sostenibilidad: del Antropoceno a la Inteligencia Artificial

El Antropoceno es un periodo complejo marcado principalmente por el impacto humano sobre el cambio climático y la destrucción de hábitats que nos demuestra la importancia de pensar de manera crítica y esmerada sobre tres elementos interdependientes: los límites planetarios, la vulnerabilidad y la agencia humana. Mientras el Antropoceno avanza sin pausa, la Inteligencia Artificial (IA) acelera la influencia humana, lo que supone que, muy probablemente, definirá el camino futuro del Antropoceno en una medida considerable. Y, claro está, lo puede hacer de una manera negativa o positiva. De momento, sabemos que los futuros geólogos encontrarán pruebas en la estratigrafía de emisiones de gases de efecto invernadero producidas a gran escala por los humanos, radionucleidos del planeta a partir de pruebas de armas nucleares, centenares de toneladas métricas de plástico producidas anualmente y hormigón suficiente para cubrir la superficie del planeta.

De momento, no podemos asegurar que la IA no sea un elemento más de esta estratigrafía. No en vano, en el último y prestigioso informe “AI Index Report” de la Universidad de Stanford se apunta que el uso de la IA y los centros de datos necesarios implican un alto consumo de energía, emisiones de gases de efecto invernadero, consumo de agua y un uso desmesurado de materiales escasos asociados con la producción, uso y vida útil de los dispositivos e infraestructura informática. Así pues, si bien los sistemas de IA también se pueden utilizar para optimizar los recursos en general y el consumo de energía en particular, esta no es actualmente la prioridad, tal como lo demuestra la eclosión de la IA generativa.

La Inteligencia Artificial como el Antropoceno han entrado en la conciencia pública y son conceptos útiles en los cuales enmarcar la justicia climática. Pero también nos hacen reflexionar sobre si todos los seres humanos son igualmente responsables de los daños derivados del Antropoceno en la Inteligencia Artificial. En este contexto, la vulnerabilidad al cambio climático y la destrucción de hábitats no pueden estar sujetos únicamente a los intercambios entre medidas efectivas de mitigación; también hay que situarlas en el debate sobre la justicia ambiental y social a escala mundial, y eso requiere, de entrada, un uso responsable y sostenible de la IA que deja atrás la hiperagencia de la humanidad en relación con el planeta.

Con el fin de aportar algunas respuestas y, claro está, también para abrir más preguntas sobre la implicación con la sostenibilidad: del Antropoceno a la Inteligencia Artificial, el OEIAC inicia este nuevo ciclo de seminarios de transferencia de conocimiento con personas invitadas de todas partes que trabajan y promueven el desarrollo de una IA responsable y sostenible.

El Ciclo de Seminarios OEIAC empezará el jueves 25 de mayo y se alargará hasta el mes de diciembre, cuando tendrá lugar el acto de clausura. Este ciclo está dirigido a todo el mundo que tenga interés en el uso e implantación de una IA responsable y sostenible en organizaciones públicas y privadas. 

Si queréis recibir un aviso previo y más detalles antes de cada uno de los seminarios solo hace falta que rellenéis este formulario de inscripción .

Aquellas personas que queráis más información también podéis contactarnos a través de nuestro correo electrónico suport.oeiac@udg.edu

Todos los seminarios serán presenciales y gratuitos para todo el mundo. Después de cada seminario se ofrecerá una grabación a través del canal YouTube de la Universidad de Girona.

Póster del ciclo de seminarios

AI for Climate: Using Political Philosophy to Reflect on the Political Challenges

25 DE MAIG, A LES 11:30H - Sala de Graus Pep Nadal (Facultat de Lletres, Universitat de Girona)

Seminari d'obertura a càrrec del Prof. Mark Coeckelbergh.

Abstract:  In the Anthropocene climate change is one of the major global challenges of our time. Artificial intelligence can help with dealing with this, but is also part of the problem. This talk discusses the political challenges raised by AI for climate by using political philosophy. The focus is on problems concerning freedom and justice. Can we avoid wide-scale manipulation, new forms of totalitarianism, and global injustice?

Mark Coeckelbergh és Catedràtic de Filosofia dels Mitjans i Tecnologia al Departament de Filosofia de la Universitat de Viena des del 2015 i va ser vicedegà de la Facultat de Filosofia i Educació fins al 2020. També és catedràtic d'ERA a l'Institut de Filosofia de l'Acadèmia Txeca de Ciències de Praga i professor convidat a WASP-HS i a la Universitat d'Uppsala. Del 2014 al 2019 també va ser professor (a temps parcial) de Tecnologia i Responsabilitat Social al Centre for Computing and Social Responsibility, De Montfort University, Regne Unit. És expresident de la Society for Philosophy and Technology (SPT) i membre del comitè de direcció d'ETHICOMP. És membre del Grup d'Experts d'Alt Nivell en Intel·ligència Artificial de la Comissió Europea així com membre. del Comitè Tècnic d'Experts (TEC) de la Fundació per a la Robòtica Responsable. Actualment, està implicat en un projecte europeu de recerca en l'àrea de robòtica PERSEO, i ha col·laborat en projectes passats DREAM, INBOTS, The SIENNA Project.

Accés a la retransmissió

Sense IA no hi ha RES!

29 DE JUNY, A LES 11:30H - Sala de Graus (Facultat de Ciències Econòmiques i Empresarials, Universitat de Girona)

Seminari a càrrec del Dr. Joaquim Meléndez.

Abstract: En un context en que la demanda energètica no pararà de créixer només podrem assolir els objectius de neutralitat climàtica si es fa un canvi en el model energètic. Això vol dir substitució de combustibles fòssils per fonts d’energia renovables (RES, Renewable Energy Resources). Aquesta substitució implicarà necessàriament un canvi substancial en la gestió energètica degut a varis factors com són una major electrificació (substitució del vehicle de combustió pel vehicle elèctric, la substitució de sistemes de calefacció de gas i gasoil per bombes de calor i per una major necessitat de refrigeració) i la substitució de combustibles fòssils en la producció elèctrica per fonts renovables com l'eòlica i la solar altament variables i volàtils. En aquest context, la intel·ligència artificial apareix com una eina catalitzadora en el desplegament d’aquest nou model energètic necessitat de prediccions de demanda i generació a curt i llarg termini, de patrons de consum, de gestió òptima de fluxos i càrregues tant en l’operació normal del sistema com en la seva adaptació en condicions de falla o pel suport a la presa de decisions per l’operació i planificació. Però, al mateix temps, l’explotació massiva de dades que perfilen els consums del clients susciten noves controvèrsies sobre aspectes ètics i de privacitat derivats del seu ús i compartició.

Joaquim Meléndez és Professor titular d’Universitat del Departament d’Enginyeria Elèctrica, Electrònica i Automàtica de la Universitat de Girona i investigador de l’Institut d’Informàtica i Aplicacions, on codirigeix el grup de recerca eXiT (Enginyera de Control i Sistemes Intel·ligents) i la Càtedra Girona SmartCity. Actualment és el coordinador del projecte Europeu RESCHOOL (Horizon Europe 2023/26) sobre el desenvolupament de comunitats energètiques i és el responsable a la UdG del projecte FEVER sobre gestió de flexibilitat en el sistema elèctric i amb anterioritat ha coordinat el projecte RESOLVD (H2020, 2020/22) sobre xarxes smart grids de baixa tensió.

Accés a la presentació

An Agent-Based Model for Poverty and Discrimination Policy-Making

14 DE SETEMBRE, A LES 11:30H - Sala de Graus (Facultat de Ciències Econòmiques i Empresarials, Universitat de Girona)

Seminari a càrrec de la investigadora Nieves Montes.

Abstract: The deceleration of global poverty reduction in the last decades suggests that traditional redistribution policies are losing their effectiveness. NGOs insistingly denounce the criminalization of poverty and the social science literature indicates that discrimination against the poor (a phenomenon known as aporophobia) could acting as a brake on the fight against poverty. In our research, we are seeking to define and build an agent-based model for the study of aporophobia, as a first step to obtain empirical evidence on the impact that discrimination has on poverty levels. In the model, aporophobia has been defined at an institutional level, with a focus on poverty reduction policies enforced in the city of Barcelona. This novel aporophobia agent-based model will allow to explore and work towards alternative paths for poverty eradication based on the mitigation of discrimination.

Nieves Montes és investigadora de l'Institut d'Investigació en Intel·ligència Artificial (IIIA-CSIC), on treballa en diferents àrees de recerca (sistemes multiagents, sistemes normatius, simulació social, raonament automatitzat, ètica i IA) i àrees d'impacte (educació i ètica, xarxes socials, Objectius de Desenvolupament Sostenible).

Accés a la presentació

Construint ecosistemes d'intel·ligència artificial responsable i sostenible

16 DE NOVEMBRE, A LES 18H - Sala d'Estudi (Facultat de Ciències Econòmiques i Empresarials, Universitat de Girona)

Jornada d'Economia i Empresa amb la Digital Catalonia Alliance, SCHUMPIT, PickleTech, EXPAI i Dear Intelligence

L’objectiu d’aquesta Jornada OEIAC-DCA és seguir construint un ecosistema d'IA responsable i sostenible enmig d'un panorama en constant evolució tant des del punt de vista empresarial com de la recerca i la innovació científica i tecnològica. Sens dubte, aquest és un repte majúscul però necessari si tenim en compte les coordenades econòmiques i empresarials. Mentre el sector privat, els governs i les organitzacions internacionals exigeixen poder oferir tecnologies d'impacte com la IA, ja siguin de comercialització o innovació per abordar múltiples reptes, sembla cada vegada més evident que les consideracions ètiques, els beneficis socials, la transparència, l'equitat i la sostenibilitat ambiental també van adquirint un pes creixent en el disseny, desenvolupament, desplegament i gestió de sistemes d'IA. En essència, això significa no només posar l'accent en el desplegament de solucions i nous processos a través de tecnologies d'IA, sinó que aquestes respectin els drets humans, els valors i els estàndards ètics i també garantir que el desenvolupament i l'ús de la IA es faci de manera que sigui beneficiós per a tota la societat i el medi ambient tant a curt com a llarg termini.

Beyond the AI hype: Balancing Innovation and Social Responsibility

12 DE DESEMBRE, A LES 16:00H - Virtual

Seminari de cloenda a càrrec de la Prof. Virginia Dignum.

Abstract: AI can extend human capabilities but requires addressing challenges in education, jobs, and biases. Taking a responsible approach involves understanding AI's nature, design choices, societal role, and ethical considerations. Recent AI developments, including foundational models, transformer models, generative models, and large language models (LLMs), raise questions about whether they are changing the paradigm of AI, and about the responsibility of those that are developing and deploying AI systems. In all these developments, is vital to understand that AI is not an autonomous entity but rather dependent on human responsibility and decision-making.

In this talk, I will further discuss the need for a responsible approach to AI that emphasize trust, cooperation, and the common good. Taking responsibility involves regulation, governance, and awareness. Ethics and dilemmas are ongoing considerations, but require understanding that trade-offs must be made and that decision processes are always contextual. Taking responsibility requires designing AI systems with values in mind, implementing regulations, governance, monitoring, agreements, and norms. Rather than viewing regulation as a constraint, it should be seen as a stepping stone for innovation, ensuring public acceptance, driving transformation, and promoting business differentiation. Responsible Artificial Intelligence (AI) is not an option but the only possible way to go forward in AI.

Virginia Dignum és Catedràtica d'Intel·ligència Artificial Responsable a la Universitat d'Umeå (Suècia) i assessora sènior de polítiques d'IA de la Fundació Wallenberg. És doctora en Intel·ligència Artificial per la Universitat d'Utrecht des de l'any 2004, membre de la Reial Acadèmia Sueca de Ciències de l'Enginyeria (IVA) i membre de l'Associació Europea d'Intel·ligència Artificial (EURAI). És membre de l'Organisme Assessor de les Nacions Unides sobre IA, de l'Associació Global sobre IA (GPAI), del grup d'experts de la UNESCO sobre la implementació de recomanacions d'IA, del grup d'experts en IA de l'OCDE, fundadora d'ALLAI, de l'Aliança holandesa d'IA i co- presidenta del Global Future Council sobre IA del WEF. Va ser membre del Grup d'Experts d'Alt Nivell de la UE en Intel·ligència Artificial i líder de l'orientació d'UNICEF per a IA i nens. És autora de " Responsible Artificial Intelligence: developing and using AI in a responsible way" publicat el 2019 per Springer.

Accés a la retransmissió

Años anteriores

Escoge qué tipos de galletas aceptas que la web de la Universidad de Girona pueda guardar en tu navegador.

Las imprescindibles para facilitar vuestra conexión. No hay opción de inhabilitarlas, dado que son las necesarias por el funcionamiento del sitio web.

Permiten recordar vuestras opciones (por ejemplo lengua o región desde la cual accedéis), con el fin de proporcionaros servicios avanzados.

Proporcionan información estadística y permiten mejorar los servicios. Utilizamos cookies de Google Analytics que podéis desactivar instalándoos este plugin.

Para ofrecer contenidos publicitarios relacionados con los intereses del usuario, bien directamente, bien por medio de terceros (“adservers”). Hay que activarlas si quieres ver los vídeos de Youtube incrustados en la web de la Universidad de Girona.