Ir al contenido (clic en "Intro")
UdG Hombre UdG Hombre
Cerrar
Menú

Observatorio de Ética en Inteligencia Artificial

V Ciclo de Seminarios OEIAC

Por una IA responsable: Capacitación sociotécnica y pensamiento crítico

La tecnología ha sido, desde hace tiempo, clave en la evolución de la sociedad y la economía, facilitando el acceso al conocimiento y, muy particularmente, fortaleciendo las relaciones entre espacios y personas.Pero tal como a sucedido anteriormente con otras tecnologías, la irrupción de la IA no solo abre posibilidades inéditas sino que exige una capacitación sociotécnica y un pensamiento crítico por aprovechar su potencial y, al mismo tiempo, por para garantizar que la IA se integre a nuestra vida cotidiana de manera justa, equitativa y al servicio del bien colectivo, con políticas públicas y desarrolladores tecnológicos corresponsabilizados en este objetivo que se denomina IA responsable.

Este nuevo Ciclo OEIAC trata de cómo la capacitación sociotécnica y el pensamiento crítico son ingredientes clave para llevar a cabo una IA responsable en todos los ámbitos de nuestra vida cotidiana.Por una parte, la capacitación va más allá de la simple formación técnica ya que tiene que incluir una alfabetización digital amplia que permita a la sociedad comprender tanto el funcionamiento como las implicaciones y los impactos sociales de la IA.Desde desarrolladores hasta desdobladores y, por supuesto, los usuarios finales, todo el mundo tendría que tener unos conocimientos sociotécnicos básicos por utilizar e interactuar con las tecnologías de IA de una forma que sea responsable; ya sea para ampliar su uso y aumentar nuestras capacidades en el proceso, hasta limitar su uso, si aplica, cuando la aplicación de sistemas de IA no es ético y supone desde una vulneración de derechos fundamentales a una propagación de errores y/o sesgos sin control.

Por otra parte, el pensamiento crítico es complemento indispensable como motor para tomar decisiones informadas y preservar la autonomía de las personas ya que se basa en mantener e, incluso, ampliar una vertiente analítica y otra evaluadora sobre todo aquello que tiene que ver con la IA.En este sentido, se puede decir que no es suficiente con saber cómo funciona la IA, hayr que cuestionar continuamente si los objetivos, los resultados y las posibles consecuencias, especialmente en términos de si son aceptables y, en caso de que lo sean, si pueden ser muy o poco mejorables.Eso implica analizar o evaluar la estructura y consistencia de los razonamientos, particularmente opiniones o afirmaciones que la gente acepta como verdaderos en el contexto de la IA.Esta evaluación puede basarse en la observación, en la experiencia, en el razonamiento o en el método científico.En este sentido, es básico ir más allá de las impresiones y opiniones particulares, y eso implica la necesidad de aplicar claridad, exactitud, precisión, evidencia y equidad en el proceso.

A fin de que los dos ingredientes, la capacitación sociotécnica y el pensamiento crítico, sean desarrollados de una forma verdaderamente transformadora hacen falta dos enfoques específicos: el relacional y el deontológico.El primero pone el acento en las dinámicas de interacción entre los actores de la hélice cuádruple: industria, academia, gobierno y sociedad civil.La incorporación de la IA puede alterar sustancialmente estas relaciones, tanto en la cooperación como en los flujos de poder.Por lo tanto, es esencial diseñar entornos colaborativos que promuevan la inclusión, la transparencia y la confianza mutua, asegurando que la tecnología actúe como puente y no como barrera entre los diferentes agentes.En este contexto, las instituciones públicas y las empresas tienen un papel clave al facilitar espacios de diálogo y co-creación, donde se preserva la calidad de las interacciones humanas fundamentales para la innovación responsable.La IA tiene que servir para potenciar, nunca no para sustituir, estas redes de valor compartido que son el núcleo del ecosistema de innovación.

El segundo, el deontológico, establece los principios éticos que tienen que regir el uso de la IA por parte de la cuádruple hélice.Es bien sabido que la implantación ética de la IA tiene unos estándares y protocolos de actuación claros y que, en la actualidad, muchos de ellos han sido plasmados también a través de normativas sobre datos e IA en el contexto europeo.Teniendo en cuenta esta situación y el hecho de que el OEIAC ha desplegado su Modelo PIO sobre Obligaciones y Derechos, es imprescindible tener una mayor alfabetización sobre su contenido e implementación  por parte de todos los stakeholders implicados, de los ciudadanos hasta los investigadores o los cargos públicos.Eso implica una mayor formación introductoria y de capacitación mediante esta base deontológica sólida que puede asegurar que la IA favorezca un desarrollo tecnológico responsable.

De hecho, tanto el enfoque relacional como el deontológico se utilizan para recordar que la tecnología, en este caso de la IA, tienen que estar al servicio del refuerzo de las dinámicas colaborativas y del respeto a los principios democráticos básicos.Eso requiere mecanismos de gobierno que involucren todos los actores de manera equitativa, asegurando que los avances en IA no debiliten, sino que fortalezcan, los lazos esenciales que dan sentido a la cooperación entre la cuádruple hélice y, en definitiva, al bien común.

Con el fin de aportar algunas respuestas y, claro está, también para abrir más preguntas sobre la compleja interacción entre la capacitación sociotécnica y el pensamiento crítico a través de los enfoques relacional y deontológico, el OEIAC inicia este nuevo ciclo de seminarios de transferencia de conocimiento con personas invitadas de todas partes que trabajan y promueven los usos éticos y responsables de la IA.

El Ciclo OEIAC empezará el mes de mayo y se alargará hasta el mes de noviembre, cuando tendrá lugar el acto de Clausura.Este ciclo está dirigido a todo el mundo que tiene interés en la IA en general y en los usos éticos y responsables en particular, así como del sector público y privado.

Presentación del Modelo PIO Salud

SEMINARIO PRESENCIAL

23 DE MAYO, A LAS 11.30H

Sala Antònia Adroher (Rectorado), Universidad de Girona

Nota: La entrada es libre y gratuita pero, por razones logísticas y de organización, aquellas personas que queráis asistir deberán realizar vuestra inscripción a través del formulario: https://forms.gle/UryMV36QQQLWr41pB6

ALEXANDRA LILLO, técnica jurista especialista en IA y salud del Observatorio de Ética en Inteligencia Artificial de Cataluña (OEIAC)

ALBERT SABATER, director de la OEIAC y profesor Serra Húnter en la Universidad de Girona

SUSANNA AUSSÓ, secretaria del Programa para la promoción y desarrollo de la IA en el Sistema de Salud de Cataluña, TIC Salud Social

JUAN GONZÁLEZ, fundador y director de Pickle Tech y director de innovación en ABCDx y especialista en IA para dispositivos médicos

Con la bienvenida institucional de

MARIA GALINDO, secretaria de Políticas Digitales de la Generalitat de Catalunya

JOSEP CALBÓ, vicerrector de Proyectos Estratégicos e Internacionalización de la Universidad de Girona

Presentación del Modelo PIO Educación

SEMINARIO PRESENCIAL

11 DE JUNIO, A LAS 18.00H

Sala Polivalente de la Facultad de Derecho, Universidad de Girona

ARLET BRUFAU, técnica jurista especialista en IA y educación del Observatorio de Ética en Inteligencia Artificial de Cataluña (OEIAC)

ALBERT SABATER, director de la OEIAC y profesor Serra Húnter en la Universidad de Girona

MERCÈ GISBERT, profesora catedrática del Departamento de Pedagogía en la Universidad Rovira i Virgili

La mediación tecnológica de la IA en la atención a personas: ¿crear capacidades o des-capacitar?

SEMINARIO VIRTUAL

17 DE SEPTIEMBRE, A LAS 18.00H

Streaming a través del canal YouTube de la UdG

BEGOÑA ROMÁN, profesora de filosofía en la Universidad de Girona

Acceso a la retransmisión

La IA como constructo sociocultural: Crear nuevos relatos para una tecnología al servicio de las personas

SEMINARIO VIRTUAL

23 DE OCTUBRE, EN LAS 18.00H

Streaming a través del canal YouTube de la UdG

PATRICIA VENTURA, doctora en Medios, Comunicación y Cultura y autora del libro "Inteligencia artificial, ética y comunicación: el factor humano en la era de la mediación algorítmica"

Acceso a la retransmisión

¿Qué significa ser humano en tiempo de chatbots?

ACTO DE CLAUSURA

13 DE NOVIEMBRE, A LAS 19.00H

Centro Cultural La Mercè (Auditorio)

JOAN MANUEL DEL POZO, presidente del Consejo de Educación de Cataluña y profesor emérito de la Universidad de Girona

ULISES CORTÉS, catedrático de inteligencia artificial de la Universitat Politècnica de Catalunya y coordinador científico del área de IA en la Barcelona Supercomputing Center

GLOSA GIRONA, entidad cultural dedicada a la difusión y promoción de la cultura popular de los Países Catalanes

Acceso a la retransmisión

Años anteriores

Escoge qué tipos de galletas aceptas que la web de la Universidad de Girona pueda guardar en tu navegador.

Las imprescindibles para facilitar vuestra conexión.No hay opción de inhabilitarlas, dado que son las necesarias por el funcionamiento del sitio web.

Permiten recordar vuestras opciones (por ejemplo lengua o región desde la cual accedéis), con el fin de proporcionaros servicios avanzados.

Proporcionan información estadística y permiten mejorar los servicios.Utilizamos cookies de Google Analytics que podéis desactivar instalándoos este plugin.

Para ofrecer contenidos publicitarios relacionados con los intereses del usuario, bien directamente, bien por medio de terceros (“adservers”). Hay que activarlas si quieres ver los vídeos de Youtube incrustados en la web de la Universidad de Girona.