La tecnología ha sido, desde hace tiempo, clave en la evolución de la sociedad y la economía, facilitando el acceso al conocimiento y, muy particularmente, fortaleciendo las relaciones entre espacios y personas.Pero tal como a sucedido anteriormente con otras tecnologías, la irrupción de la IA no solo abre posibilidades inéditas sino que exige una capacitación sociotécnica y un pensamiento crítico por aprovechar su potencial y, al mismo tiempo, por para garantizar que la IA se integre a nuestra vida cotidiana de manera justa, equitativa y al servicio del bien colectivo, con políticas públicas y desarrolladores tecnológicos corresponsabilizados en este objetivo que se denomina IA responsable.
Este nuevo Ciclo OEIAC trata de cómo la capacitación sociotécnica y el pensamiento crítico son ingredientes clave para llevar a cabo una IA responsable en todos los ámbitos de nuestra vida cotidiana.Por una parte, la capacitación va más allá de la simple formación técnica ya que tiene que incluir una alfabetización digital amplia que permita a la sociedad comprender tanto el funcionamiento como las implicaciones y los impactos sociales de la IA.Desde desarrolladores hasta desdobladores y, por supuesto, los usuarios finales, todo el mundo tendría que tener unos conocimientos sociotécnicos básicos por utilizar e interactuar con las tecnologías de IA de una forma que sea responsable; ya sea para ampliar su uso y aumentar nuestras capacidades en el proceso, hasta limitar su uso, si aplica, cuando la aplicación de sistemas de IA no es ético y supone desde una vulneración de derechos fundamentales a una propagación de errores y/o sesgos sin control.
Por otra parte, el pensamiento crítico es complemento indispensable como motor para tomar decisiones informadas y preservar la autonomía de las personas ya que se basa en mantener e, incluso, ampliar una vertiente analítica y otra evaluadora sobre todo aquello que tiene que ver con la IA.En este sentido, se puede decir que no es suficiente con saber cómo funciona la IA, hayr que cuestionar continuamente si los objetivos, los resultados y las posibles consecuencias, especialmente en términos de si son aceptables y, en caso de que lo sean, si pueden ser muy o poco mejorables.Eso implica analizar o evaluar la estructura y consistencia de los razonamientos, particularmente opiniones o afirmaciones que la gente acepta como verdaderos en el contexto de la IA.Esta evaluación puede basarse en la observación, en la experiencia, en el razonamiento o en el método científico.En este sentido, es básico ir más allá de las impresiones y opiniones particulares, y eso implica la necesidad de aplicar claridad, exactitud, precisión, evidencia y equidad en el proceso.
A fin de que los dos ingredientes, la capacitación sociotécnica y el pensamiento crítico, sean desarrollados de una forma verdaderamente transformadora hacen falta dos enfoques específicos: el relacional y el deontológico.El primero pone el acento en las dinámicas de interacción entre los actores de la hélice cuádruple: industria, academia, gobierno y sociedad civil.La incorporación de la IA puede alterar sustancialmente estas relaciones, tanto en la cooperación como en los flujos de poder.Por lo tanto, es esencial diseñar entornos colaborativos que promuevan la inclusión, la transparencia y la confianza mutua, asegurando que la tecnología actúe como puente y no como barrera entre los diferentes agentes.En este contexto, las instituciones públicas y las empresas tienen un papel clave al facilitar espacios de diálogo y co-creación, donde se preserva la calidad de las interacciones humanas fundamentales para la innovación responsable.La IA tiene que servir para potenciar, nunca no para sustituir, estas redes de valor compartido que son el núcleo del ecosistema de innovación.
El segundo, el deontológico, establece los principios éticos que tienen que regir el uso de la IA por parte de la cuádruple hélice.Es bien sabido que la implantación ética de la IA tiene unos estándares y protocolos de actuación claros y que, en la actualidad, muchos de ellos han sido plasmados también a través de normativas sobre datos e IA en el contexto europeo.Teniendo en cuenta esta situación y el hecho de que el OEIAC ha desplegado su Modelo PIO sobre Obligaciones y Derechos, es imprescindible tener una mayor alfabetización sobre su contenido e implementación por parte de todos los stakeholders implicados, de los ciudadanos hasta los investigadores o los cargos públicos.Eso implica una mayor formación introductoria y de capacitación mediante esta base deontológica sólida que puede asegurar que la IA favorezca un desarrollo tecnológico responsable.
De hecho, tanto el enfoque relacional como el deontológico se utilizan para recordar que la tecnología, en este caso de la IA, tienen que estar al servicio del refuerzo de las dinámicas colaborativas y del respeto a los principios democráticos básicos.Eso requiere mecanismos de gobierno que involucren todos los actores de manera equitativa, asegurando que los avances en IA no debiliten, sino que fortalezcan, los lazos esenciales que dan sentido a la cooperación entre la cuádruple hélice y, en definitiva, al bien común.
Con el fin de aportar algunas respuestas y, claro está, también para abrir más preguntas sobre la compleja interacción entre la capacitación sociotécnica y el pensamiento crítico a través de los enfoques relacional y deontológico, el OEIAC inicia este nuevo ciclo de seminarios de transferencia de conocimiento con personas invitadas de todas partes que trabajan y promueven los usos éticos y responsables de la IA.
El Ciclo OEIAC empezará el mes de mayo y se alargará hasta el mes de noviembre, cuando tendrá lugar el acto de Clausura.Este ciclo está dirigido a todo el mundo que tiene interés en la IA en general y en los usos éticos y responsables en particular, así como del sector público y privado.