La tecnologia ha estat, des de fa temps, clau en l’evolució de la societat i l’economia, facilitant l’accés al coneixement i, molt particularment, enfortint les relacions entre espais i persones. Però tal i com a succeït anteriorment amb d’altres tecnologies, la irrupció de la IA no només obre possibilitats inèdites sinó que exigeix una capacitació sociotècnica i un pensament crític per aprofitar el seu potencial i, alhora, per per garantir que la IA s'integri a la nostra vida quotidiana de manera justa, equitativa i al servei del bé col·lectiu, amb polítiques públiques i desenvolupadors tecnològics corresponsabilitzats en aquest objectiu que s’anomena IA responsable.
Aquest nou Cicle OEIAC tracta de com la capacitació sociotècnica i el pensament crític són ingredients clau per portar a terme una IA responsable en tots els àmbits de la nostra vida quotidiana. Per una banda, la capacitació va més enllà de la simple formació tècnica ja que ha d’incloure una alfabetització digital àmplia que permeti a la societat comprendre tant el funcionament com les implicacions i els impactes socials de la IA. Des de desenvolupadors fins a desplegadors i, per suposat, els usuaris finals, tothom hauria de tenir uns coneixements sociotècnics bàsics per utilitzar i interactuar amb les tecnologies d’IA d’una forma que sigui responsable; ja sigui per ampliar el seu ús i augmentar les nostres capacitats en el procés, fins a limitar-ne el seu ús, si escau, quan l’aplicació de sistemes d’IA no és ètic i suposa des d’una vulneració de drets fonamentals a una propagació d’errors i/o biaixos sense control.
Per altra banda, el pensament crític és complement indispensable com a motor per a prendre decisions informades i preservar l’autonomia de les persones ja que es basa en mantenir i, fins i tot, ampliar una vessant analítica i una altra avaluadora sobre tot allò que té a veure amb la IA. En aquest sentit, es pot dir que no n’hi ha prou amb saber com funciona la IA, cal qüestionar-ne contínuament si els objectius, els resultats i les possibles conseqüències, especialment en termes de si són acceptables i, en el cas que ho siguin, si poden ser molt o poc millorables. Això implica analitzar o avaluar l'estructura i consistència dels raonaments, particularment opinions o afirmacions que la gent accepta com a veritables en el context de la IA. Aquesta avaluació pot basar-se en l'observació, en l'experiència, en el raonament o en el mètode científic. En aquest sentit, és bàsic anar més enllà de les impressions i opinions particulars, i això implica la necessitat d’aplicar claredat, exactitud, precisió, evidència i equitat en el procés.
Per tal que els dos ingredients, la capacitació sociotècnica i el pensament crític, siguin desenvolupats d’una forma veritablement transformadora calen dos enfocaments específics: el relacional i el deotològic. El primer posa l'accent en les dinàmiques d'interacció entre els actors de l'hèlix quàdruple: indústria, acadèmia, govern i societat civil. La incorporació de la IA pot alterar substancialment aquestes relacions, tant en la cooperació com en els fluxos de poder. Per tant, és essencial dissenyar entorns col·laboratius que promoguin la inclusió, la transparència i la confiança mútua, assegurant que la tecnologia actuï com a pont i no com a barrera entre els diferents agents. En aquest context, les institucions públiques i les empreses tenen un paper clau en facilitar espais de diàleg i co-creació, on es preserva la qualitat de les interaccions humanes fonamentals per a la innovació responsable. La IA ha de servir per potenciar, mai no per substituir, aquestes xarxes de valor compartit que són el nucli de l'ecosistema d'innovació.
El segon, el deontològic, estableix els principis ètics que han de regir l'ús de la IA per part de la quàdruple hèlix. És ben sabut que la implantació ètica de la IA té uns estàndars i protocols d’actuació clars i que, en l’actualitat, molts d’ells han estat plasmats també a través de normatives sobre dades i IA en el context europeu. Tenint en compte aquesta situació i el fet que l’OEIAC ha desplegat el seu Model PIO sobre Obligacions i Drets, és imprescindible tenir una major alfabetització sobre el seu contingut i implementació per part de tots els stakeholders implicats, dels ciutadans fins als investigadors o els càrrecs públics. Això implica una major formació introductoria i de capacitació mitjançant aquesta base deontològica sòlida que pot assegurar que la IA afavoreixi un desenvolupament tecnològic responsable.
De fet, tant l'enfocament relacional com el deontològic s’utilitzen per recordar que la tecnologia, en aquest cas de la IA, han d'estar al servei del reforç de les dinàmiques col·laboratives i del respecte als principis democràtics bàsics. Això requereix mecanismes de governança que involucrin tots els actors de manera equitativa, assegurant que els avenços en IA no debilitin, sinó que enforteixin, els llaços essencials que donen sentit a la cooperació entre la quàdruple hèlix i, en definitiva, al bé comú.
Per tal d'aportar algunes respostes i, és clar, també per obrir més preguntes sobre la complexa interacció entre la capacitació sociotècnica i el pensament crític a través dels enfocaments relacional i deontològic, l'OEIAC inicia aquest nou cicle de seminaris de transferència de coneixement amb persones convidades d'arreu que treballen i promouen els usos ètics i responsables de la IA.
El Cicle OEIAC començarà el mes de maig i s’allargarà fins al mes de novembre, quan tindrà lloc l’acte de Cloenda. Aquest cicle està dirigit a tothom que té interès en la IA en general i en els usos ètics i responsables en particular, així com del sector públic i privat.