Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

Blog Post OEIAC - Som conscients de quan i on s’han d’establir criteris d’ètica en la IA?

Elisabet Golobardes Ribé, Departament d'Enginyeria - Research Group on Data Science for the Digital Society, La Salle, Universitat Ramon Llull

Establir criteris d’ètica en la IA implica diferents nivells d'interacció; amb persones responsables d'agències que s’encarreguen d'avaluacions (bio)ètiques; amb els participants en els programes o recerques sobre IA, o amb el públic més ampli a qui, en una societat democràtica, tenim la responsabilitat d'informar. L'avaluació ètica ha d'operar en aquest context de múltiples capes d'interessos diferents. En aquest context, no és d'estranyar que sorgeixin conflictes i preguntes, com quan i on s’han d’establir criteris d’ètica.

Des del grup de recerca Data Science for the Digital Society (DS4DS), de la Salle – Universitat Ramon Llull, desenvolupem projectes «de Ciència de les dades i d’Intel·ligència Artificial (IA)» com qualsevol altre grup del nostre àmbit. Ara bé, dins la corrent i la contra-corrent a favor i en contra de la relació entre la IA i l’ètica, és quan posem de nou la mirada en el nostre dia a dia i ens plantegem si el que fem és «ètic». I, és clar, com pot afectar a la societat? Voldria, breument, prendre perspectiva presentant 4 projectes paradigmàtics a tall d’exemple i, tot seguit, aixecar el cap.

Projecte 1. LHCb-CERN. El marc de treball és la física d’altes energies en un dels experiments del CERN: el Large Hadron Collider beauty. És un experiment creat per explorar el que va passar després del Big Bang, el qual va permetre a la matèria sobreviure i construir l'univers que habitem avui. Hi participen més de 1200 membres de 72 institucions de 16 països diferents. La part de la IA la trobaríem, per exemple, en la identificació de partícules.

Projecte 2. SmartData. Consisteix en l’ús de la IA en el procés del negoci de mitjans digitals per automatitzar part del treball analític i extreure més valor del volum d'informació disponible, com per exemple, quin tipus de notícia estarà més temps en pàgina? Va ser un projecte conjunt amb una empresa (Agile) i easy (Universitat de Girona).

Projecte 3. Breast Cancer. Voldria recordar un projecte de fa forces anys en el qual l’objectiu era el desenvolupament d'una eina intel·ligent de recuperació d'imatges mamogràfiques per contingut. Llavors ni l’Hospital universitari Josep Trueta tenia un mamògraf digital, ni existia Deep learning. Les tècniques d’IA les aplicàvem per ajudar al diagnòstic. Va ser un projecte en col·laboració amb l’Hospital i la Universitat de Girona.

Projecte 4 Hate Speach. Les xarxes socials... no crec que us hagi d’explicar què són ni com van. Juntament amb Comunicació Blanquerna-URL vam enfocar projecte per detectar, entre d’altres, el volum d’odi dirigit cap a periodistes en les darreres eleccions de Madrid 4-M en el Twitter. La IA la utilitzàvem tant en el processament dels tuits com en la posterior anàlisi de les dades.

Un cop presentats 4 projectes de naturalesa ben diferent, on en tots ells apliquem IA, voldria fer algunes consideracions ètiques:

  • LHCb-CERN. Aparentment, no hi ha problemes ètics: ni a les dades ni a l’aplicació final. Però bé s’aplica la IA.
  • És ètic promoure les notícies que tindran més lectors? La decisió la prendrà la redacció. Podríem dir: «és un negoci». De nou, la IA és una eina de suport. La decisió és en mans de les persones responsables de l’empresa. Què hauríem de fer els que elaborem els algorismes? Quin criteri ètic -i a on- cal aplicar-lo?
  • Càncer de mama. Un bon projecte com a ciutadà/dana! El sistema ha de passar els comitès d'ètica corresponents. Cal estar alerta sobre el tractament de les dades personals. De nou, la IA actua com una eina d’ajuda al diagnòstic. Podríem dir que la ètica de la IA està emparada per la pròpia ètica del projecte mèdic. Tot i que cal vetllar pel tractament de les dades.
  • La IA ens proporciona una eina per detectar l’odi a les xarxes socials (Twitter). Les accions poc ètiques són dels usuaris... En aquest cas la IA actua com un ull que vigila, observa i alerta. Quan els algorismes detecten que hi ha odi, realment és odi? Cal recordar que qui ha generat l’odi són els tuits, no l’eina que observa. Com es pot regular? On comença i on acaba la llibertat d’expressió?

És evident que la relació entre la IA i l’ètica va més enllà dels propis sistemes. Quan cal utilitzar criteris d’ètica en la IA? I què fem quan detectem que hem d’implementar quelcom que potser no és ètic? O què fem amb l’empresariat o la ciutadania que actua de manera poc ètica o irresponsable, al marge del disseny dels sistemes d’IA? Això no és només una qüestió de la nostra predilecció personal o posició moral envers la IA. És una qüestió de comunitat: promoure i apuntalar què significa actuar èticament i promoure la pràctica "correcta" de la IA dins de la societat. I, és clar, això també inclou a la ciutadania que no pot ser jutge i part i, per tant, ha d’utilitzar la tecnologia de manera ètica i corresponsable. Hi ha un llarg camí a recórrer en educació i ús de la IA de manera més ètica, per augmentar el benestar de les persones i reduir impactes socials no desitjats. Sens dubte, per aconseguir-ho calen fer les passes adequades des de la indústria, administració, universitat i ciutadania.

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.