Càtedres de la UdG > Blog Post OEIAC - El reconeixement facial i la segona ondada de rendició de comptes algorítmica
Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

Blog Post OEIAC - El reconeixement facial i la segona ondada de rendició de comptes algorítmica

Albert Sabater, director de l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya

Molts sistemes de intel·ligència artificial s’estan convertint en la tecnologia predeterminada per a resoldre problemes tècnics en la nostra vida quotidiana tal i com ho demostren, entre altres, els sistemes de processament de llenguatge natural, d’anàlisi de sistemes dinàmics, d’aprenentatge i ensenyament o de suport per a la presa de decisions. Mentre la seva implantació generalitzada en diferents àmbits suposa una o més consideracions ètiques com la responsabilitat, transparència o explicabilitat, cap d’ells s’enfronta a l’escrutini que els sistemes de reconeixement facial reben en l’actualitat, també en termes de justícia i privacitat.

El reconeixement facial és un mètode d’identificació i verificació biomètrica de les persones a través d’una imatge, vídeo o qualsevol element audiovisual del rostre d’una persona. La seva popularització és deguda, en gran part, a que Internet conté ara milers de milions d'imatges de rostres de persones disponibles (alguns exemples són Flickr, Tufts, YouTube, Instagram, Facebook, Google, etc.) i aquests conjunts de dades d'imatges massives s'utilitzen molt freqüentment per entrenar sistemes d'intel·ligència artificial com xarxes neuronals profundes, un mètode per detectar i reconèixer rostres de persones. El reconeixement facial funciona principalment escanejant una cara, per exemple en un esdeveniment esportiu, per accedir a un establiment, per obtenir un servei determinat o per cercar si és una persona d’interès, com ara algú amb antecedents penals. La majoria utilitzen algoritmes de classificació que comparen la mateixa cara amb una base de dades de rostres existent. Malgrat que la tecnologia de reconeixement facial pot facilitar la identificació i verificació d’una identitat personal d'una manera eficient i ràpida, aquesta no està exempta d'errors i sabem que aquests afecten particularment a les poblacions més minoritàries i més vulnerables des d'un punt de vista socioeconòmic, que veuen com els biaixos en algoritmes de reconeixement i conjunts de dades d’anàlisi facial automatitzada segueixen sent massa freqüents i discriminatoris tant des del punt de vista de la seva representació com del seu tractament. En aquest context hi ha dos tipus d’errors sistemàtics: el fals negatiu i el fals positiu. El fals negatiu es produeix quan no hi ha coincidència amb el rostre d’una persona que es troba en una base de dades, i el fals positiu té lloc quan el sistema reconeix la cara però la coincidència és incorrecta. Aquests dos errors poden crear problemes sistemàtics per a diferents organitzacions públiques i privades que utilitzen programari de reconeixement facial, especialment en societats on la migració i la diversitat demogràfica ja són característiques generals de la població.

Sens dubte, les empreses tecnològiques poden millorar constantment els seus sistemes de reconeixement facial per tal que funcionin amb una major diversitat de rostres i amb imatges cada vegada més difícils (per exemple quan la llum és pobre o quan la gent té la cara tapada parcialment o totalment), i també incloent-hi d'altres reconeixements biomètrics com el de la veu o la dels moviments. Però els problemes tècnics i les seves possibles afectacions desiguals no són l’únic aspecte qüestionable dels sistemes de reconeixement facial. El fet que una gran majoria de persones no hagin donat el seu consentiment previ ni a la captura d’imatges facials ni tampoc a que s’emmagatzemi aquesta informació biomètrica o a que es faci una detecció de la seva semblança amb d’altres cares ja hauria de ser per si sol un obstacle per al seu desenvolupament i ús. Dit d’altra manera, el reconeixement facial planteja un seriós problema de privadesa, i també d’accés a la intimitat si no existeix el nostre consentiment, ja que generalment es fa d’una forma excessiva i invasiva si entenem que la cara és el principal intermediari entre la nostra vida privada i la forma de fer-nos visibles públicament. És en aquest sentit que Levinas (1961) va descriure el rostre de les persones com la base a partir de la qual sorgeixen les relacions i responsabilitats ètiques en el seu treball Totalité et Infini: Essai sur l’extériorité. Tenint en compte això no és sorprenent que els sistemes de reconeixement facial s’hagin erigit en paradigmàtics de mala gestió tecnològica i que hagin estat batejats com "el plutoni de la intel·ligència artificial".

Per això, com afirma Mark MacCarthy (2020), no ens hauria d’estranyar que es plantegi cada vegada més la següent pregunta: Qui va pensar que era una bona idea tenir un programari de reconeixement facial? Una pregunta que caldria situar en allò que el professor Frank Pasquale anomena la “segona onada de rendició de comptes algorítmica”, després que en una primera onada les persones que treballaven en sistemes d’intel·ligència artificial es plantegessin com es podrien fer diferents eines d'intel·ligència artificial més precises i menys esbiaixades. Per tant, el que es planteja en aquesta segona fase d’irrupció tecnològica en el camp de la intel·ligència artificial ja no és una qüestió merament tècnica sinó la importància de considerar tant la presència com l'absència de sistemes d’intel·ligència artificial en la nostra vida quotidiana, particularment quan la seva presència afecta aspectes importants de la nostra existència (pública i privada) i és percebuda no pas com una solució sinó com l'exercici del poder. I, sens dubte, qui controla la tecnologia de reconeixement facial pot exercir un immens poder, el que suposa que al voltant d'aquesta hauria d'existir una constant rendició de comptes. Essencialment, això significa que en el cas de la seva presència cal més informació, més explicació o justificació i (la possibilitat de) saber quines són les seves conseqüències. En l'actualitat no existeix una rendició de comptes efectiva i sistemàtica però si un intens debat i algunes sentències a favor de la seva regulació degut a que aquesta tecnologia té el potencial d'abolir la privadesa de les persones tant a llocs públics com privats (el darrer exemple en el context més proper és el del cas Mercadona). Malgrat que l'escenari actual no és el d'una rendició de comptes efectiva, ja que la majoria de vegades no existeix ni la informació, ni la justificació ni tampoc l'avaluació de les possibles conseqüències per part de l'organització pública o privada que utilitza aquests sistemes, és evident que existeix una creixent consciència individual i col·lectiva de que els sistemes de reconeixement facial estan en el grup de sistemes d'intel·ligència artificial que tenen més potencial de debilitar les llibertats civils i la nostra privacitat. Això és en part perquè la seva utilització com a eina de vigilància massiva està cada vegada més documentada, incloent-hi a Europa, i també perquè nombrosos grups de la població i un nombre creixent de científics insta cada vegada més a evitar treballar amb empreses o universitats vinculades a projectes sobre reconeixement facial poc ètics o a tornar a avaluar com recopilen i distribueixen conjunts de dades de reconeixement facial.

Evidentment no tots els sistemes de reconeixement facial s’utilitzen de forma indiscriminada però és la seva notòria i gairebé generalitzada utilització sense consentiment i per a fins controvertits, com ara per inferir si algú és gai o heterosexual, detectar els sentiments que podrien representar el rostre d’una persona o per monitoritzar i controlar grups de població dissidents, que situa aquesta tecnologia en el punt de mira, també de la Comissió Europea. Això ho demostra clarament la seva proposta de regulació de sistemes d’intel·ligència artificial, en que dins dels anomenats riscos considerats inacceptables es preveu una prohibició de l’ús de sistemes d’identificació biomètrica remota ‘en temps real’ en espais accessibles públicament a efectes d’aplicació de la llei, tret que el seu ús sigui estrictament necessari per a (i) la cerca específica de víctimes potencials específiques de la delinqüència, inclosos els nens desapareguts; (ii) la prevenció d'una amenaça específica, substancial i imminent per a la vida o la seguretat física de persones físiques o d'un atac terrorista; i (iii) la detecció, localització, identificació o processament d’un autor o sospitós d’un delicte.

En aquesta mateixa direcció s’han pronunciat les màximes autoritats europees de protecció de dades (l'European Data Protection Board i l'European Data Protection Supervisor), que recomanen la prohibició de sistemes d'intel·ligència artificial que fan servir biometria per classificar els individus en grups basats en l’ètnia, l'edat, el sexe o gènere, orientació política o altres característíques sociodemogràfiques pels quals està prohibida la discriminació sota l'Article 21 de la Carta dels Drets Fonamentals. A més, l'EDPB i l'EDPS consideren que l’ús de sistemes d’intel·ligència artificial per inferir emocions d’una persona física a través del reconeixement facial és altament indesitjable i hauria de ser prohibida, excepte en casos molt particulars, com ara per alguns propòsits de salut i detecció de malàlties en què l’anàlisi del rostre d'una persona mitjançant imatges pot ser d'ajuda.

Però mentre no existeixi una regulació sobre l’ús de sistemes d’identificació biomètrica a través de la proposta de reglament de la intel·ligència artificial de la Comissió Europea, és important tenir en compte que existeix una peça molt important del Reglament General de Protecció de Dades (GDPR) que pot ser determinant com a salvaguarda de la privacitat envers el reconeixement facial ja que, a diferència de molts règims reguladors, a la Unió Europea les organitzacions que emmagatzemen informació sobre ciutadans de la UE “s’enfronten” a uns 300 milions de reguladors, que és la xifra aproximada de la població adulta de la UE. Això significa que tots aquests ciutadans poden sol·licitar en qualsevol moment que se suprimeixin les dades mitjançant el dret d’esborrament, així com fer altres sol·licituds sobre l’ús de les seves dades personals, incloent-hi aquelles relatives a la identificació i verificació biomètrica de les persones a través d’una imatge, vídeo o qualsevol element audiovisual del rostre d’una persona. Això és particularment rellevant en un moment en que el reconeixement facial s’està distribuint ràpidament per tota la Internet de les Coses, des d’interfons fins a assistents de casa i, és clar, també per accedir a dispositius mòbils i aplicacions de tota mena. 

En el primer blog de l'OEAIC vam comentar que el fet que els sistemes d'intel·ligència artificial s'utilitzin cada vegada més en tots els àmbits de la nostra vida quotidina també implica un interès i preocupació creixent per part de la ciutadania, especialment quan alguns d'aquests sistemes s'utilitzen en els límits ètics i legals. En una primera fase, l'interès i preocupació s'ha centrat en les millores tècniques que s'hi puguin incloure com són l'augment d'imatges facials per a una millor representació i la millora de la precisió dels algoritmes d'identificació i verificació d'identitats personals. Però en un segon estadi o onada de rendició de comptes, la qüestió ja no és (només) de precisió sinó també (sobretot) de motivació envers individus (control) i societat (poder). Dit d'altra manera, es tracta de la necessitat de rendició de comptes per tal que no existeixi un desequilibri de poder entre aquells que desenvolupen i utilitzen la intel·ligència artificial i els que n'estan sotmesos a la tecnologia. Sabem que quan això succeeix, la confiança, que és un procés dinàmic i un principi fonamental per a moltes qüestions legals i ètiques relatives a l’ús de la tecnologia, se'n ressenteix i molt. L'abús d’alguns sistemes d’intel·ligència artificial com els de reconeixement facial no tan sols poden erosionar la confiança inicial de ciutadans i consumidors individuals sobre aquesta tecnologia, sinó que a la llarga també poden afectar a la confiança existent envers d’altres sistemes d’intel·ligència artificial que no suposen un risc similar. I, sens dubte, això és un problema ja que la confiança és crucial en el desenvolupament i acceptació de la intel·ligència artificial.

Gràcies per llegir el Blog Post OEIAC, i fins aviat!

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.