Càtedres de la UdG > Blog Post OEIAC - La IA a les sales de justícia: usos (ètics) i garanties (legals)
Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

Blog Post OEIAC - La IA a les sales de justícia: usos (ètics) i garanties (legals)

Pere Simón Castellano, Professor Contractat Doctor de Dret Constitucional, Universidad Internacional de la Rioja UNIR

La tecnologia ens ofereix una nova i brillant oportunitat de transformar alguns dels paradigmes plenament vigents que condicionen la nostra estructura politico-social, el nostre teixit empresarial i, també, la prestació de serveis públics en el marc del model hegemònic, tuïtiu i proteccionista, de l’Estat del benestar. No obstant, per fer-ho ha d’haver-hi necessàriament un debat continu sobre la seva regulació i aquest s’ha de centrar principalment en qui i com es dissenyen els sistemes d’intel·ligència artificial, incloent-hi quines dades s’utilitzen, així com en la definició de les garanties en el seu ús respecte el ciutadà.

I en l’àmbit de l’administració de justícia això és especialment important, ja que els sistemes experts d’intel·ligència jurídica artificial tracten d'emular el judici jurisdiccional, necessàriament humà, i precisament per aquest fet podrien arribar a projectar en el codi discriminacions molt presents a la nostra societat, ja sigui contribuint a multiplicar els seus efectes perniciosos o a posar-los de manifest, el que també podria resultar d’utilitat a mode de detectar i corregir desigualtats “desconegudes” o, com a mínim, qüestionades.

La comprensió de l’anterior ens ha de fer reflexionar sobre els usos de la intel·ligència artificial, fugint de postures apocalíptiques o integrades o, el que és el mateix, allunyant-nos dels extrems per tractar d’aprofitar al màxim els beneficis de l’estat actual de la tècnica, ambivalent o agredolça per naturalesa. Bona part de les decisions que prenem les persones són emocionals o irracionals i, en canvi, exigim a una màquina que tracta d’emular aquest procés que acompanyi les seves propostes d’arguments racionals.

Els usos possibles de la intel·ligència artificial en el sistema judicial son molt diversos. Així, per exemple, serien viables per descarregar el volum de saturació dels jutjats i poder resoldre sense intervenció humana tots aquells procediments que es tramiten sense oposició i aquells altres en els quals el tràmit és molt senzill i repetitiu —com el cas d'un procés monitori o un verbal de quantitat—. L’automatització a través de la intel·ligència artificial és molt possible en la fase d’execució i en els processos en els que l'única prova que s'ha de practicar és documental. La tecnologia també pot contribuir a mesurar amb major exactitud el funcionament i l’eficiència dels jutjats, i millorar la transparència i comprensió de la informació judicial, garantint una comunicació fluida, explicant les decisions jurisdiccionals, per exemple, a través de chatbots.

La intel·ligència jurídica artificial, a més, està cridada a tenir un paper decisiu en l’àmbit de la mediació, la resolució extrajudicial de conflictes i dins l’àmbit contractual. El dret de l'assegurança o els contractes laborals constitueixen bons exemples, que poden ser vehiculats a través dels anomenats smart contracts. En una assegurança de vida si es produeix l'esdeveniment cobert per l'assegurança, és a dir, la mort de l'assegurat, l'entitat asseguradora paga un capital als beneficiaris. No sembla difícil executar un enunciat amb una equació o fórmula d'aquest estil: si es produeix "X" llavors "A" lliura a "B" el capital "C". Evidentment, certes assegurances disposarien d’una fórmula una mica més complexa, però són automatitzacions de criteris per definició. Els contractes, en general, ho són; i la reclamació de deutes és una derivada de l'incompliment, que es pot gestionar per defecte des de sistemes experts d'intel·ligència jurídica artificial.

Menció especial mereixen tots els sistemes experts que poden contribuir a la valoració del nivell de risc d’un esdeveniment futur i incert. És el cas de COMPAS —empleat als Estats Units, entre d’altres— que “ajuda” als jutges a l’hora de decidir si s'han d'adoptar mesures cautelars o si s’han de prendre decisions relatives a la llibertat dels interns en centres penitenciaris —permisos de sortida, tercer grau, etc.—. Sens dubte, en la seva implementació també calen instruments de supervisió que vetllin per la transparència i bon ús. Un servidor ha tingut l’ocasió d’explorar els problemes que es plantegen en aquest àmbit, en profunditat, en una monografia publicada al febrer d’aquest mateix any. Sens dubte, estem davant d’una oportunitat d’objectivar la presa de decisions judicials difícils, que en moltes ocasiones es prenen des del buit, tal com passa amb la presó preventiva, que s’adopta abans que tingui lloc el judici jurisdiccional pròpiament dit, anticipant-se a aquest, en un moment en el que encara no es disposen de proves suficients i no s’han realitzat bona part de les diligències d’investigació.

És en aquest marc en el que resulta fonamental que l’alternativa tecnològica s’explori acompanyada de garanties legals específiques, un repte d’envergadura, que passa per reinterpretar principis jurídics tradicionals com el principi de publicitat processal o la transparència en la presa de decisions. No es tracta, quan parlem d’explicabilitat, de facilitar un codi inintel·ligible per una persona mitja o no experta en la matèria. Es tracta d’explicar de manera inequívoca les raons o regles lògiques en les que es recolza el sistema expert. El cert és que, encara que els codis algorítmics evolucionin a través de l’experiència i l’aprenentatge, aquests són perfectament deterministes, i es poden explicar; si bé cal garantir que aquesta explicació es formuli en termes similar al raonament conscient humà, i és aquí on es multipliquen els problemes.

La paradoxa insalvable en alguns sistemes d'IA com les xarxes neuronals, que són molt més potents i efectives que, per exemple, els sistemes experts basats en arbres de decisió, és que no són explicables, i per tant el seu ús en el si de l’administració de justícia hauria de quedar proscrit. Cal tenir en compte que aquesta tecnologia pot ser molt més segura i, per tant, els jutges han de recolzant-se amb eines potser menys potents i limitades a la pràctica però, que com a mínim, són explicables. De fet, aquest plantejament està molt relacionat amb la falsa sensació de seguretat a la que fan referència Russell i Norvig, i que ens hauria de fer replantejar de nou els pilars del nostre sistema judicial.

L’explicabilitat “relativa” ha de venir acompanyada també d’altres paràmetres més fàcilment mesurables tals com l’auditabilitat, la seguretat del codi i la traçabilitat (audit trails) des del mateix disseny de la solució, passant per la seva implementació i posterior millora continua. Les garanties en el què estan vinculades també amb el qui, i en aquest cas, és necessària una visió i participació multidisciplinar i interdisciplinar de l’equip de programació, que ha de parlar altres llenguatges més enllà de l’informàtic.

L’administració de justícia serà digital o no serà. Mercat i societat així ho reclamen i un cop superat el punt de no retorn, cal començar a explorar quan abans millor els usos ètics i definir amb claredat les garanties legals de la seva implementació en un sector molt sensible, en el que s’acabaran adoptant decisions que despleguen plens efectes jurídics per a la persones involucrades.

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.