L’Observatori d’Ètica en Intel·ligència Artificial de Catalunya, amb seu a la UdG, proposa mesures urgents per protegir els comicis en un estudi encarregat per la Generalitat de Catalunya.
L’Observatori d’Ètica en
Intel·ligència Artificial de Catalunya (OEIAC), amb seu a la Universitat de
Girona (UdG), alerta dels usos que la Intel·ligència artificial (IA) pot tenir
en els processos electorals. En un estudi encarregat pel Departament de
Justícia i Qualitat Democràtica de la Generalitat de Catalunya, l’OEIAC revela
com la IA s’ha convertit en una amenaça sistèmica per a la integritat dels
processos electorals a nivell mundial. L’informe conclou que l’any 2024 va suposar
un punt d’inflexió quan més de 60 països, gairebé la meitat dels estats del món
van patir incidents de desinformació o manipulació activa mitjançant eines
d’IA.
L’informe Estudi sobre els
riscos de la IA en l’àmbit dels processos electorals identifica cinc
categories d’eines amb un potencial de manipulació elevat: els deepfakes (vídeos
i àudios falsos, però realistes), els Grans Models de Llenguatge (LLMs) capaços
de generar desinformació a escala industrial, els bots d’amplificació
automàtica, la microsegmentació psicogràfica per enviar missatges
hiperpersonalitzats i la suplantació d’identitat automatitzada.
Casos globals: deepfakes,
bots i trucades automatitzades a cinc continents
L’informe documenta incidents
rellevants arreu del món entre 2023 i 2026. A Turquia (2023), els
candidats de l’oposició van denunciar àudios falsos generats amb IA impulsats
pel govern d’Erdogan. Al Pakistan (2024), es van difondre imatges
falses dels candidats en contextos enganyosos per influir en el vot i el dia de
les eleccions es va produir una desconnexió massiva d’internet. A Corea
del Sud (2024), es van documentar 129 incidents de vídeos deepfake
durant les eleccions al Parlament.
Als Estats Units, destaca
el cas de gener de 2024, quan el chatbot d’IA de la xarxa social X (Grok) va
informar falsament que la vicepresidenta Kamala Harris havia superat el termini
per presentar la seva candidatura en nou estats. A Mèxic (2024),
l’Institut Nacional Electoral va implementar un xatbot anomenat “Inés” per
resoldre dubtes dels votants, però es van documentar 44 incidents d’ús
fraudulent d’IA, incloent-hi avatars digitals que suplantaven candidats. A
l’Argentina (2025), unes hores abans de les eleccions municipals de Buenos
Aires, es va difondre un vídeo deepfake on un candidat es retirava i
demanava el vot per al seu rival.
A Europa, el cas més
paradigmàtic és el d’Eslovàquia (2023), on una gravació falsa generada amb
IA entre un candidat i una periodista sobre la compra de vots va ser
determinant en el resultat electoral, esdevenint el primer cas documentat on la
IA altera unes eleccions. Al Regne Unit (2024), es van registrar més
de 110 incidents de deepfakes durant la campanya electoral.
A Polònia (2025), TikTok va incomplir les directrius europees en
permetre la creació d’uns 1.200 comptes falsos que atacaven un dels candidats i
donaven suport a l’altre.
Vulnerabilitat a Catalunya:
desinformació i deepfakes
A l’àmbit català, l’estudi
documenta diversos casos. Aliança Catalana va utilitzar una imatge
falsa creada amb un sistema d’IA per alimentar la xenofòbia a Manresa,
manipulant dades oficials sobre població estrangera. La imatge va esdevenir viral
amb més de 132.000 visualitzacions abans que l’associació Verificat pogués
desmentir-ne la veracitat. Posteriorment, la líder del partit, Sílvia Orriols,
va difondre una altra imatge generada amb IA on apareixia disparant contra
Carles Puigdemont, fet que ha estat denunciat judicialment per delicte d’odi.
D’altra banda, Vox ha
esdevingut el partit polític d’un dels estats membres de la Unió Europea que
més campanyes de desinformació ha dut a terme a les xarxes socials. El maig de
2019 van crear més de 600 grups i pàgines a Facebook que van causar un impacte
de més de 763.000 visites. El novembre de 2025 van dur a terme una campanya amb
imatges generades amb IA o robades d’internet de dones que seguien un cànon
físic molt concret per difondre missatges d’acord amb el programa del partit a
TikTok.
Un desfasament preocupant de
la llei
El director de l’OEIAC i
coordinador de l’estudi, Albert Sabater Coll, ha destacat que “la magnitud del
fenomen requereix un canvi de mirada” i ha afegit que “la velocitat amb què es
viralitzen aquests continguts falsos supera qualsevol capacitat de desmentiment
perquè l’objectiu ja no és només enganyar, sinó erosionar la confiança
ciutadana en el sistema”. Sabater ha afegit que “davant d’això, la batalla no
és només tecnològica, sinó cognitiva i democràtica”.
En aquest sentit, una de
les conclusions més contundents de l’informe és la constatació
d’un desfasament preocupant entre la innovació tecnològica i la resposta
legislativa. Malgrat que el Reglament europeu d’IA (RIA) i el Reglament de
Serveis Digitals (RSD) classifiquen els sistemes que influeixen en eleccions
com “d’alt risc”, la normativa estatal i catalana són clarament insuficients.
L’informe assenyala que la LOREG (Llei Orgànica del Règim Electoral
General) “no aborda els reptes digitals actuals” i està dissenyada per a
amenaces analògiques. A Catalunya, es constata l’absència d’una regulació
pròpia en aquest àmbit.
Una de les coautores de
l’estudi, Arlet Brufau i Centelles, ha insistit en la urgència d’actuar
assegurant que “el context actual requereix d'una resposta ràpida i eficaç
per fer front al risc existent i potencial de manipulació algorítmica en
processos electorals i, d'aquesta manera, evitar que l'acceleració tecnològica
vagi en detriment d'un dret fonamental com és l'elecció, en plena llibertat, de
persones representants en un sistema democràtic".
És per això que en l’informe
l’OEIAC proposa una resposta multinivell que combina salvaguardes tècniques
(com l’estàndard d’autenticació C2PA i les marques d’aigua digitals), una
governança ètica, i un marc regulador preventiu. Entre les mesures més destacades
figuren l’elaboració d’un codi de bones pràctiques que prohibeixi els deepfakes
enganyosos i la microsegmentació amb dades sensibles; el desenvolupament de
mesures legislatives sobre integritat electoral que tipifiquin noves
infraccions com la interferència algorítmica maliciosa i reforcin les
competències dels òrgans electorals; l’impuls d’una normativa de transparència
en publicitat política digital que prohibeixi la segmentació basada en perfils
psicogràfics o la implementació de programes massius d’alfabetització digital
crítica per a la ciutadania, els mitjans de comunicació i les autoritats
electorals.
L’informe complet està
disponible sota llicència Creative Commons (CC BY-SA 4.0) al DUGiDocs de la UdG.