Càtedres de la UdG > L'OEIAC contribueix al reportatge "Inteligencia artificial generativa: ¿inspiración o plagio?"
Anar al contingut (clic a Intro)
UdG Home UdG Home
Tancar
Menú

Observatori d'Ètica en Intel·ligència Artificial

L'OEIAC contribueix al reportatge "Inteligencia artificial generativa: ¿inspiración o plagio?"

El director de l'OEIAC, Albert Sabater, col·labora en el reportatge de La Vanguardia sobre "Inteligencia artificial generativa: ¿inspiración o plagio?", a càrrec de la periodista Mayte Rius

23/01/2023

En el reportatge s'explica una de les primeres ramificacions del conflicte potencial i actual entre la creació de continguts (textos, imatges, sons o números) que tradicionalment eren originats per persones i que amb els sistemes d'intel·ligència artificial generativa proliferen però són originats per màquines. Donat que aquests últims utilitzen i s'aprofiten de la feina realitzada i creada anteriorment per persones (moltes d'elles artistes), s'erigeix un problema sobre l'atribució, l'autoria i fins i tot sobre la inspiració de les obres resultants. En aquest sentit, la setmana passada va arribar un moment que segurament el recordarem, ja que va ser la primera vegada que diversos artistes visuals van iniciar una demanda col·lectiva a Califòrnia contra les empreses que hi ha darrere de les intel·ligències artificials generatives Stable Diffusion, Midjourney i DeviantArt per “infringir els drets de milions d'artistes” en entrenar els seus models amb imatges i obres publicades a Internet “sense el consentiment” dels seus autors originals, i per recopilar i emmagatzemar aquests dissenys per, posteriorment, “combinar-los” i generar-ne de nous.

Al següent enllaç podeu llegir tot el reportatge de la Vanguardia a càrrec de la periodista Mayte Rius, i aprofitem per compartir una part del diàleg mantingut amb ella al voltant de la pregunta principal del reportatge "inspiració o plagi?", per complementar la informació que apareix en el mateix:

MR: Intel·ligència artificial generativa: inspiració o plagi?

AS: Sobre la pregunta que planteges podem dir que, en general, constitueixen les dues coses, és a dir, inspiració i plagi. Això ho denota el fet que als usuaris de qualsevol sistema de IA generativa se li atorguen els drets comercials que creen a les plataformas però això no significa que siguin amos en el sentit tradicional. Sens dubte, no és senzill esbrinar que hi ha de transformador i que hi ha d'infractor en els resultats de la IA generativa ja que aquests sistemes són extremadament complexos per desxifrar cadascuna de les porcions. Però aquest és l'objectiu més tècnic a curt i llarg termini, especialment pels litigis que comencen a sortir. Hi ha dos factors clau que poden ajudar a dilucidar si és inspiració i/o plagi. D'una banda, facilitar informació sobre la procedència de les dades originals perquè els usuaris puguin comparar els resultats generats amb els inputs (d'entrenament). D'altra banda, estudiar els patrons lingüístics i visuals que poden indicar l'ús d'una IA generativa a través de sistemes de reconeixement i percepció. Però perquè es puguin dur a terme tots dos objectius es requereix cooperació de les empreses que estan generant contingut de text, imatge i vídeo per a l'autenticació i la validació de material. No fer-ho suposarà dedicar molts recursos per la detecció del plagi, si bé només es podrà detectar en mostres de resultats (d'imatges, àudios i vídeos) però no en tots els resultats que generem a través d'un prompt. A més, hem de considerar que fer-ho, especialment de forma generalitzada, pot suposar la revelació d'informació privada com identitats, condicions i altra informació personal que tenim a Internet.

MR: Haurien de traslladar o fer pública els desenvolupadors de la IA la informació original de què parteix l'eina perquè dur a terme la seva feina?

AS: Podem dir que si les organitzacions no són transparents i no documenten les fonts originals que utilitzen serà molt difícil establir si es generen còpies generalitzades o no, si hi ha o no possibles conflictes, incloent-hi els d'autoria, i si es requereix o no un consentiment previ abans de les fases dentrenament dels models. És molt difícil mesurar de forma empírica i sistemàtica quan hi ha plagi ja que els models de difusió que s'utilitzen s'entrenen amb milions d'imatges que provenen d'un rang ampli de fonts. Sense tenir la informació o documentació per part de les organitzacions, que trien les fonts en primera instància, serà molt més complicat fer-ho a partir dels resultats. Esperem que fer-ho sigui aviat una posició de responsabilitat social corporativa que permeti generar confiança, no només entre els artistes professionals.

Notícies relacionades

Escull quins tipus de galetes acceptes que el web de la Universitat de Girona pugui guardar en el teu navegador.

Les imprescindibles per facilitar la vostra connexió. No hi ha opció d'inhabilitar-les, atès que són les necessàries pel funcionament del lloc web.

Permeten recordar les vostres opcions (per exemple llengua o regió des de la qual accediu), per tal de proporcionar-vos serveis avançats.

Proporcionen informació estadística i permeten millorar els serveis. Utilitzem cookies de Google Analytics que podeu desactivar instal·lant-vos aquest plugin.

Per a oferir continguts publicitaris relacionats amb els interessos de l'usuari, bé directament, bé per mitjà de tercers (“adservers”). Cal activar-les si vols veure els vídeos de Youtube incrustats en el web de la Universitat de Girona.