Model d’autoavaluació PIO

Iniciar Formulari

Transparència

Justícia

Seguretat

Responsabilitat

Privacitat

Autonomia

Sostenibilitat

Model d’autoavaluació PIO

Presentem el model d'autoavaluació PIO (Principis, Indicadors i Observables) per avançar en l’avaluació ètica de dades i sistemes d'intel·ligència artificial a través d'un formulari de verificació o checklist.

Model d’autoavaluació PIO

Autoavaluació per al compliment de la normativa de dades i sistemes d’IA

Promou el compliment de la normativa sobre riscos de la intel·ligència artificial mitjançant una verificació exhaustiva. Identifica accions adequades o inadequades i sensibilitza la quàdruple hèlix sobre l’ús ètic i responsable de dades i sistemes d’intel·ligència artificial. Tot això, alineat amb els principis ètics i estàndards internacionals en el disseny, implementació i ús d’aquests sistemes.

Objectius

Garantim el compliment dels més alts estàndards de responsabilitat, seguretat i respecte pels drets humans.

Una eina d’avaluació que afavoreix el compliment de la normativa i regulació actual sobre riscos associats a la intel·ligència artificial a través d’un procés de verificació exhaustiu.

Una eina que permet identificar accions adequades o inadequades i sensibilitzar a la quàdruple hèlix a través dels usos ètics i responsables de les dades i sistemes d’intel·ligència artificial.

Una eina que s’alinea amb la creixent adopció internacional de principis ètics i d’estàndards d’alt nivell en el disseny, implementació i ús de dades i sistemes d’intel·ligència artificial.

Situar-nos

Preguntes inicials

Sabeu quin és el problema que esteu intentant resoldre amb l’ús d’un sistema d’IA?

Us heu plantejat si és necessari utilitzar un sistema d’IA per resoldre aquest problema? 

Heu considerat els beneficis que aportarà l’ús d’un sistema d’IA i si aquests superen els riscos que planteja?

Sabeu explicar de quina manera el sistema d’IA resoldrà el problema o objectiu concret d’una manera comprensible?

Heu establert mecanismes per evitar que el sistema d’IA no s’exploti de manera maliciosa?

Sou conscients del vostre grau de responsabilitat respecte els possibles perjudicis d’utilitzar un sistema d’IA?

Utilitzeu dades d’una forma que es garanteixen drets fonamentals com el dret a la privadesa i els drets d’autor?

Sabeu que un sistema d’IA ha d’augmentar capacitats però, en cap cas, limitar l’autonomia de les persones i la seva presa de decisions?

Teniu en compte que la sobreestimació de les capacitats d’un sistema d’IA contribueix a la desinformació tècnica i comercial?

Coneixeu l’impacte ambiental com la petjada de carboni associada a l’ús del sistema d’IA?

Recomanacions

Oferim contingut recomanat per a la redacció de clàusules de contractes relatius a sistemes d’IA.

Preguntes

FAQs

L’arribada de la IA pot entrar en conflicte amb els drets humans i llur tutela en diversos textos normatius i és per això que fem èmfasi en que l’ús ha de ser ètic i d’acord als drets fonamentals de totes les persones.

Els sistemes d’IA no poden estar exempts de respectar els consensos socials assolits al voltant dels drets mínims garantits per a tothom, sinó al contrari, s’ha de promoure que l’aplicació de la IA sigui adequada i d’acord aquets. I no només en la seva creació, sinó també durant totes les seves fases i ús.

Per això diem que la relació entre la AI Act i els drets humans és estreta i de cooperació perquè són la base d’un bon funcionament dels sistemes d’IA.

Aquesta entrarà en vigor vint dies després de la seva publicació en el Diari Oficial de la UE. La previsió és que es publiqui al DOUE el 12 de juliol, la qual cosa significa que hauria d'entrar en vigor l'1 d'agost de 2024.

Això no obstant, no totes les obligacions contingudes a la norma seran immediatament exigibles, sino que l’article 113 de la AI Act preveu diferents terminis per algunes seccions, amb l'objectiu de brindar als subjectes de temps per adaptar-se als requisits previstos.

És per aquest motiu que les normes relatives a les pràctiques prohibides no seran aplicables fins a 6 mesos després de la publicació de la regulació. Les disposicions relacionades amb els sistemes d'IA generativa, de categorització biomètrica, de reconeixement d'emocions, i models de propòsit general seran exigibles en el termini de 12 mesos des de la mateixa data.

Pel que fa a les normes aplicables als sistemes d’alt risc, seran exigibles en un termini de 24 mesos per als sistemes inclosos en l’Annex III de la AI Act (sistemes relatius a àmbits d’especial incidència sobre els drets fonamentals, com per exemple la salut), i en 36 respecte als sistemes enumerats a l’Annex I (sistemes ja coberts per la regulació sobre productes de la UE).

Si, és aconsellable que, fins i tot si el vostre sistema no estigui contemplat de manera expressa a la AI Act, heu d'adoptar mesures per tal de complir amb els estàndards que en ella mateixa es contemplen. Cal tenir en compte que la normativa contigua a la AI Act també funciona com una adequació als paràmetres ètics i que, per tant, permeten avançar en l’anomenada IA ètica i responsable.

Així mateix, cal notar que la categorització de sistemes que contempla la versió actual de la AI Act no és hermètica, sinó que la mateixa llei atribueix a la Comissió la potestat per incloure més tipus de sistemes a les categories establertes. En conseqüència, que el vostre sistema actualment no estigui afectat per la legislació no implica que no pugui estar-ho en un futur. Així doncs, començar a treballar en el compliment dels requisits de la AI Act us pot aportar seguretat de cara a qualsevol possible canvi en la legislació.

La AI Act classifica els sistemes d'IA en 4 categories de risc: 1) sistemes de risc inacceptable, on se situen els sistemes destinats als usos prohibits per l'article 5 de la AI Act; 2) sistemes d'alt risc, enumerats a l'article 6 de la AI Act, que són considerats com a tal perquè es considera que el seu ús pot suposar un perill per als drets i llibertats fonamentals, la salut i seguretat de les persones, el medi ambient i/o la democràcia i l'estat de dret; 3) sistemes de risc limitat, categoria en la qual s'encabeixen diversos tipus de sistemes amb relació als quals es preveuen determinades obligacions de transparència; i 4) sistemes de risc mínim, els quals no són considerats potencialment perillosos, motiu pel qual la normativa pràcticament no els contempla.

Les possibles sancions davant l'incompliment de la AI Act es contemplen en el capítol XII de la regulació. La infracció de les normes relatives als usos prohibits establertes a l'article 5 de la legislació pot comportar una multa administrativa de fins a 35.000.000 euros, o el 7% de la facturació global si aquesta darrera xifra és més elevada. Pel que fa a l'incompliment dels requisits establerts per als sistemes d'alt risc o les obligacions de transparència en relació amb els sistemes d'IA generativa, categorització biomètrica, reconeixement d'emocions a aquests pot comportar una multa de fins a 15.000.000 euros, o el 3% de la facturació, de nou, depenent de si aquesta segona xifra és més elevada que la primera.

Així mateix, la AI Act contempla la possibilitat d'imposar multes de fins a un 3% de la facturació global, o 15.000.000 euros, segons quina sigui la xifra més alta, als proveïdors de models de propòsit general que, de manera intencional o negligent, infringeixin la regulació.

La AI Act és la normativa europea que introdueix un marc regulador i legal comú sobre intel·ligència artificial per a tots els estats membres de la UE però, no n’és la única.

Així doncs, destaquem que en els següents textos legals també consta regulació en matèria de la IA: la AI Liability Act; la Directiva sobre els requisits d'accessibilitat dels productes i serveis; la Directiva sobre l'accessibilitat dels llocs web i aplicacions per a dispositius mòbils del sector públic; la Directiva de protecció de dades amb fins de prevenció, investigació, detecció, enjudiciament o execució d'infraccions penals; la Directiva dels drets d’autor i drets afins en la societat de la informació; la Directiva sobre els drets d'autor i drets afins en el mercat únic digital; la Llei Europea sobre la Governança de dades; el Reglament general de protecció de dades; i el Reglament de protecció de dades tractades per institucions, òrgans i organismes de la Unió.

Tot això sense incloure les recomanacions ètiques i les legals, pel que us encoratgem a utilitzar el Model PIO per anar a l’avançada i actuar de manera coherent amb els requisits legals i estàndards ètics esperats.

Més informació