Declaració d’IA Ciutadana sobre la regulació europea de la Intel·ligència Artificial
Des d’IA Ciudadana, coalició de 16 organitzacions socials que lideren a Espanya la resposta social a les polítiques de regulació i implementació de la Intel·ligència Artificial, expressem el nostre profund compromís en vetllar per la protecció dels drets humans i la justícia social a l’era digital.
En aquest sentit, reconeixem la importància de les tecnologies però insistim que el seu desenvolupament i implementació han de respectar els drets i llibertats fonamentals de totes les persones.
En el cas particular d’Espanya, cal destacar que ha volgut situar-se com a referent de la intel·ligència artificial, per la qual cosa ha pres una sèrie de mesures, com ara la posada en marxa de la primera Agència de Supervisió de la Intel·ligència Artificial (AESIA) i la creació d’un entorn de proves (sandboxes) per analitzar l’aplicació del futur Reglament de Intel·ligència Artificial (Reglament d’IA).
Per això, en el context particular de la presidència espanyola del Consell de la UE i el seu paper clau per negociar el text final de la regulació europea de la IA, instem als i les reguladores a protegir i fomentar els drets humans en el context de la intel·ligència artificial i reafirmem el nostre compromís de treballar junts amb les autoritats i altres actors rellevants per assegurar que la regulació de la IA així ho garanteixi. Per fer-ho, considerem prioritària les següents qüestions:
La societat civil ha de participar en la definició de les polítiques d’Intel·ligència artificial
La transparència i la participació són requisits bàsics en tota democràcia. Per això, és indispensable que la ciutadania disposi d’informació accessible i transparent sobre les funcions, les agendes i els mecanismes de participació en els organismes responsables de regular i controlar l’aplicació de la Intel·ligència Artificial.
La totalitat de la ciutadania té dret a participar dels assumptes públics que, com els sistemes d’IA, tenen i tindran impacte a les seves vides, els seus drets i les seves oportunitats. La participació pública efectiva i en plena diversitat permet decisions més equitatives i amb una major legitimitat democràtica.
La determinació del nivell de risc d’un sistema d’IA no pot dependre de les grans empreses que el desenvolupen
El projecte de Reglament d’IA adopta un enfocament de risc i estableix obligacions específiques per als sistemes d’IA que suposen un “alt risc” (enumerant els seus casos d’ús a l’Annex III), entre les quals destaquem: la necessitat de supervisió humana, de realitzar avaluació de riscos i de prendre mesures de mitigació. Dit d’una altra manera: la majoria de les obligacions previstes pel Reglament recauen sobre aquests sistemes d’alt risc. No obstant això, les grans tecnològiques (“big tech”) han aconseguit introduir una via per deslliurar-se d’aquesta categoria i modificar el text perquè siguin les pròpies empreses les que autoavaluïn si el seu sistema és d’ “alt risc”.
Des de IA Ciutadana instem els i les legisladores a eliminar la discrecionalitat en la classificació de sistemes d’alt risc i que, per tant, tots els sistemes llistats a l’Annex III del Reglament siguin considerats d’alt risc. No pot ser el llop qui decideixi si vol vetllar per les gallines.
Sense els requisits necessaris, la intel·ligència artificial pot posar en perill els drets fonamentals a nivell global
La regulació europea serà pionera al món i, per això, Europa té l’oportunitat de produir una norma que asseguri la més alta protecció dels drets fonamentals de la població i dels valors democràtics. L’única manera de garantir el desenvolupament i implementació responsable i respectuosa dels sistemes d’IA d’alt risc serà exigint la realització d’un estudi d’impacte sobre els drets fonamentals abans que aquests sistemes s’implementin. Aquest estudi ha de dur-se a terme garantint la deguda participació dels grups afectats i els seus resultats han de ser públics. Només d’aquesta manera s’aconseguirà que les tecnologies d’IA respectin, promoguin i protegeixin els drets fonamentals.
No hem d’afrontar problemes socials amb respostes merament tecnològiques
Avui dia, a la societat digital, tenim suficient evidència que el tecnosolucionisme que ofereixen les “big tech” no funciona: intentar resoldre problemes socials complexos amb eines tecnològiques, sense incloure en el seu disseny i avaluació a expertes multidisciplinàries així com als grups socials als quals afecten, agreuja la desigualtat i la injustícia social. Més enllà d’això, hi ha sistemes que directament no poden ser admesos en un Estat Social i Democràtic de Dret. Són especialment preocupants: la identificació biomètrica remota a l’espai públic, els sistemes per realitzar perfils o avaluacions de risc amb la finalitat de predir delictes, els sistemes d’avaluació i perfilat en el context de la migració, el reconeixement d’emocions i l’ús de la IA que pugui manipular persones en contextos de vulnerabilitat.
Des d’IA Ciudadana demanem que aquestes aplicacions siguin prohibides perquè el seu ús s’oposa a drets i llibertats fonamentals, entre els quals es poden esmentar: el dret a la privadesa, a la llibertat d’expressió i associació, i a la no discriminació.