La implantació de la Intel·ligència Artificial a la frontera i la vulneració de drets
Recentment, ha aparegut a premsa la notícia sobre la voluntat del govern espanyol d’aplicar l’anomenada «frontera intel·ligent» als passos fronterers de Ceuta i Melilla amb l’objectiu d’exercir un major control de seguretat mitjançant l’ús d’intel·ligència artificial a través de la recollida de dades biomètriques (reconeixement facial, empremtes dactilars…). Davant d’aquesta notícia, les sotasignades manifestem la nostra preocupació i creiem necessari alertar dels perills associats a aquest tipus de decisions polítiques que comporta l’ús de la intel·ligència artificial.
Els durs controls fronterers són espais de potencial vulneració de drets:
- Vulneració de drets fonamentals: l’impacte en els drets bàsics que pot tenir a un futur la recopilació de dades biomètriques com ja passa en aplicació del Conveni de Dublín. Els trasllats de persones sol·licitants d’asil d’un estat membre a un altre en contra de la seva voluntat, en augment en els darrers anys, han estat, en part, propiciades per la recopilació de dades biomètriques, com les empremtes dactilars.
- Violació de la privacitat: les dades biomètriques són dades intrínseques a les persones. La recopilació de dades biomètriques a persones sense passaport europeu no compleix amb el principi de proporcionalitat. Aquestes persones es troben sovint en situació de vulnerabilitat i no es tenen en compte les conseqüències no desitjades de disposar d’unes dades biomètriques de persones que no compten amb mecanismes de protecció, garantia i reparació adequats.
- Discriminació i criminalització. L’aplicació de la “frontera intel·ligent” com un element de lluita contra el terrorisme suposa un perill de discriminació i criminalització i la converteix en un nou dispositiu racista dins de l’Estat espanyol. Les polítiques antiterroristes sovint han resultat una eina de propagació de la islamofòbia, que han tingut com a conseqüència un rebuig generalitzat cap a la població migrant i racialitzada. És de sobres conegut que els algorismes de reconeixement facial solen llançar falsos positius i falsos negatius en rostres no caucàsics, la qual cosa, en aquest context concret, podria suposar greus conseqüències per a persones identificades erròniament com a sospitoses d’actes terroristes. La utilització d’IA per a el control fronterer aprofundiria l’estigmatització i criminalització de grups de persones que ja es troben en una gran situació de vulnerabilitat i/o exclusió.
- Transparència i auditabilitat. El procediment pateix una manca de transparència tant en la forma, com en el fons. Tampoc no s’esmenta l’auditabilitat i publicitat dels algorismes. Per les informacions conegudes, no es parla que els algorismes que s’utilitzin siguin auditables i/o explicables, tampoc de mecanismes de traçabilitat que permetin supervisió humana ni de polítiques de protecció de dades.
- Mecanismes de control i revisió. Resulta imprescindible incorporar mecanismes de control i revisió dels procediments algorísmics que permetin esmenar errors de manera àgil per grups de persones independents en què han de poder participar entitats en defensa dels drets humans i antiracistes. L’ús d’aquests sistemes de reconeixement facial suposa una doble securització del procés, que estigmatitza però també dilueix la responsabilitat humana i política davant dels danys, efectes indesitjats o conseqüències negatives del seu ús.
Per tot això, l’aplicació de mecanismes d’intel·ligència artificial en el control de fronteres, suposa un perill de vulneració de drets humans, discriminació, criminalització i violació de privacitat.
Per això exigim:
- L’aplicació de la regulació de la IA i la protecció de dades elaborada per la Comissió Europea també a contextos i situacions que es consideren de tipus “securitari”, no pot haver-hi buit legal en aquest àmbit.
- La derogació del Reglament UE 2017/2226 del Parlament Europeu i del Consell 30/11 /17 que permet el reconeixement facial.
- La necessitat d’informació i consentiment informat davant de l’ús d’aquests sistemes, fins i tot si s’arriben a aplicar i desplegar.
- Incorporació sistemàtica d’observadors de drets humans a les actuacions a frontera.
- Aplicació de tecnologies explicables i auditables, auditoria i control extern de les tecnologies aplicades, les dades i imatges emmagatzemades.
- Es pugui dur a terme de manera rigorosa, els processos de disseny i proves dels sistemes, incloent-hi les bases de dades utilitzades per calibrar els algorismes, cal posar-los a disposició d’auditories independents i persones afectades.