Los riesgos de la inteligencia artificial para los derechos humanos
La Oficina de lla Alta Comisonad para los Derechos Humanos de la ONU publica un informe en el que se analiza cómo la Inteligencia Artificial -incluidas la elaboración automática de perfiles, la toma de decisiones y otras tecnologías de aprendizaje para las máquinas- afecta al derecho a la intimidad y a otros derechos, incluidos los relativos a la salud, la educación, la libertad de movimiento, la libertad de reunión y asociación pacífica, y la libertad de expresión.
El informe examina cómo a menudo los Estados y las empresas se han precipitado a incorporar los programas informáticos de IA sin ejercer la diligencia debida. Ha habido muchos casos de personas que han sido injustamente tratadas a causa de la IA, ya sea porque se les ha denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA o porque han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial.
Al respecto, la Alta Comisionada Miche Bachelete ha declarado que “La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos”.
“Mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, añadió la Alta Comisionada. “Pero dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”.
Riesgo de discriminación inherente a las decisiones basadas en la IA
En el informe se describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos, que contienen información personal compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos. Los datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares, ya que en el futuro esa información podría aprovecharse de formas difíciles de prever en la actualidad.
“Dado el rápido y continuo crecimiento de la IA, llenar el inmenso vacío de asunción de responsabilidades sobre cómo se recogen, almacenan, comparten y utilizan los datos es uno de los cometidos más urgentes que afrontamos en materia de derechos humanos”, dijo Bachelet.
Las deducciones, predicciones y actividades de seguimiento que llevan a cabo las herramientas de IA, incluida la búsqueda de pautas de conducta humana, plantean también graves interrogantes. Las bases de datos sesgadas en los que a menudo se basan los sistemas de IA pueden conducir a la adopción de decisiones discriminatorias, un riesgo que es más acentuado cuando se trata de grupos que ya se encuentran marginados.
“El riesgo de discriminación inherente a las decisiones basadas en la IA -decisiones capaces de cambiar, definir o perjudicar a las personas- es muy real. Por eso es necesario evaluar y monitorear sistemáticamente las repercusiones de los sistemas de IA, para poder identificar y atenuar los riesgos en materia de derechos humanos”, añadió Bachelet.
“Las tecnologías biométricas, que se están convirtiendo en un comodín para los Estados, las organizaciones internacionales y las empresas de tecnología, constituyen un ámbito que necesita urgentemente más directrices de derechos humanos”, señala el informe.
Esas tecnologías, que comprenden el reconocimiento facial, se usan cada vez más para identificar a determinadas personas a distancia y en tiempo real, lo que puede permitir un seguimiento ilimitado de los individuos. El informe reitera el llamamiento a una moratoria de su uso en espacios públicos, al menos hasta que las autoridades demuestren que no existen problemas significativos con la precisión o los efectos discriminatorios, y que esos sistemas de IA cumplen con las normas aplicables a la protección de datos y a la privacidad.
Transparencia
También es preciso que las empresas y los Estados incrementen la transparencia en lo que se refiere al desarrollo y la aplicación de los sistemas de IA.
“La complejidad del contexto estadístico, los algoritmos y los modelos en los que se basa la elaboración y el funcionamiento de los sistemas de IA, así como el carácter secreto que le confieren los gobiernos y los agentes privados, contribuyen a que la población en general no alcance a comprender la repercusión de los sistemas de IA sobre la sociedad y los derechos humanos”, apunta el informe.
“No podemos seguir reaccionando tardíamente a los efectos de la IA, ni permitir que se use de manera ilimitada, sin fronteras ni supervisión, para enfrentarnos luego a sus casi inevitables consecuencias sobre los derechos humanos. La capacidad de la IA para servir a la población es innegable, pero también lo es su capacidad de contribuir a violaciones de derechos humanos en gran escala, de manera casi indetectable. Es necesario adoptar urgentemente medidas para imponer límites basados en los derechos humanos a la utilización de la IA por el bien de todos”, terminó diciendo Bachelet.
CURSOS |
---|
43º Curso anual de derechos humanos
01/01/1970
|
[Sesión formativa] IGUALDAD Y NO DISCRIMINACIóN. Mecanismos y estándares internacionales
23/03/2021
|