Bachelet exige moratoria para la inteligencia artificial riesgosa

El empleo de la inteligencia artificial puede significar beneficios pero también atropellos, por lo que debe vedarse el empleo de cada uno de sus sistemas hasta que se demuestre que cumplen con normas internacionales de derechos humanos. Imagen: Unesco

GINEBRA – La alta comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, planteó este miércoles 15 la “urgente necesidad” de establecer una moratoria a la venta y el uso de los sistemas de inteligencia artificial (IA) que amenazan gravemente los derechos humanos.

La inteligencia artificial “puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo” dijo Bachelet al presentar en esta ciudad suiza el informe de su oficina (Acnudh) “The right to privacy in the digital age (El derecho a la privacidad en la era digital)”.

Pero agregó inmediatamente que “las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos”.

Expuso que “mientras mayor sea el riesgo para los derechos humanos, más estrictos deben ser los requisitos legales para el uso de la tecnología de IA”, y los programas que incumplan normas internacionales de derechos humanos deben ser eliminados..

“Dado que la evaluación de los peligros y cómo superarlos puede llevar todavía algún tiempo, los Estados deberían implementar desde ahora moratorias sobre el uso de las tecnologías que presentan un alto potencial de riesgo”, demandó.

“La inteligencia artificial puede ser una fuerza para el bien, que ayude a las sociedades a superar algunos de los mayores retos de nuestro tiempo. Pero las tecnologías de IA también pueden tener efectos nocivos e incluso catastróficos, cuando se emplean sin prestar la debida atención a su capacidad de vulnerar los derechos humanos”: Michelle Bachelet.

El informe de Acnudh analiza cómo la IA -incluidas la elaboración automática de perfiles, la toma de decisiones y otras tecnologías de aprendizaje para las máquinas- afecta al derecho a la intimidad y a otros derechos.

Entre éstos, los relativos a la salud, la educación, la libertad de movimiento, la libertad de reunión y asociación pacífica, y la libertad de expresión.

En el estudio se examina cómo a menudo los Estados y las empresas se han precipitado a incorporar los programas informáticos de IA, y son muchos los casos de personas que han sido injustamente tratadas a causa ellos.

Por ejemplo, se les han denegado prestaciones del seguro social debido a la aplicación de instrumentos deficientes de IA, o han sido arrestadas como consecuencia de errores en los sistemas de reconocimiento facial.

La IA “llega ahora a casi todos los rincones de nuestras vidas, e incluso alcanza a nuestros estados emocionales. Se usa para decidir quién recibe servicios públicos, quién tiene oportunidad de obtener un empleo, y afecta la información que la gente ve y que puede compartir en Internet”, dijo Bachelet.

En el informe se describe detalladamente cómo los sistemas de IA se basan en grandes bases de datos, que contienen información personal compilada, intercambiada, combinada y analizada con métodos diversos y a veces opacos.

Los datos que alimentan y orientan a los sistemas de IA pueden ser deficientes, discriminatorios, obsoletos o poco pertinentes. El almacenamiento de datos a largo plazo entraña también riesgos particulares, ya que en el futuro esa información podría aprovecharse de formas difíciles de prever en la actualidad.

“Dado el rápido y continuo crecimiento de la IA, llenar el inmenso vacío de asunción de responsabilidades sobre cómo se recogen, almacenan, comparten y utilizan los datos es un cometido urgente que afrontamos en materia de derechos humanos”, dijo Bachelet, quien fue dos veces presidenta de Chile (2006-2010 y 2014-2018).

Las bases de datos sesgadas en las que a menudo se basan los sistemas de IA pueden conducir a la adopción de decisiones discriminatorias, un riesgo que es más acentuado cuando se trata de grupos que ya se encuentran marginados.

El informe asienta que “las tecnologías biométricas, que se están convirtiendo en un comodín para los Estados, las organizaciones internacionales y las empresas de tecnología, constituyen un ámbito que necesita urgentemente más directrices de derechos humanos”.

Esas tecnologías, que comprenden el reconocimiento facial, se usan cada vez más para identificar a determinadas personas a distancia y en tiempo real, lo que puede permitir un seguimiento ilimitado de los individuos.

El informe reitera la necesidad de una moratoria de su uso en espacios públicos, al menos hasta que las autoridades demuestren que no existen problemas significativos con la precisión o los efectos discriminatorios, y que esos sistemas de IA cumplen con las normas aplicables a la protección de datos y a la privacidad.

También se pide que las empresas y los Estados incrementen la transparencia en lo que se refiere al desarrollo y la aplicación de los sistemas de IA.

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) abrió una consulta mundial sobre la ética de la IA, y promueve su primer borrador de recomendaciones o código de conducta para empresas y gobiernos con responsabilidades sobre esas tecnologías.

A-E/HM

Compartir

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn

Este informe incluye imágenes de calidad que pueden ser bajadas e impresas. Copyright IPS, estas imágenes sólo pueden ser impresas junto con este informe