Los robots asesinos amenazan a los derechos humanos

- Los sistemas de armas autónomas, los llamados “robots asesinos”, representan graves riesgos para los derechos humanos tanto en tiempos de guerra como de paz. Ello hace indispensable tratado multilateral sobre para encarar esos peligros, demanda un informe de Human Rights Watch (HRW).
Sistema modular robótico armado avanzado, no tripulado aunque controlado por un humano a distancia. Crece la preocupación por el desarrollo de las armas que puedan operar sin un control humano significativo, en una clara contravención de los derechos humanos. Imagen: QNA / Onudd

NUEVA YORK – Los sistemas de armas autónomas, conocidos como “robots asesinos”, representan graves riesgos para los derechos humanos tanto en tiempos de guerra como de paz, y un tratado multilateral debe encarar esos peligros, señaló la organización Human Rights Watch (HRW) en un informe publicado este lunes 28.

Bonnie Docherty, asesora sobre armamento en HRW, afirmó que “el uso de sistemas de armas autónomas no se limitará a los conflictos armados, sino que se extenderá a operaciones de seguridad, control fronterizo y otras circunstancias”.

Ese temido desarrollo “genera serias preocupaciones en virtud del derecho internacional de los derechos humanos”, indicó Docherty, también profesora en la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de la Universidad de Harvard (Estados Unidos) y autora principal del informe.

“Para evitar un futuro de asesinatos automatizados, los gobiernos deben aprovechar cada oportunidad para avanzar hacia la adopción de un tratado mundial sobre sistemas de armas autónomas”, planteó la experta.

Los avances tecnológicos y las inversiones militares están impulsando el rápido desarrollo de sistemas de armas autónomas que operarían sin un control humano significativo.

El informe de 61 páginas, titulado “Una amenaza para los derechos humanos: sistemas de armas autónomas y procesos de toma de decisiones digitales”, concluye que esas armas contravendrían los derechos a la vida, a la reunión pacífica, a la privacidad y a un recurso efectivo.

Como seleccionan y aplican la fuerza contra objetivos en función de sensores en lugar de insumos humanos, también contrarían los principios de dignidad humana y no discriminación.

Operan sin un control humano significativo, y una vez activados dependerían de software –que a menudo utiliza algoritmos— así como de insumos de sensores como cámaras, firmas de radar, formas térmicas y otros datos para identificar un objetivo.

Localizado el objetivo, dispararían o liberarían su carga sin necesidad de aprobación o revisión por parte de un operador humano. Esto significa que una máquina, y no una persona, determinaría dónde, cuándo y contra qué aplicar la fuerza.

Los sistemas de armas autónomas carecerían así de la capacidad para interpretar situaciones complejas y para aproximarse con precisión al juicio y la sensibilidad humanos, elementos esenciales para el uso legítimo de la fuerza en el marco de los derechos a la vida y a la reunión pacífica.

En contra de los principios fundamentales de los derechos humanos, serían incapaces de valorar la vida humana de la manera necesaria para respetar la dignidad de cada persona.

Además, los sistemas que dependen de inteligencia artificial probablemente incurrirían en prácticas discriminatorias debido a los sesgos de quienes los desarrollan y a la falta inherente de transparencia del aprendizaje automático.

También vulnerarían los derechos humanos a lo largo de todo su ciclo de vida, no solo en el momento de su uso. La vigilancia masiva necesaria para su desarrollo y entrenamiento socavaría el derecho a la privacidad.

Y la ausencia de rendición de cuentas asociada a estos sistemas opacos (“cajas negras”) vulneraría el derecho a un recurso efectivo tras un ataque.

Los sistemas de armas con distintos grados de autonomía existen desde hace años, pero se han limitado los tipos de objetivos, la duración de las operaciones, el alcance geográfico y el entorno en el que operan. Entre ellos se incluyen los sistemas de defensa antimisiles, los drones armados y las municiones merodeadoras.

Doherty resaltó que “las personas, ya sean soldados o agentes de policía, a menudo cometen violaciones graves de los derechos humanos, pero sería aún peor sustituirlas por máquinas”.

“Aunque las personas tienen la capacidad de respetar los derechos humanos, las máquinas no poseen la facultad de cumplirlos ni de comprender las consecuencias de sus actos”, insistió la académica.

Más de 120 países se han pronunciado ya a favor de la adopción de un nuevo tratado internacional sobre sistemas de armas autónomas.

El secretario general de las Naciones Unidas, António Guterres, y la presidenta del Comité Internacional de la Cruz Roja, Mirjana Spoljaric Egger, han instado a los Estados a “actuar ahora para preservar el control humano sobre el uso de la fuerza”.

Para ello requieren la negociación, antes de 2026, de un instrumento jurídicamente vinculante que establezca prohibiciones y normas sobre estos sistemas.

La Asamblea General de las Naciones Unidas sobre sistemas de armas autónomas celebrará una reunión sobre el tema los días 12 y 13 de mayo de 2025, tras una resolución de diciembre de 2024 adoptada con 166 votos a favor, tres en contra (Bielorrusia, Corea del Norte y Rusia) y 15 abstenciones.

A-E/HM

 

Compartir

Facebook
Twitter
LinkedIn

Este informe incluye imágenes de calidad que pueden ser bajadas e impresas. Copyright IPS, estas imágenes sólo pueden ser impresas junto con este informe