HRW pide un nuevo foro para tratar sobre los “robots asesinos”

Una demostración en Berlín contra los "robots asesinos''. En el mundo avanzan reclamos para que se establezcan límites sobre las armas autónomas letales, que con base en inteligencia artificial pueden decidir sobre ataques y muertes casi sin intervención humana. Foto: Campaña Stop Killer Robots

GINEBRA – Los gobiernos del mundo deberían trasladar a un nuevo foro las discusiones sobre los sistemas de armas autónomas letales, conocidas como “robots asesinos” porque toman decisiones sobre vida o muerte sin intervención humana, planteó nuevamente la organización humanitaria Human Rights Watch (HRW).

Bonnie Docherty, investigadora sénior sobre armas en HRW, dijo que “cuanto más tiempo la cuestión de los robots asesinos permanezca paralizada en el foro actual, más tiempo tendrán los desarrolladores de sistemas de armas autónomas para crear nuevas tecnologías y lograr viabilidad comercial”.

“Un nuevo tratado contribuiría a detener la carrera armamentista, y a evitar la proliferación, estigmatizando la eliminación del control humano”, agregó.

Los robots asesinos son drones, vehículos, armas, bombas u otros dispositivos que deciden por su cuenta, con cerebros artificiales y poca o ninguna intervención humana, si atacan y matan, cuándo y dónde.

Desde 2014 se han mantenido conversaciones sobre esos sistemas en el marco de la Convención sobre Ciertas Armas Convencionales (CAC) de 1980, que proscribió las armas excesivamente nocivas o con efectos indiscriminados.

Pero esas reuniones no registran avances porque, según HRW, trabajan sobre la base del consenso, y por ello basta que un solo país se oponga para que cualquier propuesta resulte rechazada, aunque una mayoría de países la apoye.

Unas pocas potencias militares han bloqueado, en reiteradas oportunidades, las propuestas de iniciar negociaciones, como fue el caso de India y Rusia el año pasado, ambos países opuestos además a permitir que organizaciones no gubernamentales participasen en los debates.

HRW dijo que no aprecia “ningún indicio de acuerdo sobre negociar un nuevo instrumento jurídicamente vinculante a través de la CAC en 2023 ni en el futuro próximo”, cuando los 114 países que son partes de esa convención efectúen una nueva reunión, en esta ciudad suiza, del 16 al 18 de noviembre.

Por ello, junto a la Clínica de Derechos Humanos de la estadounidense Universidad de Harvard, propone que un tratado sobre los robots asesinos se negocie fuera de las Naciones Unidas, como el de las minas terrestres y municiones de racimo, o en la Asamblea General de la ONU, como el de prohibición de las armas nucleares.

Al respecto recordaron que en octubre 70 países entregaron una declaración en la Asamblea General de la ONU favoreciendo “la adopción de reglas y medidas apropiadas, como principios, buenas prácticas, limitaciones y restricciones” para los denominados “sistemas letales de armas autónomas”.

La declaración enfatizó “la necesidad de que los seres humanos ejerzan un control, un juicio y una participación apropiados en relación con el uso de los sistemas de armas, para garantizar que cualquier uso cumpla con el Derecho Internacional, en particular el Derecho Internacional Humanitario”.

“Que los seres humanos permanezcan responsables de las decisiones sobre el uso de la fuerza”, agregó el texto.

Entre los suscriptores estaban potencias militares como Estados Unidos, Reino Unido, Francia, Alemania, Australia, Canadá o Japón, acompañadas de naciones de considerable influencia política o económica como Italia, Países Bajos, España, Corea del Sur, Argentina y México.

En cambio, no lo suscribían potencias militares globales o regionales como China, Rusia, India, Pakistán, Turquía, Irán, Israel, Corea del Norte o Brasil.

Los países que más fuertemente están invirtiendo en las aplicaciones militares de la inteligencia artificial y en las tecnologías para desarrollar sistemas aéreos, terrestres y marítimos de armas autónomas son Australia, China, Corea del Sur, Estados Unidos, India, Irán, Israel, Reino Unido y Turquía.

HRW plantea que, si se arribara a un nuevo tratado internacional, debería prohibir los sistemas de armas autónomas que carezcan de control humano significativo, así como los sistemas dirigidos a personas.

El secretario general de las Naciones Unidas, António Guterres, ha pedido establecer “límites acordados a nivel internacional” para los sistemas de armas que puedan, por sí mismos, elegir como blancos a seres humanos y atacarlos, y describió esas armas como “moralmente repudiables y políticamente inaceptables”.

Para HRW es alentador que empresas de robótica, como la estadounidense Boston Dynamics, se hayan comprometido a no transformar en armas sus robots móviles avanzados, e instan a otros actores a “asumir compromisos similares de no construir, autorizar, brindar apoyo ni permitir que se conecten armas a estos robots”.

A-E/HM

 

Compartir

Facebook
Twitter
LinkedIn

Este informe incluye imágenes de calidad que pueden ser bajadas e impresas. Copyright IPS, estas imágenes sólo pueden ser impresas junto con este informe