La responsabilidad humana en el uso de Inteligencia Artificial para armamento militar

Desde el Sur Global Anthony Medina Rivas Plata

Si bien crisis de la pandemia del COVID-19 no tiene aún un final claro, son notorios los esfuerzos de la comunidad internacional, no sólo para encontrar una cura o vacuna para el virus, sino para el diseño de sistemas de inteligencia artificial cada vez más complejos que puedan ayudar a resolver el problema del trabajo en un contexto de distanciamiento social. Y si bien la inteligencia artificial ha sido bienvenida con bastantes reparos frente a una perspectiva de desempleo masivo entre grandes sectores poblacionales a nivel mundial; hay un uso particular de esta tecnología que, si bien no es tan conocido, no deja de generar preocupación: el sector armamentístico.

armamento con inteligencia artificial

Un reciente reporte elaborado por la Cruz Roja y el Instituto de Investigación para la Paz de Estocolmo (SIPRI), indica que la producción de sistemas de armamento dirigidos por Inteligencia Artificial (autonomous weapons systems, AWS) plantea un conjunto de dilemas vinculados a la ética de los conflictos armados y al Derecho Internacional humanitario.

Actualmente, un panel en el marco de la Convención de Armas Convencionales de Naciones Unidas de 1980 se viene reuniendo desde hace unos ocho años para discutir el rol de este tipo de sistemas de armas; las cuales si bien han mostrado utilidad en el mantenimiento de la seguridad de tropas en el extranjero y para la detección temprana de ataques hostiles de parte de grupos insurgentes, se terminan volviendo problemáticas si tienen total autonomía para decidir sobre la vida y la muerte de personas sin mayor vinculación a una jerarquía de mando militar y, en última instancia, a un tomador de decisiones que siempre deberá ser un ser humano.

Esto es difícil de implementar ya que la principal característica de este tipo de armas (drones, tanques, ametralladoras móviles u otros), es su capacidad para reaccionar de manera autónoma. Tanto frente a la cercanía de algún individuo que pueda ser clasificado como combatiente enemigo u objetivo militar; sin ningún tipo de orden previa, sino simplemente respondiendo a un algoritmo programado previamente.

Es notorio que la definición de lo aceptable y lo no aceptable en el uso de AWS sigue siendo motivo de controversia. Esto se debe, tanto a los intereses de organismos internacionales, que intentan poner límites a este tipo de sistemas; como por Estados (principalmente Occidentales) que los consideran necesarios en sus respectivas campañas militares en el extranjero; y por supuesto, a los lobbys armamentísticos que presionan por mayores desregulaciones.

Así, el informe de la Cruz Roja y el SIPRI hace hallazgos importantes que deben ponerse en consideración:

1). Ejercer control humano sobre sistemas de armas autónomas-AWS es bastante difícil de hacer manteniendo al mismo tiempo la “autonomía” del sistema (precisamente para lo que lo diseñaron). 2). Desde una perspectiva ética y de Derechos Humanos, el uso de las AWS genera un limbo legal en donde no se pueden definir responsabilidades humanas, por lo que es indispensable desarrollar algún tipo de control en el uso de la fuerza. 3). Incluso desde el punto de vista operacional, si bien las AWS son útiles por sus sistemas de alerta temprana en la detección y respuesta a ataques; estos sistemas siguen siendo impredecibles y pueden poner en riesgo la seguridad de cualquier operación militar. 4). Los controles a implementar deben incluir: restricciones al tipo de objetivos militares, limitaciones de funcionamiento en el tiempo y el terreno, sistemas de desactivación remota; y parámetros para el reconocimiento de personal civil y similares.

Los Estados que apliquen este tipo de sistemas tendrán que definir los parámetros para aplicar en la práctica estas medidas; mientras que los foros sobre armamento en el marco de Naciones Unidas deberán establecer controles más fuertes y reglas claras para el uso de AWS.

Para concluir. Si la Política siempre está cinco pasos más adelante que el Derecho, es notorio que la Tecnología está a cien pasos más allá. Es necesario reducir la brecha regulatoria en el uso de nuevos aparatos tecnológicos los cuales, aplicados al campo militar, pueden generar resultados realmente desastrosos; así como graves problemas de Derechos Humanos para los Estados que los utilizan.

(*) Licenciado en Ciencia Política, Universidad Nacional Mayor de San Marcos. Erasmus Mundus Master of Arts in Public Policy, Erasmus University Rotterdam / University of York. Investigador Asociado del Instituto de Estudios Políticos Andinos (Lima). Director de la Escuela de Ciencia Política- de la Universidad Católica de Santa María (Arequipa); y coordinador para el Perú de la International Association for Political Science Students (Holanda).

publicidad

El Búho, síguenos también en nuestras redes sociales: 

Búscanos en FacebookTwitterInstagram y YouTube

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

SUSCRÍBETE A NUESTRO NEWSLETTER

SUSCRIBIRSE