El Ejército de Estados Unidos podría emplear robots y drones autónomos para futuras decisiones militares

La semana pasada se realizó una conferencia sobre la inteligencia artificial en la Fuerza Aérea.
La semana pasada se realizó una conferencia sobre la inteligencia artificial en la Fuerza Aérea.
Google
La semana pasada se realizó una conferencia sobre la inteligencia artificial en la Fuerza Aérea.

En agosto del año pasado, docenas de drones militares y robots similares a tanques tomaron en control del cielo y las carreteras a unos 64 kilómetros de Seattle. Su misión era encontrar a supuestos terroristas que se escondían entre varios edificios. Estos robots actuaron de forma autónoma y, para ello, recibieron instrucciones para encontrar y eliminar a los enemigos cuando fuese necesario.

Esta misión era solamente un simulacro y el ‘ejército mecánico’ estaba armado con transmisores de radio que simulaban interacciones con robots amigables y enemigos. Este ensayo, organizado por la Agencia de Proyectos de Investigación Avanzada de Defensa de Estados Unidos, quería probar cómo la inteligencia artificial ayudaba a expandir el uso de la automatización en los sistemas militares.

Los resultados de las pruebas han supuesto un cambio en el pensamiento del Pentágono sobre el uso armas autónomas. El general John Murray, del United States Army Futures Command, explicó que los robots obligarán a los planificadores militares, y a los encargados de la formulación de políticas y la sociedad a pensar si una persona debe tomar las decisiones sobre el uso de la fuerza letal.

La semana pasada se realizó una conferencia sobre la inteligencia artificial en la Fuerza Aérea. En ella, Michael Kanaan, director de operaciones del Acelerador de Inteligencia Artificial de la Fuerza Aérea en el MIT aseguró que la IA debería realizar objetivos potenciales identificativos y distintivos y los seres humanos tomar las decisiones de alto nivel.

Un informe publicado este mes de la Comisión de Seguridad Nacional de Inteligencia Artificial (NSCAI) recomendó a Estados Unidos que se resistiese a pedir una prohibición internacional del desarrollo de armas autónomas. El Dr. Timothy Chung, gerente del programa DARPA, comentó que el simulacro del verano pasado sirvió para preguntarse cuándo un operador de drones humanos debería tomar decisiones y cuándo no.

Los drones y los robots, cada uno del tamaño de una mochila grande, habían recibido un objetivo general y contaban con algoritmos de IA para idear un plan para cumplirlo. Algunos rodearon los edificios y otros hicieron barridos de vigilancia.

Estados Unidos y otros países han empleado sistemas autónomos de armas durante décadas. Por ejemplo, existen misiles que pueden identificar y atacar de forma autónoma a los enemigos de una zona. Sin embargo, los últimos avances proporcionan una mayor fiabilidad que permitirá que cada vez se utilice a más máquinas autónomas en las misiones.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Mostrar comentarios

Códigos Descuento