Los enjambres de drones militares que utilizan IA podrían ser el futuro de la guerra, lo que plantea preocupaciones éticas

A medida que los investigadores aplican inteligencia artificial y autonomía a máquinas aéreas letales, sus sistemas plantean nuevas preguntas sobre hasta qué punto los humanos seguirán teniendo control del combate moderno.

Los enjambres de drones inteligentes representarían un gran avance en la guerra. En lugar de que los soldados pilotearan vehículos individuales sin tripulación, podrían desplegar enjambres aéreos y marítimos para cooperar en misiones “con una necesidad limitada de atención y control humanos”, según un informe reciente del gobierno estadounidense.

¿Por qué escribimos esto?

La tecnología de drones con inteligencia artificial podría llegar a cambiar la guerra, pero la autonomía de las máquinas letales plantea serios dilemas éticos sobre cómo y si se debe regular el desarrollo, la implementación y el uso de la IA.

La cuestión que se plantea en el futuro es si el Pentágono puede superar los numerosos desafíos tecnológicos de la guerra con drones y, al mismo tiempo, mantener la ética de un Estado democrático. Se teme que los adversarios puedan explotar su propia tecnología de enjambre en conflictos futuros, sin restricciones éticas.

Una pregunta clave es hasta qué punto es necesaria o deseable la supervisión humana. Después de todo, los humanos no procesan la información tan rápido como las máquinas, lo que puede aumentar la presión para sacarlos del circuito a fin de seguir siendo competitivos en la batalla.

“Necesitamos que más gente piense en ellos en el contexto militar, en el contexto del derecho internacional, en el contexto de la ética”, dice Margaret E. Kosal, ex asesora de ciencia y tecnología del Departamento de Defensa.

La proliferación de drones baratos Los conflictos en Ucrania y Oriente Medio han desatado una lucha por perfeccionar vehículos no tripulados que puedan planificar y trabajar juntos en el campo de batalla.

Estos “enjambres” inteligentes de próxima generación representarían un gran avance en la guerra. En lugar de que los soldados pilotearan vehículos individuales sin tripulación, podrían desplegar enjambres aéreos y marítimos en misiones “con una necesidad limitada de atención y control humanos”, según un informe reciente del gobierno estadounidense. Es el “santo grial” para el ejército, dice Samuel Bendett, asesor del Centro de Análisis Naval, un centro de investigación y desarrollo financiado por el gobierno federal.

También es un campo minado ético. A medida que los investigadores aplican inteligencia artificial y autonomía a máquinas letales, sus sistemas plantean el espectro de los ejércitos de drones y plantean nuevas preguntas sobre el papel que debe desempeñar el control humano en el combate moderno. Y aunque los funcionarios del Pentágono han prometido durante mucho tiempo que los humanos siempre estarán “al tanto” cuando se trate de decisiones de matar, el año pasado el Departamento de Defensa actualizó su guía para abordar la autonomía de la IA en las armas.

¿Por qué escribimos esto?

La tecnología de drones con inteligencia artificial podría llegar a cambiar la guerra, pero la autonomía de las máquinas letales plantea serios dilemas éticos sobre cómo y si se debe regular el desarrollo, la implementación y el uso de la IA.

“Es un nivel de aprobación muy alto para siquiera proceder a probar un sistema de armas completamente autónomo”, dice Duane T. Davis, profesor titular del departamento de informática de la Escuela Naval de Posgrado en Monterey, California. Pero “prevé la posibilidad de sistemas de armas completamente autónomos”.

Esto se debe en gran medida a que gran parte de la investigación militar estadounidense está impulsada por los temores de cómo los adversarios pueden explotar su propia tecnología de enjambre en un futuro conflicto con Estados Unidos o sus aliados. La pregunta de cara al futuro es si el Pentágono puede superar los innumerables desafíos tecnológicos de la guerra con drones. manteniendo al mismo tiempo la ética de un estado democrático.

La preocupación es que China “no va a lidiar con estas mismas decisiones éticas de la misma manera que lo haremos nosotros”, dice el Dr. Davis.

2024-08-26 17:56:41
#Los #enjambres #drones #militares #utilizan #podrían #ser #futuro #guerra #plantea #preocupaciones #éticas,

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy