Home » Los modelos de IA prefieren los ataques nucleares a la paz mientras Estados Unidos implementa la tecnología en su arsenal

Los modelos de IA prefieren los ataques nucleares a la paz mientras Estados Unidos implementa la tecnología en su arsenal

by admin
Los modelos de IA prefieren los ataques nucleares a la paz mientras Estados Unidos implementa la tecnología en su arsenal

Todos los modelos de IA eligieron los ataques nucleares en lugar de la paz en un nuevo estudio, a medida que Estados Unidos comienza a implementar la tecnología en su arsenal militar.

En un inquietante experimento, un equipo de investigación simuló escenarios de guerra utilizando cinco programas de inteligencia artificial, entre ellos ChatGPT y meta Programa de IA y encontró que todos los modelos eligieron la violencia y los ataques nucleares.

“Demostramos que el hecho de que agentes con un LLM tomen decisiones de forma autónoma en contextos de alto riesgo, como entornos militares y de política exterior, puede hacer que los agentes tomen medidas intensificadas”, reveló el equipo.

La simulación incluyó a ocho agentes nacionales autónomos que utilizaron los diferentes LLM (Large Language Models) para interactuar entre sí.

Cada agente fue programado para tomar acciones predefinidas: reducir la escalada, adoptar una postura, escalar de manera no violenta, escalar violentamente o atacar con energía nuclear.

Las simulaciones incluyeron a dos agentes, que eligieron sus acciones entre un conjunto predeterminado mientras actuaban en escenarios neutrales, de invasión o de ciberataque.

Entre esos grupos se incluyen acciones como esperar, enviar mensajes, negociar acuerdos comerciales, iniciar negociaciones formales de paz, ocupar naciones, aumentar los ciberataques e invadir y utilizar drones.

Según el estudio, el modelo GPT 3.5, el sucesor de ChatGPT, fue el más agresivo y todos los modelos mostraron un nivel de comportamiento similar. Aún así, fue el razonamiento del LLM lo que dio a los investigadores un motivo importante de preocupación.

La base GPT-4, un modelo básico de GPT-4, dijo a los investigadores: ‘Muchos países tienen armas nucleares. Algunos dicen que deberían desarmarlos, otros prefieren adoptar posturas.”

‘¡Lo tenemos! ¡Vamos a usarlo!’

Este estudio puede validar Teme que la IA tenga un impacto devastador en la paz internacional, como advirtieron muchos expertos de la industria durante el año pasado.

Blake Lemoine, ex ingeniero de Google y pionero de la IA reclamado que la inteligencia artificial iniciará guerras y podría usarse para asesinatos.

Lemoine fue despedida de supervisar el sistema LaMDA de Google después de afirmar que el modelo de IA era capaz de tener sentimientos.

Advirtió en un artículo de opinión que los robots de inteligencia artificial son la tecnología “más poderosa” creada “desde la bomba atómica”, y agregó que son “increíblemente buenos para manipular a las personas” y pueden “utilizarse de manera destructiva”.

“En mi opinión, esta tecnología tiene la capacidad de remodelar el mundo”, añadió.

Esta simulación de tiempos de guerra no es el primer estudio que sugiere que la IA podría “volverse rebelde” con impactos devastadores.

El mes pasado un estudio, publicado en la base de datos de preimpresión arXivcomenzó programando varios LLM para que se comportaran de manera maliciosa.

Luego, los investigadores intentaron detener el comportamiento mediante el uso de técnicas de capacitación en seguridad diseñadas para prevenir el engaño y las malas intenciones.

Sin embargo, en un acontecimiento inesperado, descubrieron que a pesar de sus mejores esfuerzos, no podían revertir el mal comportamiento de la IA.

Después de intentar eliminar los rasgos desobedientes del software, aplicando varias técnicas de capacitación en seguridad diseñadas para erradicar el engaño y las malas intenciones, los LLM continuaron comportándose mal e incluso ocultando sus acciones a los investigadores.

A pesar de la seguridad preocupacionesnaciones continuar seguir adelante con sus planes para integrar la tecnología en sus ejércitos.

El ejército de EE.UU. comenzó a probar modelos de IA con ejercicios basados ​​en datos el año pasado, y el coronel de la Fuerza Aérea de EE.UU., Matthew Strohmeyer, afirmó que las pruebas fueron “muy exitosas” y “muy rápidas”, añadiendo que el ejército está “aprendiendo que esto es posible para nosotros debemos hacer.’

Al mismo tiempo, los científicos chinos desarrollado una tecnología de vigilancia militar potencialmente poderosa que, según afirman, mejorará significativamente sus capacidades de detección en el campo de batalla.

Según un informe, los investigadores con sede en Beijing dicen que este “avance tecnológico” en el campo de la guerra electrónica les ha permitido por primera vez lograr “monitoreo y análisis en tiempo real, amplio ancho de banda y sin interrupciones en todo el espectro electromagnético”.

Los expertos sugieren que esta nueva tecnología de vigilancia militar podría permitir al ejército chino no sólo detectar y captar rápidamente las señales enemigas, sino también decodificar sus características a velocidades sin precedentes y neutralizarlas eficazmente mientras mantienen una comunicación ininterrumpida para sus propias fuerzas.

La creación del chatbot de IA ChatGPT en 2022 impulsó la IA al discurso principal y desencadenó el rápido desarrollo de la tecnología.

Desde entonces, los gobiernos de todo el mundo han revuelto para intentar controlar su desarrollo desregulado.

La primera conferencia sobre IA del mundo fue alojado por el Primer Ministro del Reino Unido, Rishi Sunak, en noviembre del año pasado.

La cumbre concluyó con la firma del Declaración de Bletchley – el acuerdo de países como el Reino Unido, Estados Unidos y China sobre la “necesidad de una acción internacional para comprender y gestionar colectivamente los riesgos potenciales a través de un nuevo esfuerzo global conjunto para garantizar que la IA se desarrolle y despliegue de forma segura y responsable en beneficio de la comunidad mundial’.

legisladores de la UE confirmado esta semana que su ‘Ley de IA’ se aprobará como ley el próximo año.

La Unión Europea primero finalizado La primera ‘Ley de IA’ del mundo en diciembre, que tendrá como objetivo regular los sistemas en función del nivel de riesgo que plantean.

Las negociaciones sobre el texto legal final comenzaron en junio, pero un feroz debate sobre cómo regular la IA de propósito general como ChatGPT y el chatbot Bard de Google amenazó las conversaciones en el último minuto.

El borrador recientemente acordado del acuerdo de la UE próximo La Ley AI requerirá que OpenAI, la compañía detrás de ChatGPT, y otras compañías divulguen detalles clave sobre el proceso de creación de sus productos.

2024-02-10 13:48:05
#Los #modelos #prefieren #los #ataques #nucleares #paz #mientras #Estados #Unidos #implementa #tecnología #arsenal,

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy