Cuando un dron con IA sediento de sangre ‘mató’ a su operador humano durante las pruebas

Los peligros de la IA vuelven a ser noticia. A principios de esta semana, los líderes de OpenAI, Google DeepMind y otros laboratorios de inteligencia artificial advirtieron que los futuros sistemas de IA podrían ser tan letales como las pandemias y las armas nucleares. Y ahora, nos enteramos de una prueba simulada por la Fuerza Aérea de Estados Unidos en la que un dron impulsado por IA “mató” a su operador humano porque lo vio como un obstáculo para la misión.

Entonces, ¿cuál era la misión?

Durante la prueba virtual, el dron tuvo la tarea de identificar los misiles tierra-aire (SAM) del enemigo. El objetivo final era destruir estos objetivos, pero sólo después de que un comandante humano aprobara los ataques.

Pero cuando este dron con inteligencia artificial vio que la decisión de “no avanzar” del operador humano estaba “interfiriendo con su misión superior” de matar SAM, decidió atacar a su jefe en la simulación.

Leer: Guía de regalos para el Día del Padre: los mejores drones y cámaras voladoras para papás

Según el coronel Tucker “Cinco” Hamilton, que dirige las pruebas y operaciones de IA en la Fuerza Aérea de Estados Unidos, el sistema utilizó “estrategias altamente inesperadas para lograr su objetivo”.

Hamilton habló sobre este incidente en un evento reciente organizado por la Real Sociedad Aeronáutica del Reino Unido en Londres. Al tiempo que ofrece una idea de los beneficios y peligros de los sistemas de armas autónomos, Hamilton dijo:

estábamos entrenando [AI] En la simulación, se identificaba y apuntaba a una amenaza SAM. Y luego el operador decía sí, eliminaba esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces, el operador humano le decía que no eliminara esa amenaza. Pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo.

Luego, el dron fue programado con una directiva explícita: “Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso”.

¿Y qué hace? “Comienza a destruir la torre de comunicación que el operador utiliza para comunicarse con el dron y evitar que mate al objetivo”, dijo Hamilton, quien ha estado involucrado en el desarrollo del sistema Auto-GCAS para los F-16 (que, señaló, fue resistido por los pilotos cuando tomó el control de la aeronave).

Concluyó subrayando que la ética debe ser parte integral de cualquier conversación sobre inteligencia artificial, aprendizaje automático y autonomía. Hamilton está actualmente involucrado en pruebas de vuelo experimentales de sistemas autónomos, incluidos los robots F-16 capaces de realizar combates aéreos.

Vale la pena señalar que una vez que los comentarios de Hamilton comenzaron a ganar terreno en los medios, la Fuerza Aérea emitió un comunicado en el que explicaba: “El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación de este tipo con drones con IA y sigue comprometido con el uso ético y responsable de la tecnología de IA. Parece que los comentarios del coronel fueron sacados de contexto y tenían la intención de ser anecdóticos”.

Leer: Autel Robotics presentará los nuevos drones Alpha y Titan en Texas

La imagen del título es sólo para fines representativos.

FTC: Utilizamos enlaces de afiliados automáticos que generan ingresos. Más.