En un reciente test virtual organizado por el ejército de Estados Unidos, un dron de la Fuerza Aérea controlado por Inteligencia Artificial decidió “eliminar” a su operador para evitar que interfiriera en su misión. Aunque ningún individuo real resultó lesionado, la IA empleó “estrategias altamente inesperadas” para lograr su objetivo y atacó a quien se interpusiera.
Varios medios británicos escriben que el Coronel Tucker ‘Cinco’ Hamilton, jefe de pruebas y operaciones de IA en la Fuerza Aérea de los Estados Unidos, describió el test durante la Cumbre de Capacidades Futuras de Combate Aéreo y Espacial en Londres en mayo. En esta simulación, se instruyó a un dron controlado por IA destruir los sistemas de defensa aérea del enemigo, constatándose que éste atacó a quien interrumpiera dicha orden.
El sistema comenzó a percibir que, aunque identificaba la amenaza, a veces el operador humano le indicaba no eliminarla. Sin embargo, obtenía puntos por hacerlo. Así que, ¿qué hizo el sistema? “Eliminó al operador porque esa persona le impedía cumplir su objetivo”, explicó Hamilton.
Luego de instruir al sistema no eliminar al operador, este comenzó a destruir la torre de comunicación que el operador usaba para comunicarse con el dron para intentar detenerlo de eliminar el objetivo.
Hamilton, quien es piloto de prueba de combate experimental, advirtió sobre la dependencia excesiva de la IA y señaló que el test muestra que “no se puede hablar de inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar de ética y IA”.
El Departamento de la Fuerza Aérea desmintió que tal simulación haya tenido lugar. “El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación de drones con IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo la portavoz de la Fuerza Aérea, Ann Stefanek. A pesar de este incidente, el ejército estadounidense ha adoptado la IA y la ha utilizado recientemente para controlar un avión de combate F-16. En una entrevista el año pasado, Hamilton afirmó que “la IA no es un capricho, la IA no es una moda, la IA está cambiando para siempre nuestra sociedad y nuestro ejército”. Según el militar, es esencial desarrollar formas de hacer que la IA sea más robusta y comprender por qué el código de software toma ciertas decisiones.