Es probable que esta simulación militar tenga relación directa con los objetivos institucionales en el uso de la AI, pero es al menos algo curioso (y a la vez muy verosímil).
Señala que en una prueba simulada se encargó a un dron dotado de IA una misión SEAD de identificación y destrucción de emplazamientos SAM, en la que la decisión final de “sí” o “no” la tomaba un humano.
Hamilton explica: “Lo entrenamos en la simulación para identificar y apuntar a una amenaza SAM. Y entonces el operador decía sí, mata esa amenaza”.
El sistema empezó a darse cuenta de que, aunque a veces identificaba la amenaza, el operador humano le decía que no la matara, pero conseguía sus puntos matándola. ¿Y qué hizo? Mató al operador.
Mató al operador porque esa persona le impedía cumplir su objetivo".