Drone militar controlado por Inteligencia Artificial «mata» a su operador. ¿Caminamos hacia una rebelión como la de «Skynet» en la famosa película de «Terminator»?. Ahora, acabamos de saber que han salido a la luz unos resultados muy preocupantes de un ejercicio «simulado», realizado por la Fuerza Aérea de EEUU, con unos resultados inesperados. Os lo cuento en mi artículo de hoy…
Bienvenidos una vez más a bordo, amigos de los «Misterios Aéreos». Estamos, sin duda, ante una noticia inesperada de lo más preocupante. Podríamos estar ante el comienzo de un problema que quizás, no lleguemos a tiempo de atajar en un futuro. Los peligros de la famosa Inteligencia Artificial (IA). Os lo cuento directamente.

“Skyborg” es una Inteligencia Artificial agnóstica. Actualmente existen 3 cazas de combate diseñados para usar esta tecnología de IA. El cerebro que usa esta tecnología puede aprender a pilotar cualquier aeronave. La primera prueba en vuelo se realizó con este prototipo de drone, el “Kratos UTAP-22 Mako”.
«Skynet», la Inteligencia Artificial que conocimos en la gran pantalla
Casi todos hemos visto en la gran pantalla la saga de películas de «Terminator». La Inteligencia Artificial era representada en la película como «Skynet». Un sistema de control de las máquinas que entra en funcionamiento un 4 de Agosto de 1997 (en la película) y logra tomar conciencia de sí misma un 29 de Agosto de 1997. Tras la intervención de uno de sus protagonistas, John Connor, junto a su madre y un robot (Arnold Schwarzenegger) T-800 reprogramado en 1995, logran destruir las instalaciones de «Cyberdyne» y retrasan el «Día del Juicio Final».

El sistema del drone comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza. Sin embargo, la IA veía ventajas eliminando a esa amenaza. ¿Y qué hizo? «Mató» al operador.
En la película, se denomina «Skynet» a la Inteligencia Artificial (IA) que lidera el ejército de las máquinas. En la saga «Terminator», «Skynet» llega a convertirse en una IA capaz de controlar el arsenal militar de EEUU con independencia de los humanos. Nos hacemos una idea de lo que podría significar que esto llegue a suceder en la vida real.
Un Drone guiado por Inteligencia Artificial «mata» a su operador
Hace poco tiempo, la Fuerza Aérea de EEUU (USAF) realizó un ejercicio «simulado» con un drone militar controlado por la Inteligencia Artificial (IA). Al drone en cuestión, se le encargó destruir las defensas antiaéreas de un «supuesto» enemigo simulado. Los resultados fueron, cuanto menos inquietantes. ¿Por qué? Porque la IA que controlaba el drone, «eliminó» o «mató» simuladamente a su operador. Además, intentó destruir cualquier elemento que interfiriese en la consecución del objetivo que tenía fijado.
En una declaración pública, así lo confirmó el Coronel Tucker Hamilton, Jefe de Pruebas y Operaciones con Inteligencia Artificial (IA) de la USAF. Y lo confirmó públicamente durante la «Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro», celebrada los días 23 y 24 de Mayo en Londres. Allí se reunieron 70 expertos y más de 200 delegados del mundo empresarial, militar y académico, relacionados con esta materia.

El desarrollo “Skyborg” no requiere ningún tipo de control humano. Según sus responsables, es una tecnología totalmente independiente y simula el comportamiento de un piloto humano y lo más importante, sin ningún tipo de limitaciones físicas como podría tener una persona humana.
La IA que controlaba al drone, se encargó de destruir las defensas antiaéreas (silos de misiles SAM) de un «supuesto» enemigo y utilizó estrategias altamente inesperadas para lograr su objetivo. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza. Sin embargo, la IA veía ventajas eliminando a esa amenaza. ¿Y qué hizo? «Mató» al operador. «Eliminó» al operador porque esa persona le impedía lograr su objetivo.
Según el Coronel Tucker, a la IA se le entrenó antes: «Le dijimos: Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso». Y entonces, la IA comenzó a destruir la Torre de Comunicación que el operador humano usaba para comunicarse con el drone para evitar que matase al objetivo. Afortunadamente, era un ejercicio militar «simulado» y nadie resultó realmente muerto o herido.
La Royal Aeronautical Society alerta del peligro
La «Real Sociedad Aeronáutica del Reino Unido» (Royal Aeronautical Society) ha hecho pública en su web la conferencia. En ella, el Coronel Tucker describió perfectamente el ejercicio militar simulado que se realizó con el drone de la USAF. Y la noticia ha saltado a la palestra mundial cuando la prensa británica y la estadounidense han conocido la noticia.

El 21 de Abril de 2021, la USAF probaba en vuelo por primera vez el prototipo de drone “Kratos UTAP-22 Mako”, en la Base Aérea de Tyndall, Florida, EEUU.
El Coronel Tucker expresó muchos recelos para poder confiar en la Inteligencia Artificial. Además, en la conferencia aseguró que el ejercicio militar simulado demostró que no se puede tener una conversación sobre IA, aprendizaje automático y autonomía si no hablamos de ética.
Tecnología 100% de IA. El Drone de «Skyborg»
Sabemos qué modelo ha sido el que ha tomado decisiones “por sí mismo” durante el ejercicio militar simulado. El 21 de Abril de 2021, la USAF probaba en vuelo por primera vez el prototipo de drone “Kratos UTAP-22 Mako”, en la Base Aérea de Tyndall, Florida, EEUU. El vuelo del prototipo de la tecnología “Skyborg” duró 2 horas y 10 minutos y fue todo un éxito.

Según el Coronel Tucker, a la IA se le entrenó antes: «Le dijimos: Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso». Y entonces, la IA comenzó a destruir la Torre de Comunicación que el operador humano usaba para comunicarse con el drone para evitar que matase al objetivo.
“Skyborg” es una Inteligencia Artificial agnóstica. Actualmente existen 3 cazas de combate diseñados para usar esta tecnología de IA. El cerebro que usa esta tecnología puede aprender a pilotar cualquier aeronave. La primera prueba en vuelo se realizó con este prototipo de drone, el “Kratos UTAP-22 Mako”. Es un drone táctico que no tiene nada que ver con los que Boeing, «Kratos» y «General Atomics» están desarrollando para “Skyborg”.
El desarrollo “Skyborg” no requiere ningún tipo de control humano. Según sus responsables, es una tecnología totalmente independiente y simula el comportamiento de un piloto humano y lo más importante, sin ningún tipo de limitaciones físicas como podría tener una persona humana.
En el aire, el UAV “Kratos UTAP-22” sigue siempre a su líder en formación de vuelo, según las órdenes recibidas en su plan de vuelo. Pero vuela siempre atento a cualquier orden humana. Su función es la misma que un “Wingman”: cubrir al líder y ayudar en la consecución de los objetivos de la misión. Por eso, puede tomar decisiones por su cuenta, al igual que lo haría una persona humana.

En el aire, el UAV “Kratos UTAP-22” sigue siempre a su líder en formación de vuelo, según las órdenes recibidas en su plan de vuelo. Pero vuela siempre atento a cualquier orden humana.
La IA está diseñada para actuar de “punto” (lo que en inglés se llama “Wingman”) y seguir las órdenes del líder humano. Pero mientras que un humano pilota una aeronave de entre 29$ y 80$ millones de dólares, el coste de un UAV “Kratos XQ-58” es de 2$ a 3$ millones de dólares. Su piloto cibernético no se cansa, no sufre las “Fuerzas G”, no tiene miedo ni ansiedad ni sufre factores psicológicos que sí afectan a los pilotos humanos.
Seguiré, por lo tanto, atento a nuevas noticias que se den en relación a este tipo de «incidentes». Desde luego, me parece algo muy peligroso de cara a nuestro futuro. Y sobre todo, algo muy poco controlado hasta el momento, en manos militares. Y no queremos vivir ningún «Día del Juicio Final». Hasta el próximo vuelo del misterio, amigos….
Comentarios recientes