.

courtesy photo

Ética

La gran mentira de que la guerra tecnológica y automatizada es mejor

1

A los 18 años, Anthony Swofford se convirtió en una máquina de matar del Gobierno de EE. UU. Tras años de combate, critica a los políticos y empresarios que promuevan el desarrollo de tecnologías bélicas para su propio beneficio. En su opinión, automatizar la batalla solo genera más muertes

  • por Anthony Swofford | traducido por Editores de MIT Technology Review en español
  • 18 Octubre, 2019

Poco después de cumplir 18 años, el Cuerpo de Marines de Estados Unidos me entrenó para vivir, pensar y trabajar como uno de los humanos más letales de la tierra. Pasé de ser el típico niño estadounidense de los suburbios a una máquina de combate ideal mediante un perfeccionado régimen científico de mi estado psicológico, una reestructuración fisiológica y una recodificación moral. Después de 10 meses en el laboratorio, me asignaron a un batallón de infantería. Trabajé los nuevos movimientos de cuerpo y alma que no solo me habían preparado para el combate, sino que me habían provocado una necesidad de enfrentarme a cualquier tipo de conflicto. Sabía cómo sería, sonaría y qué sabor tendría el campo de batalla. Me había convertido en un bot luchador.

Mi letalidad aumentaba con cada persona con la que me juntaba: primero yo solo, como tirador, luego un equipo de cuatro hombres, el escuadrón, el pelotón, la compañía, el batallón. Cada vez que se añadían nuevos hombres, la necesidad de conflicto aumentaba, así como la potencia de fuego, la experiencia y la tecnología para arrasar con el enemigo. A medida que el organismo de combate crece, las posibilidades de parar la misión y pensar si matar es justo o moral se van desvaneciendo: simplemente ocurre.

Cada generación de guerreros estadounidenses recibe excelentes nuevos artilugios para la batalla. ¿Y a quién no le gusta un juguete nuevo? Sus creadores se hacen fabulosamente ricos desarrollándolos, entrenando a los militares y ayudando a implementar su última tecnología. Esa tecnología suele ser bautizada con nombres extremadamente asociados a la capacidad de matar a un gran número de personas: por ejemplo, MOAB (siglas en inglés de madre de todas las bombas). Hombre gordo. Fuego del infierno. 

Durante la Operación Escudo del Desierto, el rifle de francotirador semiautomático calibre .50 de la empresa Barrett llegó al desierto de Arabia Saudita, donde mi batallón, decenas de miles de otras fuerzas estadounidenses y yo esperábamos la guerra contra Irak. En ese momento, solo había un puñado de docenas del rifle, y mi compañero del equipo de francotiradores y yo formábamos parte del selecto grupo entrenado para utilizarlo en combate por primera vez.

Una atmósfera festiva e incluso frívola se apoderó de la remota zona desértica, construida especialmente para nosotros y para esta nueva arma. Los oficiales salían a vernos entrenar. Nos daban tres comidas calientes al día. Por la noche hacíamos grandes hogueras y hablábamos sobre nuestra inminente salida al combate.

"Dejamos que la tecnología aumente la distancia moral; por eso, la tecnología aumenta las matanzas".

Mi compañero Johnny era sargento y francotirador formado en la escuela, y, sinceramente, mejor tirador que yo. Con el rifle Barrett, ambos alcanzamos objetivos metálicos ubicados a unos entre 1.500 y 1.650 metros. Era fácil usarlo. Era divertido. Nos los habían regalado para expandir nuestras oscuras capacidades en casi un kilómetro. El Convenio de Ginebra había prohibido usar armas de calibre .50  contra objetivos humanos, así que la razón oficial por la que nos entregaron los rifles fue para detener vehículos enemigos. Pero todos sabíamos que la mejor manera de detener un vehículo es matando al conductor. La tecnología nos lo dijo. Y hacíamos caso a la tecnología.

Si me hubieran dado la oportunidad, hubiera usado el rifle Barrett en un objetivo humano. Concretamente, en su cabeza. Por la noche, soñaba con detectar un convoy iraquí a través de mi mira telescópica. Johnny era mi observador y yo tenía el Barrett. Me imaginaba disparando y atravesando la cabeza del conductor del primer camión con una bala. Luego, gracias a mi nuevo rifle, me veía matando metódicamente a más hombres desde esta distancia divina. La mejora tecnológica de mis habilidades como francotirador gracias al Barrett me hizo más letal y moralmente comprometido, aunque solo fuera en teoría y en mis sueños.

Ahora, son muchos los que opinan que un joven marine o soldado armado con un rifle se ha quedado obsoleto. La mayor carrera armamentística la están librando los científicos que intentan obtener fondos de DARPA para desarrollar nuevas tecnologías de combate bélico. Según ellos, estas tecnologías casi no requerirán interacción humana para matar, lo que libra al combatiente del dilema moral y de las secuelas de la guerra. Las start-ups del sector privado venden el mito de la guerra inteligente a través de la inteligencia artificial (IA) y los soldados robóticos. En los laboratorios donde se inventan las formas más nuevas y limpias de matar, no se habla de la moralidad de la guerra, sino de la tecnología para ganarla. Pero si dependemos de un mito tecnológico y bélico para justificar fácilmente una guerra, perderemos nuestra alma.

Un amigo piloto de la Fuerza Aérea me dijo una vez: "El enemigo busca nuestro punto débil". En Vietnam, los avanzados cazas de Estados Unidos sufrieron una emboscada por los aviones de más baja calidad de Vietnam del Norte, los MiG construidos por Rusia. No debimos perder tantos aviones y pilotos.

En Afganistán, durante más de 18 años de guerra, hemos aprendido que los talibanes, al Qaeda y el Dáesh no suelen aparecer en masa en el campo de batalla. Así que los militares más avanzados a nivel tecnológico de la historia no pueden cantar victoria contra un enemigo que principalmente usa armas pequeñas, granadas y tácticas básicas de guerrilla. A pesar de nuestros miles de millones de euros invertidos en satélites de vigilancia y drones, estas tecnologías son casi imposibles de identificar. En la mayoría de los casos, encontramos al enemigo por pura suerte o a través de un pago a un anciano del pueblo. Pura burocracia.

El pelotón de Swofford, alrededor de abril de 1991, en algún lugar del desierto de Arabia Saudita. El autor está en primera fila, tercero desde la izquierda. Su compañero de equipo de francotiradores, el sargento John (Johnny) Krotzer, es el segundo desde la izquierda.

Foto: El pelotón de Swofford, en abril de 1991, en algún lugar del desierto de Arabia Saudita. El autor está en primera fila, tercero desde la izquierda. Su compañero del equipo de francotiradores, el sargento John (Johnny) Krotzer, es el segundo desde la izquierda. Crédito: cortesía del autor.

Los sistemas armamentísticos más sofisticados tienen un inconveniente: el enemigo debe exponerse dentro del rango letal efectivo para que el arma funcione según lo previsto. Pero un combatiente inteligente, por supuesto, rara vez se expone. Así que, cuando encontramos al enemigo, usamos un avión de 27 millones de euros para lanzar JDAM (munición de ataque directo conjunto) y matar a una docena de personas que viven en tiendas de campaña en la ladera de una montaña. ¿Qué nos aporta esa ventaja tecnológica de 27 millones de euros? El aviador altamente formado (cuya formación costó mucho dinero) que pilotaba esa maravillosamente compleja máquina de volar y matar acaba de extinguir a unos hombres que vivían bajo lonas y palos, hombres con unos pocos miles de cartuchos de munición de armas pequeñas a su disposición. El piloto regresará a su costosa base aérea o a un portaaviones. Tendrá una ducha caliente, comerá un plato caliente, hablará por Skype con su esposa e hijos, quizás juegue un poco de Xbox, e irá el gimnasio antes de acostarse. No se preocupará, ni se le pedirá que lo haga, de los hombres que mató unas horas antes. Y en un valle a pocos kilómetros de donde cayeron sus municiones, hay otro grupo de hombres que vive en circunstancias extremadamente básicas, come arroz hervido y tal vez un poco de carne asada. Emboscarán un convoy estadounidense o atacarán una aldea que apoya a nuestro Gobierno  la mañana siguiente. El grupo local nativo degradará nuestras fuerzas y material tecnológicamente superiores. El grupo local ganará la guerra.

Imagínese qué hubiera pasado si el 11 de septiembre de 2001 se hubiera dado una invasión terrestre por un enemigo tecnológicamente superior. Imagínese cómo sería si todavía ocuparan su ciudad: usted y sus hijos seguirían librando la batalla a día de hoy, pero con ladrillos, rifles y bombas en la carretera. Los ataques del 11 de septiembre activaron algo que llevaba inactivo durante décadas: la voluntad de defender el territorio nacional. Pero desde la Segunda Guerra Mundial, esa voluntad, ya sea real o fabricada por políticos y periodistas, no se ha traducido en una victoria militar para EE. UU. en suelo extranjero.

La realidad es que resulta difícil localizar la moralidad y la pasión por defender un puesto de avanzada militar estadounidense creado en el extranjero con barreras de Hesco y geoceldas. El enemigo nos dará en nuestro punto débil, y podríamos ser atacados un único combatiente talibán con un uniforme del ejército afgano infiltrado en uno de nuestros complejos militares. Su padre o hermano murió en esa montaña. Dentro de la base nos creemos fuertes y seguros, pero en realidad somos débiles porque carecemos de una necesidad moral para estar allí. El talibán dispara un AK-47 de 30 balas y mata a unos pocos estadounidenses desarmados, a un soldado, un agente de la CIA, un contratista militar, más un soldado afgano amigo.

Somos incapaces de detener ese ataque porque no se tramó en un laboratorio armamentístico universitario financiado por DARPA; nació en la ladera de una montaña o en un pueblo hace 100 años o más. El ímpetu de la represalia está en el ADN del joven talibán, pero también en la tierra, la lluvia y los cultivos de su lugar de origen. Los soldados letales con armas letales han pisoteado a su país y a sus parientes durante décadas, incluso siglos. Nunca superaremos con tecnología esa profunda pasión por perseverar y gritar victoria y soberanía sobre la propia tierra del propio pueblo local.

A nivel de calle, la guerra es tema de personas. Y las personas son complejas, pero también frágiles. Sus cuerpos se rompen, se vienen abajo, se abren y dejan de funcionar con sorprendente facilidad cuando se encuentran con la increíble última tecnología de guerra. La realidad de un civil o combatiente muerto en la guerra no cambia por lo avanzada que fuera la herramienta que le provocó la muerte.

El deseo de disponer de nuevas tecnologías defensivas es un intento perverso de distanciarnos a nosotros mismos y a nuestros líderes de las consideraciones morales y de los costes sociales de librar una guerra. No se trata tanto de las herramientas más avanzadas: una plaga de drones, exoesqueletos, proyectiles de francotirador autoguiados. Lo que ocurre es que esta dependencia de la tecnología moderna, la suposición de que disminuye o altera la letalidad de la guerra, permite tener cero responsabilidades de cómo, cuándo y por qué luchamos.

Este no es un argumento anti-intelectual ni anti-tecnológico. No soy un gruñón que piensa que las guerras solo se pueden ganar con botas militares en el suelo. Sin embargo, todas las guerras se deben ganar así. El problema no es la tecnología, sino los errores que provoca el armamento militar de alta tecnología. Si librar una guerra es como usar el teléfono inteligente para hacer compras o publicar un meme en Instagram, ¿hasta qué punto puede ser realmente malo? Y si un político seducido por las mentiras y la supuesta facilidad de la guerra tecnológica nos lleva a un conflicto equivocado, ¿es realmente su culpa? ¿No pensamos todos que sería fácil ganar esa guerra?

La distancia moral que una sociedad crea alrededor del hecho de matar en su nombre provocará más muertes en su nombre. Permitimos que la tecnología aumente la distancia moral; por eso, la tecnología aumenta las matanzas. En las guerras modernas mueren más civiles que combatientes, así que la tecnología aumenta las muertes de civiles en todo el mundo a manos de ejércitos grandes y pequeños.

La persona más cercana a la posibilidad de matar, generalmente un soldado de infantería o un operador especial, es el individuo más estresado y comprometido moralmente en la cadena de mando de una guerra. Cuando los combatientes de poca distancia entienden que la matanza que han practicado no está respaldada por un marco moral sólido, cuestionan cada decisión tomada en el campo de batalla. Pero también cuestionan el significado del propio combate. Cuentan a sus amigos muertos con una o incluso dos manos. Cuentan a los hombres que han matado con una o dos manos, o por docenas. La matemática moral no cuenta.

Las fotos y vídeos de las guerras que vemos en nuestras pantallas de televisión, ordenadores y teléfonos inteligentes, no nos dicen nada acerca de los cálculos morales de un guerrero. El guerrero entiende que cuando un amigo muere durante su guardia, eso es solo una parte del trabajo. Otra parte del trabajo será volver a salir a hacer otra guardia el día siguiente. Pero cuanto más tiempo vives y trabajas en un ambiente hostil, tu odio hacia el enemigo aumenta y tu confianza en el liderazgo disminuye. Creas una secuela moral contra ti mismo.

Se suponía que las bombas inteligentes y las últimas tecnologías de combate harían que las guerras fueran más fáciles y rápidas. Pero esto no significa nada cuando, años después, cuando intentamos dormir solo vemos hombres, mujeres y niños muertos.

Cuando nos creemos la mentira de que la guerra puede ser totalmente transferida y digitalizada, que puede ser un esfuerzo de Wi-Fi librado desde un aparato de combate no tripulado o apenas tripulado, o que un exoesqueleto ayudará a un soldado de infantería a luchar más, mejor, más rápido y mantenerlo seguro, nadie será responsable de decir sí a la guerra. La mentira de que la tecnología salvará vidas amistosas, civiles e incluso enemigas solo sirve a los políticos y a los CEO que se benefician de la guerra. La mentira de que la tecnología puede prevenir la guerra, o incluso crear un combate compasivo, es un abuso perverso y profano del pensamiento científico.

*Anthony Swofford es el autor de las memorias 'Jarhead' y 'Hotels, Hospitals and Jails' y de la novela Exit A.

Ética

  1. Ocho nuevos datos sobre el caso de las donaciones de Epstein al MIT

    Una investigación externa sobre el asunto encargada por la universidad revela que sus directivos querían aprobar donaciones de hasta 10 millones de dólares, que el presidente sabía que Joi Ito quería aceptar su dinero y que el magnate acudió al acto conmemorativo de Marvin Minsky ​

  2. Crear 'deepfakes' de los clientes para esquivar las leyes de privacidad

    La 'start-up' D-ID crea ultrafalsificaciones de la gente que aparece en los vídeos de las cámaras de seguridad para que las empresas puedan usar el contenido en su negocio sin vulnerar su anonimato. Pero los expertos afirman que esta estrategia viola el RGPD europeo

  3. A 2020 le pido que la ética de la IA se traduzca en acciones reales

    El año pasado se habló más que nunca sobre los peligros de la inteligencia artificial, pero se hizo muy poco al respecto, como demostró el fallido comité de Google. Ahora, la industria debe empezar a tomar medidas tangibles para que la tecnología sirva exclusivamente para ayudarnos a prosperar