John von Neumann, hijo de un poderoso banquero de Budapest, huyó de la ciudad junto a su familia durante el levantamiento comunista húngaro de 1919 que expropió su banco. Desarrollar la inteligencia artificial para producir mejores y más potentes bombas termonucleares teledirigidas para acabar con la amenaza socialista, acabó siendo el objetivo principal de su carrera. En 1950 declaró: “Si me dices no ¿por qué no bombardear mañana a los Soviets?, yo digo: ¿Por qué no bombardear hoy? Si tú me dices a las cinco yo digo: ¿Por qué no a la una? “ Fue uno de los pioneros del ordenador con programación almacenada.
De trabajar en la bomba de fisión pasó a la bomba de hidrógeno (la denominada “superbomba”) y luego a los misiles intercontinentales. “Podemos empaquetar en un solo avión más poder explosivo que el de de la suma de todas las flotas y todos los combatientes durante la 2ª G.M.” El progreso que logró en la informática moderna fue crucial no sólo para crear nuevas armas, sino también para simular situaciones de guerra en un campo de batalla virtual que se ensayaba en el Pentágono. En 1950, participó en el Grupo de Evaluación de Sistemas de Armas y en el Proyecto de Armas Especiales de las Fuerzas Armadas, en 1951-1952 consultor de la CIA, miembro del Comité Asesor General de la de la Comisión de Energía Atómica (AEC), consultor del Laboratorio de Armas de Livermore y miembro del Consejo Asesor Científico de la Fuerza Aérea de EE. UU.
Beatrice K. Rome & Sidney C. Rome: “Una vez incorporados agentes vivos en nuestro dinámico sistema computacional, el resultado puede ser una máquina que será capaz de enseñar a los humanos cómo funcionar mejor en el contexto de un gran sistema hombre-máquina en el cual la información es procesada y las decisiones tomadas.”
La nebulosa percepción de Samuel Butler , Benjamin H. Bratton, George Dyson y de innumerables escritores de ciencia ficción de que las máquinas estarían tomando el poder, obedecía a una cierta percepción, aunque distorsionada y delirante, del avance real e imparable de otra entidad artificial, monstruosa y autorreplicante, que se estaba desarrollando bajo sus pies, tomando efectivamente todo el control, no sólo de las máquinas, sino de la sociedad misma en la que vivían. El hombre no había sido reducido a la esclavitud respecto de las máquinas sino a la servidumbre más abyecta respecto a la cuenta de capital.
Según las teorías de Gustave Le Bon, el autor de un bestseller publicado en 1895 titulado Psicología de las Masas , en una situación de emergencia el pánico y la violencia se extiende por todas partes sin ningún control. “El hombre desciende varios peldaños en la escala de la civilización” mostrando su auténtica naturaleza. Rudger Bregman, en “Dignos de ser humanos”, relata cómo, Hitler, siguiendo al pie de la letra las teorías de Gustave Le Bon, confiaba desmoralizar a los británicos lanzando bombardeos indiscriminados sobre Londres. En un periodo de nueve meses cayeron más de 80 000 bombas sobre la ciudad con más de 40 000 muertos. Pues bien, según las crónicas, tras muchos meses bajo las bombas, muchos comerciantes ponían letreros en la fachada anunciando que “Estamos más abiertos que de costumbre”, o “Nuestras ventanas ya no están, pero nuestro espíritu es excelente, entrad y probadlo”. Muchos británicos, después de la guerra, se referían a los días del blitz como un momento en el que todo el mundo era solidario y daba igual que fueras de izquierdas o derechas, pobre o rico. “La sociedad británica salió del blitz reforzada en muchos aspectos.”
Churchill, a su vez, dio luz verde al bombardeo indiscriminado sobre las ciudades de Alemania en febrero de 1945 pensando que ello aniquilaría la voluntad de resistencia de la población, adelantando la rendición. 58 ciudades fueron bombardeadas. En Dresde más de mil bombarderos pesados soltaron de 4000 toneladas de bombas altamente explosivas y dispositivos incendiarios arrasando gran parte de la ciudad y desencadenando una verdadera tormenta de fuego aunque las principales zonas industriales de la periferia no resultaron afectadas. Los bombardeos provocaron alrededor de 40 000 muertos. Sin embargo, según los testimonios de los supervivientes, no hubo el menor indicio de histeria colectiva. La solidaridad entre los vecinos fue extraordinaria. Según cita Rudger Bregman, los informes del Sicherheitsdienst después de los bombardeos comprobaron que todo el mundo se mostraba dispuesto a ayudar al prójimo, rescatar a las víctimas de los escombros y apagar fuegos. Los niños de las Juventudes Hitlerianas iban y venían sin descanso para asistir a los heridos y ayudar a quienes habían perdido su casa. Tras la capitulación, los investigadores norteamericanos concluyeron que los bombardeos civiles habían sido un fiasco y habrían provocado un sentimiento de resiliencia que alargó la resistencia frente a los aliados. John Kenneth Galbraith afirmó que “Poco a poco empezamos a comprender que habíamos descubierto uno de los mayores errores de cálculo cometidos en la guerra, si no el mayor.”
IA, la nube tóxica
M. Fourcade and K. Healy:: “Las redes de información producen enormes cantidades de datos a nivel individual, que se analizan para clasificar a las personas […] Almacenar y estudiar las actividades cotidianas de las personas, incluso las aparentemente mundanas, se ha convertido en algo predeterminado y no una excepción. […] Los rastros digitales de comportamientos individuales (donde los instrumentos de clasificación definen qué es un “comportamiento” y cómo debe medirse) se agregan, almacenan y analizan cada vez más.”
Peter Thiel (fundador de PayPal y cofundador de Palantir): “Olvídense de la fantasía de la ciencia ficción; lo que resulta poderoso de la IA es su aplicación en tareas relativamente mundanas tales como la visión artificial y el análisis de datos. […] Estas herramientas son, sin embargo, valiosas para cualquier ejército.”
Aunque las formas modernas de procesamiento de información no son más que la etapa más reciente en el desarrollo continuo de la Revolución del Control que comenzó en el siglo XIX tanto en las oficinas estatales como en las empresas corporativas, desde los inicios del siglo XX la cuenta de capital ha ido perfeccionando un arma letal, la denominada Inteligencia Artificial (IA), la capacidad de procesar grandes cantidades de datos en poco tiempo, que permite tomar decisiones más informadas y por tanto con mayor rapidez y automatizar tareas que antes requerían la intervención humana.
Joseph Weizenbaum, profesor en el Instituto Tecnológico de Massachusetts, fue uno de los padres de la cibernética y de la IA. Consciente del enorme poder que el desarrollo de tales investigaciones podría poner en manos de irresponsables, Junto con Norbert Wiener, otro profesor del MIT, exigió que los científicos y tecnólogos asuman la responsabilidad del uso de lo que descubren y desarrollan.
El primer programa informático conversacional del tipo que imaginó Alan Turing en los años 1930, fue el que Weizenbaum creó entre 1964 y 1966. Este sistema, llamado Eliza , ejecutaba una serie de instrucciones que hacían pasar al ordenador por un psicoterapeuta. El doctor (la computadora) no era infalible, pero el simple conjunto de instrucciones programadas permitía a Eliza mantener algunas conversaciones de manera plausible, haciéndose pasar por un sicólogo rogeriano que le pedía al usuario que reflexionara sobre cualquier comentario que se le ofreciera.
Si bien la suposición de Turing de que en el año 2000 existiría una “máquina pensante” puede discutirse, su predicción de que las computadoras interactuarían plausiblemente con personas usando el lenguaje como interfaz (máquina de Turing) quedó confirmada por Eliza.
Weizenbaum publicó un sorprendente libro en 1976 titulado Computer Power and Social Reason. From Judgement to Calculation en el que manifiesta su gran preocupación tanto por las vehementes declaraciones y comportamientos protecnológicos como antihumanistas de algunos informáticos, como por la notablemente pasiva aceptación por parte del público de las innovaciones informáticas.
Cualquier herramienta útil siempre puede ser mal utilizada; Los peligros particulares de las computadoras provienen de su versatilidad y complejidad. Debido a que las computadoras son dispositivos generales de manipulación de símbolos, son lo suficientemente versátiles como para ser utilizadas (y también mal utilizadas) en aplicaciones que afectan la vida o que tienen consecuencias sociales graves e irreversibles. Los programas de computadora suelen ser tan complejos que ninguna persona comprende la base de las decisiones del programa. Como resultado, los tomadores de decisiones no se sienten demasiado responsables de las consecuencias de las decisiones propuestas por las computadoras. Una gran parte del libro es una explicación de estos peligros. Estos peligros también se utilizan para demostrar que hay tareas de toma de decisiones que no deberíamos confiar a las computadoras.
Por tanto, advierte que resulta peligroso que ordenemos a las computadoras que se ocupen de asuntos humanos, es decir, que realicen tareas que requieren comprensión y empatía por los problemas humanos (esencialmente porque las computadoras carecen de la visión completa que una persona tiene de otras personas, carecen de la empatía del H. Sapiens). Weizenbaum pide que no se investigue sobre programas, métodos o herramientas informáticas con evidentes posibles usos indebidos: no encuentra ningún beneficio que valga el precio de enredarse con peligrosas herramientas "que puedan representar un ataque a la vida misma". También aboga por renunciar a proyectos con "efectos secundarios irreversibles y no totalmente previsibles".
Google (Inicialmente BackRub) emitió sus primeros balbuceos en 1996 con la idea de generar un listado ordenado o ranking (page-rank) de los sitios web más relevantes que respondían mejor a un término de búsqueda a partir del número de enlaces a otras páginas incorporados en cada uno de los sitios web. La idea colocó a Goggle en la vanguardia de los primeros buscadores existentes. Para responder a cualquier búsqueda los ordenadores de Google debían capturar toda la internet del momento, que en sus inicios (1996) cabía en unos pocos discos duros. Hacia el año 2000 los hombres de Google advirtieron que el comportamiento de búsqueda de los usuarios, capturado y encapsulado en registros que podrían analizarse y extraerse, lo cual podía utilizarse para mejorar los resultados de la búsqueda y para otras cosas. Sin apercibirse demasiado de ello Google había creado una maquinaria de espionaje que iba a convertirse en la más poderosa agencia detectivesca jamás imaginada.
Steven Levy: “Amit Patel fue el primero en darse cuenta del valor de los registros de Google. Patel fue uno de los primeros empleados de Google y llegó a principios de 1999. […] Se dio cuenta de que Google podría funcionar como un sensor del comportamiento humano. Por ejemplo, notó que las preguntas sobre las tareas escolares aumentaban los fines de semana. “La gente esperaba hasta el domingo por la noche para hacer los deberes y entonces buscaba en Google” […] Cada aspecto del comportamiento del usuario tenía un valor. Cuántas consultas había, cuánto tiempo duraron, cuáles fueron las palabras principales utilizadas en las consultas, con qué frecuencia hicieron clic en el primer resultado, quién los había remitido a Google, dónde se encontraban geográficamente. […] Esos registros contaban historias. No sólo cuándo o cómo la gente usaba Google, sino qué tipo de personas eran los usuarios y cómo pensaban […] Hasta ese momento, Google no había sido metódico a la hora de almacenar la información que le decía quién eran sus usuarios y qué estaban haciendo. "En aquellos días, los datos se almacenaban en discos que fallaban muy a menudo y esas máquinas a menudo se reutilizaban para otra cosa", dice Patel. Un día, para horror de Patel, uno de los ingenieros señaló tres máquinas y anunció que las necesitaba para su proyecto y que iba a reformatear los discos, que en ese momento contenían miles de registros de consultas. Patel comenzó a trabajar en sistemas que transferirían estos datos a un lugar seguro.”
Con el smartphone convertido en un verdadero apéndice del ser humano, Internet empezó a ofrecer la posibilidad de extracciones masivas de datos, sin ningún permiso, (imágenes subidas a sitios web, a servicios para compartir fotos y sobre todo a plataformas de redes sociales) para uso de algoritmos de aprendizaje automático de sistemas biométricos y de visión artificial. De golpe había aparecido un nuevo recurso natural, un nuevo mineral susceptible de almacenarse para ser consumido para alimentar los hornos de la IA. “Todo se volvía agua para los molinos del aprendizaje automático. […] Todo lo que estuviera en línea estaba siendo preparado para volverse un conjunto de datos de entrenamiento para la IA. […] Cuando los datos se consideran una forma de capital, entonces todo se justifica a la hora de recopilar más.” Acumular datos se ha convertido en una nueva forma de acumulación de capital. Los modelos de aprendizaje automático necesitan flujos continuos de datos para ser más precisos. Cumplir con el imperativo de los datos implica algo más que simplemente recopilar datos de forma pasiva; significa crear datos activamente lo cual implica sistemas cada vez más intrusivos de vigilancia permanente y exhaustiva de personas, lugares, procesos, cosas y relaciones entre ellos.
El blanqueo de la IA
“Una y otra vez vemos el dualismo cartesiano en la IA: la fantasía de que los sistemas de IA son cerebros incorpóreos que absorben y producen conocimiento independientemente de sus creadores […] Estas ilusiones distraen de las preguntas más relevantes: ¿A quién sirven estos sistemas? ¿cuáles son las economías políticas responsables de su construcción?”
¿Qué es la IA? (según Repsol): “Te levantas por la mañana y tu teléfono se desbloquea tras escanear tu rostro. Te montas en el coche para ir a trabajar y el navegador te sugiere un camino alternativo, porque el que sigues a diario está más congestionado que de costumbre. Tu aplicación de compras favorita te propone un par de zapatos que van como anillo al dedo a tu estilo, y tu banco te envía una notificación sobre un producto que encaja perfectamente con tus planes de ahorro. ¿Es magia? No, es progreso. Se trata de la inteligencia artificial, que ha dejado de ser ciencia-ficción para mejorar numerosos aspectos de nuestro día a día.”
Dos discursos gemelos acerca de la IA se vienen reproduciendo insistentemente. Por un lado, la distopia de una peligrosa máquina superinteligente que dominará el mundo; por otro lado la quimera tecnológico-ortopédica de que cualquier problema que tengamos será resuelto por la IA.
Ambas perspectivas, basadas en el determinismo tecnológico dejan de lado para qué sirve realmente la IA, quien promueve y está realmente a los mandos de su desarrollo y qué consecuencias sociales de ello se derivan.
El show de AlphaGo, como en el caso del de Deep Blue , se organizó como un gran espectáculo mundial. Había que blanquear la IA, venderla bien empaquetada, presentada como un risueño y adorable Mogwai, que, sin embargo, pronto habría de mostrar su verdadera y terrible naturaleza.
Justo mientras se está bombardeando con IA a la población de Gaza y Líbano, Google DeppMind, ha presentado Mobile ALOHA, un robot humanoide basado en el sistema ALOHA (A Low-cost Open-source Hardware System for Bimanual Teleoperation). El robot utiliza el aprendizaje por imitación (demostraciones humanas en las que un usuario instruye al robot a través de su propio movimiento) y, bien enseñado, parece capaz de imitar complejas manipulaciones domésticas (doblar la ropa, regar las plantas, hacer café, hacer la cama, servir una copa, dar comida a una mascota, etc.). Una joya ideal para sustituir al personal de servicio.
Aniquilación automatizada
Tung-Hui Hu: “La equivocación es creer que los actos de guerra son excepciones a las operaciones normales de la nube”
Frank Rose: “La informatización de la sociedad... ha sido esencialmente un efecto secundario de la informatización de la guerra”
El archivo Snowden constituyó un extracto de un mundo en el que la recolección de datos había hecho metástasis. Teléfonos, redes sociales, correos electrónicos, etc., se estaban convirtiendo en fuentes de datos. TREASUREMAP (mapa del tesoro) fue un programa diseñado para construir un mapa interactivo para rastrear la localización del dueño de cualquier ordenador, teléfono móvil o router conectado. “Cartografía todo Internet, cualquier dispositivo, en cualquier parte, todo el tiempo”.
Con la revolución industrial las máquinas llenaron las ciudades de una espesa capa de hollín y oscuros y pegajosos gases nocivos. Con la llegada de la IA una nueva capa atmosférica nos cubre a todos cualquiera que sea el sitio donde vayamos, una nube, más pegajosa aun, de una toxicidad monstruosa que permanente y sistemáticamente embrutece, y que, como la Santa Inquisición, acecha, vigila, delata y mata.
El campo de la IA siempre ha estado guiado por las prioridades militares. “Como era el proyecto con la utilidad menos inmediata y las ambiciones de mayor alcance, la IA llegó a depender en gran medida y de forma inusual del financiamiento de DARPA . Como resultado, DARPA se volvió el patrocinador principal durante los primeros veinte años de la investigación de IA. […] Todo comenzó, en última instancia, a partir de investigaciones financiadas por DARPA”
La lógica general de la IA ha quedado marcada por sus orígenes explícitamente orientados al campo de batalla (recopilar grandes conjuntos de datos a distancia para obtener conocimiento sobre grupos o comunidades, espiar qué mensajes de texto se redactan o se leen, detección de objetivos, detección de anomalías, categoría de alto, bajo o mediano riesgo, necesidad de alerta y focalización constante, rastreo de personas, identificación por metadatos, identificar amenazas, asignar culpabilidad o inocencia. “La IA es básicamente una multitud de máquinas de guerra que nunca descansan. […] La industria de la IA está desafiando y reformulando el papel tradicional de los Estados. […] El gobierno algorítmico […] excede al gobierno estatal tradicional.”
Aunque se trata de algoritmos y sistemas diseñados específicamente para la vigilancia, el espionaje, la represión, el chantaje y la aniquilación, se están presentando como inocuas aplicaciones para, supuestamente, mejorar la vida de los consumidores. Los asistentes virtuales basados en IA, como Siri, Alexa o Google Assistant pueden responder a preguntas, realizar tareas y proporcionar información (en realidad espían lo que hacemos en casa). Los chatbots parecen proporcionar respuestas rápidas y precisas a preguntas frecuentes, pero en realidad están indagando a sus usuarios. la IA se puede utilizar en la “recomendación de productos y servicios personalizados” basados en los supuestos intereses del cliente (bombardeo guiado de anuncios) o para lanzar campañas de email marketing (otro tipo de bombardeo menos selectivo), etc.
Palantir, establecida en 2004, cofundada por Peter Thiel, se encuentra entre las empresas de vigilancia más reservadas y poco estudiadas del mundo. La empresa suministra soluciones de tecnología de la información para la integración y el seguimiento de datos a agencias policiales y gubernamentales, organizaciones humanitarias y corporaciones (WalMart). Además de la extracción de datos a través de dispositivos de espionaje, utiliza métodos de filtración de redes para rastrear y evaluar personas y objetivos. Ha diseñado software para la gestión de las deportaciones de inmigrantes por parte la agencia Inmigration and Customs Enforcement (ICE) o para detectar fraudes al seguro de salud por parte del Dep. de Salud y de Servicios Humanos estadounidense. El FBI lo utiliza para identificar criminales, mientras que el Dep. de Seguridad Nacional lo usa para controlar a los viajeros aéreos.
En abril de 2017, el Departamento de Defensa norteamericano anunció la creación del Equipo Multifuncional de Guerra Algorítmica. Su nombre en código era Proyecto Maven y la meta del mismo era crear un sistema de IA, un motor de búsqueda automatizado para detectar y rastrear a combatientes enemigos. Como las habilidades de aprendizaje automático se encontraban en el sector comercial se decidió que el Dep. de Defensa pagaría a las compañías tecnológicas para que analizaran datos recolectados por satélites y drones militares. Esto era lo que estaba esperando GAFAM (o FAANG) . El suculento contrato se lo adjudicó Google que ofreció la infraestructura TensorFlow para hacer un barrido a través de las imágenes de drones para detectar objetos o personas según se movían entre distintos lugares. En 2018 algunos empleados de Google descubrieron la existencia del contrato. Se hizo público que los objetivos de identificación incluían vehículos, edificios y seres humanos. Tuvieron lugar sonadas protestas y más de tres mil empleados firmaron una carta de protesta. Ante la evidente amenaza sobre su imagen de marca, Google acabó retirándose del proyecto renunciando a los 10 000 millones de dólares que le había ofrecido el Pentágono. Menos timoratos resultaron sus camaradas del Silicon Valley. Microsoft se quedó con el contrato tras superar la oferta de Amazon. Google acabó pronto con la disidencia surgida entre sus empleados para sumarse al carro de los contratos estatales. Las grandes tecnológicas estaban decididas a probar sus algoritmos de IA para los fines para los cuales fueron diseñados desde buen principio: los campos de batalla y la aniquilación programada.
Puntaje crediticio y ataque por firma
El Departamento de Seguridad Nacional de EEUU de la administración Biden ya asignó 5 millones de dólares en su presupuesto de 2025 para abrir una oficina de IA. Torres de vigilancia asistidas por IA, “Robodogs” y las herramientas de reconocimiento facial, todas provenientes de la industria privada, ya se estaban utilizando y podrían intensificarse aún más en el plan de deportación masiva propuesto por Trump (la deportación masiva más grande en la historia de nuestro país) […] A los expertos en seguridad les preocupa cómo un DHS en manos de Trump podría manejar una IA aun no probada para sus planes. […] Con estas herramientas a su disposición, una red de vigilancia no solo en la frontera sino también en el interior podría capturar comunidades en todo Estados Unidos.”
“Puntaje crediticio” y “ataque por firma” parecen términos inocuos que parecen vinculados a la pacífica actividad comercial, pero, en realidad, están vinculados estrechamente a la lógica militar. Todos estamos bajo a la vigilancia permanente de la IA, la cual asigna “puntos” de sospecha a cada uno de nosotros y, una vez que se encuentra un patrón sospechoso en los datos y este alcanza un determinado umbral, se activa automáticamente el “ataque por firma” (su firma de metadatos ha acumulado suficientes” puntos” sospechosos para ser aniquilado).
En 2014, la organización legal Reprive publicó un informe que demostraba que unos ataques con drones programados para matar a 41 individuos dieron como resultado la muerte de 1147 personas.
El puntaje crediticio se utiliza en todos los países y en todos los ámbitos (todas las esferas de la vida cotidiana, tanto municipales como domésticas, susceptibles de ser rastreadas y puntuadas) indagando “patrones de datos anómalos” para detectar desviaciones de los “modelos sociales de solvencia” (modelos que no pongan en entredicho el funcionamiento del sistema) y penalizan a aquellos que se desvían. En esta “calificación crediticia” convergen las agencias estatales , las firmas comerciales y las estructuras militares.
Con el ataque de Israel contra los palestinos, iniciado en octubre de 2023, el campo de pruebas para el perfeccionamiento de la IA entró en pleno funcionamiento. En la guerra de Israel contra los palestinos y libaneses, el ejército está utilizando dos sofisticadas aplicaciones de AI, The Ghospel y Lavender. The Ghospel es una IA que revisa automáticamente los datos (obtenidos de internet, comunicaciones telefónicas, fotogrametría y seguimiento por drones o satélites, etc.) en busca de edificios, equipos y personas que se cree que pertenecen al enemigo y, al encontrarlos, recomienda bombardear los objetivos a un analista humano, quien puede decidir si hacerlo o no. Otra aplicación de IA es Lavender, que es capaz de identificar y localizar a personas supuestamente vinculadas a Hamás o la Yihad Islámica Palestina, y se utiliza para recomendar objetivos a abatir.
“En su punto máximo, el sistema logró generar 37 000 personas como posibles objetivos humanos. Pero las cifras cambiaban todo el tiempo, porque depende de dónde se establezca el listón de lo que es un agente de Hamás. […] Hubo momentos en que un operativo de Hamás se definió de manera más amplia, y luego la máquina comenzó a traernos todo tipo de personal de defensa civil, oficiales de policía, sobre quienes sería una vergüenza desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados”.
Ghospel se cree que combina datos de vigilancia de diversas fuentes datos (por ejemplo, escaneos de tejido canceroso, fotografías de expresión facial, vigilancia de miembros de Hamás o de Jezbolá identificados por analistas humanos, etc.) Las recomendaciones para atacar se basan en la coincidencia de patrones. Una persona con suficientes similitudes con otras personas etiquetadas como combatientes enemigos puede ser etiquetada como combatiente y, por ello, eliminada. Tales algoritmos de IA son notoriamente defectuosos y se observan altas tasas de error en sus resultados. A pesar de que se conoce que el sistema Lavender tiene una tasa de error de, al menos, un 10 %, los militares que decidían los ataques solo empleaban unos 20 segundos en analizar la propuesta de la IA y aceptar el asesinato. Las decisiones de un sistema de este tipo dependen enteramente de los datos con los que está entrenado, y no se basan en razonamientos, evidencia fáctica o causalidad, sino únicamente en estadísticas de probabilidad. A principios de noviembre de 2023, las Fuerzas de Defensa Israelitas declararon que más de 12 000 objetivos en Gaza habían sido identificados por la división de administración de objetivos que utiliza The Ghospel. Como consecuencia del notable margen de error de las aplicaciones miles de palestinos (la mayoría de ellos mujeres y niños o personas que no participaron en los combates) fueron aniquilados.
Lavender utiliza armamento barato, bombas sin sistemas de guía y, por tanto, susceptibles de causar mayores “daños colaterales”, destinadas al asesinato de supuestos militantes jóvenes a los que considera objetivos legítimos, pero de poca importancia, mientras que para el ataque a mandos y dirigentes utiliza bombas inteligentes más precisas, pero más caras.
Las acertadas predicciones de Joseph Weizenbaum se están cumpliendo una tras otra. Las poderosas compañías tecnológicas están subcontratando a los Estados para que les faciliten campos de pruebas reales donde probar y pulir sus sofisticadas herramientas de control. Las máquinas dominan el planeta y detrás de las máquinas, en la sala de mandos, opera la cuenta de capital. La cuenta de capital baila sola.