Las grandes tecnológicas y el campo de pruebas palestino iraní
La relación entre las grandes tecnológicas y los militares (Pentágono, ejército israelí) ha dejado de ser una simple relación de "proveedor-cliente" para convertirse en una simbiosis creando una nueva realidad para las guerras del s. XXI.
En varios aspectos clave, las empresas ejercen un poder sin precedentes sobre la maquinaria de guerra. Actualmente los militares ya no pueden funcionar sin la infraestructura, el software y la inteligencia artificial que proveen estas compañías. Los grandes monopolios poseedores y proveedores de estas tecnologías detentan un poder estructural inmenso. la frontera entre la cultura de Silicon Valley y la cultura militar se está desdibujando. Las formas de pensar, la agilidad y la filosofía "falla rápido, aprende rápido" de las startups se están infiltrando en el Pentágono, transformando su burocracia desde dentro. Las tecnológicas han conseguido enmarcar el desarrollo de la IA como una cuestión de "seguridad nacional" y una carrera armamentística contra China. Esto les permite evitar regulaciones asegurando así un flujo constante de inversión pública y protección estatal. Son los que manipulan los hilos de las marionetas en que se han convertido los estados.
Algoritmos genocidas y beneficios escandalosos
Para las empresas tecnológicas el objetivo no es simplemente ganar la guerra en Gaza o Irán, que lo es, sino sobre todo demostrar la eficacia mortífera de su producto para asegurar el próximo contrato. Un algoritmo que “funciona” en Gaza es un algoritmo que se vende al Pentágono, a la OTAN y a cualquier otro estado con presupuesto. La guerra es el mejor campo de pruebas y el mejor escaparate comercial. Los estados se convierten en el consumidor final, se convierten en el “capitalista de riesgo” que financia la innovación que, a su vez, generará inmensos beneficios para el sector de las grandes tecnológicas.
Varios análisis y artículos de investigación, especialmente de +972 Magazine_ y War on the Rocks, han descrito cómo la guerra en Gaza se percibe como un "laboratorio" o "campo de pruebas" para las tecnologías militares israelíes. La “eficacia” de estos sistemas en un conflicto real se utiliza para atraer inversores y clientes internacionales. Empresas tecnológicas y de defensa israelíes, muchas de las cuales tienen vínculos con la unidad de inteligencia militar 8200, desarrolladora de Ghospel, Lavander y Where's Daddy, han registrado un fuerte aumento del valor de sus acciones y las ventas se han disparado. El modelo de genocida algorítmico de Israel se está exportando a otros países para acabar integrándose en los sistemas de “defensa” occidentales. Palantir también ha visto escalar el precio de sus acciones puesto que su infraestructura de datos está intrínsecamente vinculada a estas aplicaciones.
Los fondos de inversión y los accionistas presionan para que empresas como Palantir obtengan estos contratos. El beneficio es la brújula. En este sentido, el sistema del capital se comporta como una entidad autónoma. Miles de decisiones individuales motivadas por el beneficio (un ingeniero que acepta un trabajo en Palantir por el sueldo, un oficial que compra el sistema más eficiente, un accionista que compra sus acciones, etc.) generan un resultado colectivo: la guerra se convierte en un negocio próspero y en un motor de innovación capitalista. La analogía del "enjambre" (murmuration) usada en el ámbito de adquisiciones es útil: miles de decisiones individuales de empresas y oficiales crean un patrón de comportamiento colectivo (como si se tratara de una bandada de estorninos) que nadie controla del todo, pero que se mueve todos a la vez con un propósito común. El único “controlador” es la Mano Invisible del beneficio. El sistema "baila solo" al ritmo trepidante y cacofónico que marca el gran coreógrafo, la cuenta de capital.
La IA entrenada como los perros de presa
La IA está entrenada como los perros de presa: una vez dada la orden de “atacar” la selección de los puntos de impacto y el momento del ataque ocurre a velocidades que ningún humano podría siquiera supervisar.
La participación de las principales empresas de inteligencia artificial (IA) estadounidenses en los conflictos con los palestinos e Irán representa un cambio profundo en la guerra moderna. Lejos de ser meros proveedores de tecnología civil, compañías como Microsoft, Amazon y Palantir se han integrado en el núcleo de la maquinaria bélica israelí y estadounidense, proporcionando la infraestructura computacional, de análisis de datos y de inteligencia artificial que sustenta operaciones militares, vigilancia masiva y campañas de bombardeos.
La tecnología de Microsoft, Amazon, Google y Palantir, no es periférica, sino central para las capacidades militares y de inteligencia de Israel y Estados Unidos.
La participación de las grandes tecnológicas en la guerra no es nueva, pero se ha intensificado drásticamente desde el inicio del genocidio en Gaza. Su papel se centra en proporcionar la tecnología "de doble uso" (civil y militar) que permite operaciones de vigilancia, selección de objetivos y logística a una escala sin precedentes.
En el caso de EEUU la columna vertebral de esta colaboración es el Proyecto Nimbus, un contrato de 1.200 millones de dólares firmado en 2021 entre Israel y las empresas Google y Amazon. A través de este acuerdo, Google y Amazon Web Services (AWS) proporcionan servicios completos de nube, inteligencia artificial y procesamiento de datos al gobierno, al ejército y a las agencias de inteligencia israelíes. Un coronel israelí describió la nube de Google como "un arma en todos los sentidos de la palabra”. AWS de Amazon también ha mantenido contratos con fabricantes de armas israelíes como Rafael e Israel Aerospace Industries (IAI) durante el genocidio de Gaza.
Industrialización del genocidio
Palantir Technologies juega un papel particularmente siniestro al proporcionar la plataforma de software que impulsa los sistemas de inteligencia artificial “The Gospel“ (El Evangelio) que marca los edificios y estructuras desde los que, según IA, operan los militantes; “Lavender” que genera listas masivas de “objetivos” (a menudo basándose en correlaciones débiles, como el uso de redes sociales o la consulta de una lista de páginas Web) y "Where's Daddy" (Dónde está papá) que rastrea, mediante inteligencia artificial, la ubicación de objetivos humanos previamente identificados por el programa Lavender y alerta a los operadores militares cuando el individuo “objetivo” entra en su residencia familiar, facilitando un ataque en ese “preciso” momento.
Lavander funciona como un algoritmo de aprendizaje automático que analiza grandes volúmenes de datos de vigilancia masiva para asignar una "puntuación de riesgo" a prácticamente toda la población de Gaza (más de 2,3 millones de personas). La "correlación" se basa en identificar patrones de comportamiento. La pertenencia a un grupo de WhatsApp donde también se encuentre un sospechoso de militancia es suficiente para marcar a un individuo como objetivo. El sistema analiza con quién se contacta, con qué frecuencia y en qué momentos, creando mapas de redes sociales basados en la actividad telefónica y digital. cambiar de teléfono móvil cada pocos meses o mudarse de domicilio con frecuencia son señales que aumentan la puntuación de riesgo de una persona.
Estos sistemas procesan datos de vigilancia masiva en tiempo real para generar "listas de asesinatos", automatizando y acelerando drásticamente la capacidad de Israel para seleccionar objetivos. Los operadores humanos, en lugar de buscar objetivos, se convierten en supervisores de una "cadena de montaje de asesinatos". Su "decisión" es a menudo un mero trámite para validar lo que la máquina ya ha decidido.
Palantir Technologies firmó una alianza estratégica con el Ministerio de Defensa israelí tras el 7 de octubre de 2023, proporcionando tecnología de análisis de datos y plataformas que permiten a la inteligencia militar operar los tres sistemas mencionados de fijación de objetivos. Tales programas no funcionarían si no fuera en base a su integración con sistemas de nube de empresas como Amazon, Google y Microsoft.
“No nos interesa matar a los operativos de Hamás solo cuando se encuentran en un edificio militar o participaban en actividades militares”, declaró un oficial de inteligencia, a +972 Magazine y Local Call. “Al contrario, los bombardeamos en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.
Desde el punto de vista de inteligencia algorítmica resulta más fácil localizar a los “objetivos” en sus casas. El ejército israelí ha atacado sistemáticamente a las personas “objetivo” mientras se encontraban en sus hogares —generalmente de noche y con sus familias presentes— en lugar de hacerlo durante operaciones militares. “¿Dónde está papá?" es un programa creado específicamente para rastrear a las personas objetivo y perpetrar atentados con bomba cuando se encontraban en sus domicilios. Miles de palestinos —en su mayoría mujeres, niños o personas que no participaban en los combates— han sido aniquilados debido a las decisiones del programa de IA.
"No se pueden malgastar bombas caras en gente sin importancia; es muy costoso para el país y hay escasez [de esas bombas]".
A la hora de asesinar a presuntos militantes de bajo rango marcados por Lavender, el ejército prefiere usar únicamente misiles no guiados, comúnmente conocidos como bombas "tontas" más baratas (en contraste con las caras bombas de precisión "inteligentes"), pero que pueden destruir edificios enteros con sus ocupantes dentro. Dentro del ejército, los operadores se referían a los objetivos de bajo nivel como "basura".
Los operadores militares genocidas presionaron para mantener el umbral de correlación del algoritmo lo más bajo posible, buscando generar el máximo número de objetivos, aunque esto aumentara significativamente la tasa de error. Por cada operativo de bajo rango marcado el algoritmo debía permitir matar hasta 15 o 20 civiles. Cuando el supuesto objetivo era un posible alto cargo con rango de comandante de batallón o brigada, el bombardeo decidido por Lavander admitía un umbral “colateral” de 100 civiles.
La información sobre el uso de “Lavander” y "Where's Daddy?" ha sido revelada principalmente a través de investigaciones periodísticas, como las de +972 Magazine y Al Jazeera, basadas en testimonios de oficiales de inteligencia israelíes. Los informes confirman que Microsoft Azure se ha utilizado para el almacenamiento de datos masivos y operaciones de seguimiento ("Where's Daddy?") para localizar objetivos, especialmente cuando estos regresan a sus residencias familiares y aniquilar a todos los residentes.
Más allá de los bombardeos, la tecnología de estas grandes empresas tecnológicas se utiliza también para el control diario de la población palestina en el gueto de la Franja. Microsoft, por ejemplo, suministra herramientas de vigilancia y sistemas que apoyan el sistema penitenciario israelí, conocido por el maltrato a prisioneros palestinos. La infraestructura de Cisco también se emplea en proyectos de vigilancia en el Jerusalén ocupado.
Con la escalada del conflicto la participación de estas empresas ha pasado de ser una herramienta genocida de ocupación en Palestina a un componente crítico en operaciones de inteligencia y ataque como habilitadoras clave de los ataques de Israel y EEUU contra Irán. Palantir (sistema Maven) es fundamental para integrar datos de satélites, drones y comunicaciones, creando un mapa de inteligencia unificado para localizar objetivos. El modelo de lenguaje de la IA Anthropic, Claude, está siendo utilizado para procesar enormes cantidades de datos textuales y acotar las posibles ubicaciones de líderes como el Ayatolá Jamenei. Plataformas como Microsoft, Azure, y Google Cloud proporcionaron la capacidad de computación masiva necesaria para estos procesamientos de datos y para las simulaciones de guerra.
¡Yo no he sido!
La IA está entrenada como los perros de presa: una vez dada la orden de “atacar” la selección de los puntos de impacto y el momento del ataque ocurre a velocidades que ningún humano podría siquiera supervisar.
Los ingenieros deciden los datos de entrenamiento, la arquitectura del algoritmo y los parámetros del sistema. Definen qué es un "objetivo válido" en el código, a menudo, como hemos señalado antes, basándose en correlaciones débiles, como el uso de redes sociales, visitas a ciertas páginas de internet, etc. Los sesgos o errores en esta fase se convierten en fallos sistémicos difíciles de corregir después.
Los “operadores” humanos, en lugar de buscar objetivos, se convierten en “supervisores” de una cadena de montaje que revisan listas a una velocidad inhumana. Su "decisión" es a menudo un mero trámite para validar lo que la máquina ya ha decidido, diluyéndose así cualquier sentido de responsabilidad.
En realidad, el sistema está expresamente diseñado para que el sesgo de automatización y la saturación de información hagan que la supervisión humana sea, en general, meramente procesal. Los ingenieros han diseñado algoritmos que generan “adrede” un “gap de responsabilidad”. La decisión final sobre un ataque específico ya no la toma un humano mirando una imagen en tiempo real, sino que es el resultado de una cadena de decisiones previas (código sesgado, parámetros de misión amplios) y de la ejecución autónoma de una máquina.
Si un algoritmo comete un error masivo, ¿quién es el responsable? ¿El programador que hizo el código en 2022? ¿El funcionario que aprobó la compra o el uso del algoritmo? ¿El comandante que aprobó su uso en una ciudad? ¿O el operador que no pudo físicamente detenerlo a tiempo?
Manipulando la IA. GuerraWashing
Tanto los EEUU como Israel fueron naciones que se crearon a partir del genocidio. EEUU eliminó a la población amerindia y está ayudando a Israel a eliminar lo que queda de la población la palestina para proceder seguidamente con la población de Irán.
Dado que el uso de la IA en la guerra diluye la responsabilidad, ¿por qué no manipularla para aumentar el número de “objetivos” alcanzables rebajando conscientemente el grado de precisión?
La evolución del uso de sistemas de IA como "Lavender" en Gaza no fue un fenómeno estático, sino que siguió una transición de una fase inicial corta donde la precisión era el objetivo declarado a una fase oculta larga donde la maximización de objetivos se convirtió en la prioridad absoluta, sacrificando deliberadamente la precisión y aceptando una alta tasa de error. Los informes de investigación indican que esta presión por "bajar el umbral" y aumentar el número de objetivos, a costa de la precisión, fue una decisión operativa consciente de los mandos militares, no una simple deriva tecnológica. La IA manipulada con fines genocidas.
En realidad, el genocidio se encubrió como una acción de “guerra”. No se habla del genocidio de Gaza sino de la “guerra” de Gaza.
Algo parecido debe estar ocurriendo en el ataque a Irán. Lo que comenzó como ataques "quirúrgicos" contra “objetivos militares” para provocar un cambio de régimen se ha transformado en una campaña destinada a dañar sistemáticamente infraestructura civil y vidas humanas: 61.555 edificios residenciales y 19.020 edificios comerciales; 275 instalaciones farmacéuticas, médicas y de emergencia; 498 escuelas destruidas; 32 ambulancias alcanzadas; 17 centros de la Media Luna Roja destruidos; 206 personas del sector educativo asesinadas; 21 trabajadores de la salud. Ataque a una planta de desalinización en la isla de Qeshm, afectando el suministro de agua a 30 aldeas. Universidad de Ciencia y Tecnología de Irán (Teherán) y Universidad de Isfahán destruidas. Evidentemente el objetivo no era el cambio de régimen sino el genocidio. En este caso, el de la nación persa. Una acción genocida se define fundamentalmente por la intención específica de destruir, total o parcialmente, a un grupo nacional, étnico, racial o religioso. Esta definición, establecida por la Convención de la ONU de 1948, no se limita a asesinatos masivos, sino que incluye diversas acciones encaminadas a la eliminación física o biológica del grupo (Sometimiento intencional del grupo a condiciones de existencia que acarreen su destrucción física, total o parcial (ej. bloqueo de ayuda, privación de alimentos/medicinas) con el objetivo de la ocupación del espacio o el control de recursos naturales que el grupo posee.
Parece que los iraníes se han apercibido ya de quien está realmente al mando de las marionetas EEUU e Israel: las multinacionales tecnológicas, las cuales han sido avisadas de que constituyen un objetivo militar dada su colaboración (instigación) en los ataques genocidas en la región. Microsoft, Apple, Google y Meta y fabricantes de hardware como Nvidia, Intel, Dell, HP y Cisco y gigantes corporativos como IBM, Tesla (SpaceX), Boeing, JPMorgan Chase, Oracle y General Electric. Han sido avisados para que recomienden a su personal se aleje al menos a 1 km. de distancia de dichas instalaciones a partir del 1 de abril.
El dividendo mentiroso
La IA aprende de lo que le alimentan, pero sin filtro de verdad. Cuando se inunda internet con contenido pro-Israel diseñado para entrenar a ChatGPT, el modelo aprende esa "verdad" sesgada. No hay un mecanismo que diferencie entre contenido orgánico y contenido fabricado. El resultado es que la IA internaliza la propaganda como si fuera realidad objetiva. Google, Amazon, Meta, la IA de E. Musk, etc. están alimentando "adrede" sus IA volcando innombrables masas de mensajes pro-sionistas en la red, pagando a influencers, hackers, etc. para que inunden la red con dichos mensajes a favor de la causa sionista.
La manipulación se manifiesta de manera directa: Google, Amazon, Meta, Grok, etc. están alimentando "adrede" sus IA con desinformación sionista. Meta (Facebook e Instagram) ha sido acusada de censura. El uso de herramientas automatizadas eliminó contenido de apoyo a Palestina. El alcance de los medios de noticias palestinos en Facebook cayó casi un 80% después del inicio del conflicto. Después del 7 de octubre, Meta modificó temporalmente sus algoritmos para reducir la visibilidad de contenido en Oriente Medio. Las empresas tecnológicas colaboran con la Unidad Cibernética de Israel. Esta unidad envía solicitudes para eliminar contenido. Las plataformas cumplen con un alto porcentaje de estas solicitudes. Elon Musk ha ajustado el algoritmo de X para marginar información pro palestina o pro iraní. También se han reportado suspensiones de su IA (Grok) cuando las respuestas no se alineaban con marcos narrativos específicos pro Israel.
La abrumadora mayoría de los comentarios sobre el conflicto árabe-israelí son en su gran mayoría antisionistas. Según la agencia CNBC (Consumer News and Business Channel), Google utiliza activamente sus archivos de YouTube para entrenar sus modelos de IA más avanzados. Tiene pues el control total sobre qué partes de ese archivo alimentan la IA y cuales no. Antes de entrenar a una IA, los ingenieros limpian los datos. Si deciden etiquetar las críticas masivas al sionismo como "discurso de odio" o "contenido tóxico", esos millones de comentarios simplemente se borran de la base de entrenamiento, haciendo que la IA nunca aprenda esa perspectiva (Data Cleaning). La IA no solo lee, sino que asigna "importancia" (Weighting). Google puede programar el algoritmo para que un artículo de un medio institucional (como el NYT) tenga 1000 veces más peso que 1000 comentarios de usuarios en YouTube, neutralizando así el sentimiento popular. Finalmente, una vez entrenada, la IA pasa por una fase de "entrenamiento humano" (RLHF). Aunque la IA lea mil millones de comentarios antisionistas, la fase final de entrenamiento (Aprendizaje por Refuerzo a partir de Retroalimentación Humana o RLHF) actúa como un embudo. Los revisores humanos contratados por la empresa tienen instrucciones específicas para "corregir" a la IA. Si una IA empieza a mostrar un sesgo que incomoda a los intereses de la empresa o a sus clientes, los ingenieros realizan un "ajuste fino" (Fine-tuning) específico para bloquearlo. Agunas veces ocurren "fugas" donde la IA refleja el sentimiento masivo de los datos de entrenamiento antes de que los filtros puedan activarse. Pero estas son excepciones que las empresas corrigen rápidamente mediante parches de software.
Al ser Google una empresa estadounidense con contratos militares y gubernamentales masivos, existe un conflicto de intereses directo: permitir que su IA se vuelva "antisionista" por el peso de los comentarios de YouTube pondría en riesgo sus relaciones con el Estado de Israel y el gobierno de EE. UU.
Se ha documentado que el Ministerio de Asuntos de la Diáspora de Israel ha financiado campañas de influencia encubiertas. Un ejemplo notable es el uso de la empresa de marketing político STOIC, que recibió unos 2 millones de dólares para gestionar cientos de perfiles falsos en plataformas como Facebook y X, con el objetivo de influir en legisladores estadounidenses y en la opinión pública. Diversos reportes indican que el gobierno israelí ha destinado más 900.000 dólares, para pagar a influencers en Estados Unidos y otros países. Estos creadores pueden recibir hasta 7.000 dólares por publicación para promover mensajes que favorezcan la narrativa israelí bajo proyectos como "Ester". Se han identificado redes coordinadas de "bots" e IA generativa que utilizan IA para inundar las redes sociales con comentarios pro-Israel en cuestión de minutos tras publicaciones críticas. Además, empresas contratadas por el gobierno israelí han trabajado en iniciativas para influir en cómo modelos como ChatGPT responden a preguntas sobre el conflicto, intentando "entrenar" o alimentar la red con contenido específico para alterar los resultados del algoritmo. Proyectos como "Iron Truth", liderados por ingenieros de empresas tecnológicas (incluido Google), han trabajado para reportar y eliminar masivamente contenido que consideran "pro-terrorista" o desinformación anti-israelí, utilizando canales directos dentro de las plataformas para acelerar estas acciones.
Este es el efecto más perverso. Los investigadores lo llaman el "dividendo del mentiroso". Cuando la IA es tan buena generando contenido falso, y cuando se difunde tanto contenido manipulado, la gente deja de confiar incluso en el contenido real. Israel intenta manipular la IA para que sea más pro-Israel, pero al hacerlo, está contribuyendo a un entorno donde nadie puede confiar en nada, incluido el propio contenido que intenta promover. Las empresas que venden la IA como una herramienta "neutral" están viendo cómo su propio producto se vuelve contra ellas. Pérdida de confianza en ChatGPT se generaliza. Los usuarios ya no saben si las respuestas son orgánicas o han sido manipuladas por campañas pro-Israel como la de Clock Tower X (fundada por el director de la campaña de Donald Trump). El público se refugia en la desconfianza generalizada o se va a la competencia (DeepSeek?).
La guerra se vuelve contra sus instigadoras
La capitalización de mercado de estas empresas ha sufrido un golpe histórico precisamente por las mismas dinámicas geopolíticas que su tecnología ayuda a alimentar. Datos Recientes La evidencia es contundente. El primer trimestre de 2026 ha sido el peor para las grandes tecnológicas en años, y la causa principal ha sido el conflicto con Irán. El ETF que agrupa a las "Siete Magníficas" (Apple, Microsoft, Alphabet, Nvidia, Amazon, Tesla -Space X y Meta) se desplomó un 12.2% en el primer trimestre de 2026, su peor rendimiento trimestral desde el primer trimestre de 2025. Sólo el 1 de abril de 2026, tras una amenaza directa de Irán, las acciones cayeron violentamente: Meta bajó un 13.31% , Microsoft un 8.34% y Nvidia un 6.00%. Microsoft encabeza las pérdidas en lo que va de año con una caída superior al 18%.
Por otra parte, el índice de software de iShares (IGV), que sigue a empresas de software, sufrió su peor trimestre desde la crisis financiera de 2008, cayendo más de un 24%. Así pues, el castigo no se limitó a unas pocas, sino que afectó a todo el sector.
La integración de estas empresas en el aparato militar las ha convertido en objetivos legítimos. El 1 de abril de 2026, la Guardia Revolucionaria Islámica de Irán (IRGC) designó oficialmente a 18 empresas estadounidenses como "objetivos legítimos" por su complicidad en el seguimiento e identificación de objetivos para operaciones militares. La lista incluye a Alphabet (Google), Apple, Microsoft, Meta, NVIDIA, Intel, IBM, Oracle, Palantir, Tesla y Amazon, entre otras.
Los inversores, que antes veían un futuro de crecimiento ilimitado. Su “entrada en la guerra” ha puesto en pausa esa narrativa de crecimiento imparable. Los fondos soberanos de países como Arabia Saudita y Emiratos Árabes Unidos han sido inversores masivos en la IA estadounidense, inyectando más de 200 mil millones de dólares en los últimos años. Ahora, con sus países devastados por la guerra, necesitan ese capital para la reconstrucción, por lo que están retirando sus inversiones de OpenAI, Microsoft, Nvidia y otras. Por otra parte, el presupuesto federal de EEUU se está redirigiendo masivamente hacia el gasto militar. Los billones de dólares que se esperaban para subsidios de IA, investigación y desarrollo y expansión de centros de datos se están desviando para financiar el esfuerzo bélico. Además, el capital riesgo está abandonando la IA y dirigiéndose hacia sectores más tradicionales como la energía y la defensa. Para las Big Tech, la guerra ha significado, además de la fuga de inversores, la interrupción de sus cadenas de suministro (los chips de Nvidia dependen de materiales de Qatar) y la escalada en los costos energéticos que encarece sus centros de datos.
Palantir, la principal contratista de inteligencia artificial para el Pentágono (con su sistema Maven), fue de las que más se benefició al inicio del conflicto. A pesar de ganar contratos multimillonarios (100.000 millones de dólares en una década), su valoración se ha desplomado. Su ratio P/E (precio/beneficio) ha caído de un máximo de 270 veces en noviembre a 104 veces, lo que indica que los inversores ya no creen que su crecimiento sea sostenible. Además, ha habido una importante venta de acciones por parte de personas con información privilegiada de la empresa.
¿Promovieron la escalada bélica?
Las Big Tech tenían mucho que ganar con el conflicto, lo que les dio un incentivo perverso para apoyarlo. Las Big Tech están en una carrera desesperada por conseguir energía barata y abundante para alimentar sus centros de datos de IA. Oriente Medio, con su petróleo y capacidad para generar energía solar masiva, es su "oasis". Empresas como Nvidia, Oracle y OpenAI están construyendo el megaproyecto de IA "Stargate" en los Emiratos Árabes Unidos, valorado en 30.000 millones de dólares. Así pues, una escalada militar que "asegure" la región o que elimine la amenaza iraní es, desde su perspectiva, buena para los negocios.
No es necesario imaginar una reunión secreta de CEOs decidiendo ir a la guerra (aunque no hay porqué descartarlo). El mecanismo es más sutil: Las Big Tech crearon y alimentaron un ecosistema de guerra tecnológica porque era extremadamente rentable y porque les permitía probar y perfeccionar sus productos en condiciones reales, con total impunidad en Gaza y Líbano. Antes de la guerra con Irán, Palantir, Oracle y Microsoft ya habían asegurado contratos multimillonarios con el Pentágono. La escalada contra Irán significaba un aumento exponencial del gasto en defensa, y ellos estaban posicionados como proveedores exclusivos.
Una vez que ese ecosistema estuvo en marcha y se integró en el aparato de defensa de EE. UU., la escalada contra Irán se convirtió en el siguiente paso "lógico" para seguir demostrando su valor y, sobre todo, para proteger sus intereses energéticos y financieros en Oriente Medio. Fueron cómplices necesarios y beneficiarios directos del conflicto. La guerra se había convertido en su nuevo y lucrativo campo de pruebas que las colocaría definitivamente y para siempre a la cabeza. El soñado monopolio absoluto.
Palantir multiplicó su valoración hasta rozar los 490.000 millones de dólares, convirtiéndose en una de las 20 empresas más valiosas de EE.UU. con menos de 4000 millones en ingresos. Su CEO, Alex Karp, se ha convertido en un "cruzado geopolítico" que defiende abiertamente a Israel.
Oracle, bajo Larry Ellison, vio su valor de mercado saltar de 289.000 millones en 2023 a 592.000 millones en junio de 2025. Larry Ellison nació de madre judía, fue criado en un hogar judío y ha donado millones de dólares al ejército israelí, así como centenares de miles para reforzar los asentamientos en Cisjordania. Ellison lideró el consorcio que compró TikTok por 14.000 millones de dólares bajo la supervisión directa de Trump, quien firmó la orden ejecutiva aprobando el acuerdo el 25 de septiembre de 2025 pasando a controlar la infraestructura de una plataforma con mil millones de usuarios globales. Oracle, por supuesto, tiene contratos millonarios con el Pentágono y la CIA (su primer gran cliente).
El gobierno israelí pagó a empresas tecnológicas estadounidenses para manipular la narrativa. Con el Proyecto Esther, Israel pagó entre 5000 y 70000 dólares por publicación a influencers estadounidenses para "reformar su imagen" durante la guerra de Gaza. Brad Parscale. exgerente de campaña de Trump, recibió 6 millones de dólares para generar 50 millones de vistas mensuales en TikTok, Instagram y YouTube dirigidas a la Generación Z. El mismo contrato incluye inundar internet con contenido pro-israelí para manipular los resultados de motores de búsqueda y sistemas de IA como ChatGPT.
“Israel Inc."
Podría considerarse al estado de Israel como otra de las Big Tech, la única con capacidad de probar sobre el terreno muchas de las más rentables de sus aplicaciones dada la estrecha fusión sistémica entre el aparato de seguridad israelí y su industria tecnológica, actuando el Estado actúa como el laboratorio de pruebas, el cliente principal, el inversor de capital riesgo y el escudo político del ecosistema tecnológico israelí. Su invaluable “mercado de pruebas" son los territorios palestinos ocupados y los países circundantes. Gaza, Cisjordania y Líbano actúan como "campos de pruebas en vivo" para sus innovadoras tecnologías de vigilancia, IA de targeting y sistemas de defensa. Las Big Tech tradicionales, hasta antes de su ataque a Iran, probaban sus algoritmos en entornos controlados o con usuarios voluntarios. Israel ha abierto la veda a las pruebas en poblaciones sometidas a ocupación y en zonas de guerra real.
El Ministerio de Defensa y el ejército son el primer y más exigente cliente de la industria tecnológica israelí (cibernética, drones, IA, vigilancia). El Estado israelí es a la vez cliente, regulador y socio de su propia industria. Un gasto en I+D militar desproporcionado para su tamaño, y una relajación de las restricciones éticas escalofriante. EE.UU. proporciona un paraguas diplomático (vetos en la ONU, ayuda militar de 3.800 millones anuales) y de inteligencia que permite a Israel operar con una impunidad que ninguna Big Tech podría soñar.
La Unidad 8200 es el "MIT israelí". Sus veteranos fundan las startups más exitosas (Check Point, Waze, Palo Alto Networks). Es un circuito cerrado: Ejército,vUniversidad, startup, Ejército. Así pues también aquí Israel ha trillado el camino a seguir para el resto de las Big Tech en sus nuevas relaciones con el complejo militar norteamericano.
La Big Tech-Estado de Israel gozaba hasta ahora de una enorme ventaja competitiva., la de poder probar sus productos en condiciones de combate real, con feedback inmediato, y sin las trabas legales que tendría una empresa estadounidense o europea.
NSO Group (Pegasus) desarrolló el spyware más potente del mundo. ¿Dónde lo probó? Con la complicidad de gobiernos aliados, contra periodistas, activistas y opositores. Cuando estalló el escándalo, el gobierno israelí montó una comisión... pero siguió permitiendo las exportaciones con supervisión laxa. Una empresa similar en EE.UU. habría sido desmantelada. "Lavender" y "The Gospel", los sistemas de IA desarrollados por la Unidad 8200 para generar listas de objetivos en Gaza, no son productos comerciales (son clasificados), pero los ingenieros que los crean son los mismos que luego fundan startups de IA con la "prueba en Gaza" es su currículum. Durante la guerra actual, más de 100 startups israelíes han integrado sus productos en las operaciones militares; desde sistemas de logística hasta plataformas de identificación facial.
Estaríamos hablando de una empresa con un valor de mercado incalculable (su capacidad de influencia geopolítica), con un producto (seguridad/vigilancia) que se vende a decenas de gobiernos, y con una "ventaja competitiva" (la ocupación) que ninguna otra empresa puede replicar. Su “modelo de negocio” sería el más exitoso y letal del planeta: vender tecnología de control y destrucción, probada en una población cautiva, con garantía de impunidad diplomática. Su modelo de negocio era el más exitoso del planeta: vender tecnología de control y destrucción, probada en una población cautiva, con garantía de impunidad diplomática. Y ese es un "producto" que ninguna Big Tech podía ofrecer hasta ahora.
El seguro pinchazo de la IA
Ya el Informe de Situación Económica de la India para 2025-26 (Economic Survey) alertaba de que el apalancamiento masivo en infraestructura de IA podría desencadenar una crisis financiera global comparable o incluso peor que la de 2008.
Las grandes tecnológicas han financiado su gigantesca inversión en Inteligencia Artificial a base de crédito barato creando un riesgo sistémico que recuerda a los años previos a la crisis de las subprime. Las tecnológicas han movido más de 120.000 millones en gasto de centros de datos fuera de sus balances. Lo han hecho mediante Vehículos de Propósito Especial (SPVs) financiados por Wall Street. Esto significa que la deuda masiva no aparece en los libros de Apple, Google o Microsoft, pero el riesgo de impago existe y está repartido por todo el sistema financiero, igual que ocurría con las hipotecas basura en 2008. El sistema depende de plazos de ejecución optimistas, una concentración estrecha de clientes y compromisos de capital a largo plazo. Además, la especulación en las bolsas ha alcanzado niveles de escándalo. Apple y Microsoft cotizan a 35 veces sus beneficios futuros, y Nvidia a 44 veces, mientras que Tesla supera las 200 veces. El principal motor de la imparable progresión de la mayoría de las bolsas del mundo continua siendo la autocompra de acciones por las compañías participantes, apalancada por el crédito bancario a tipos irrisorios. Es decir, como en el caso de las subprime el castillo de naipes se sostiene mientras todo vaya perfecto. Cualquier contratiempo geopolítico, o de demanda real podría hacerlo caer.
Pero, a diferencia de crack de 2008, actualmente el servicio de la deuda de EE. UU. alcanzará 1,1 billones de dólares en 2026, superando ya todo su presupuesto de defensa nacional. Esto deja muy poco margen para rescatar al sector privado si todo colapsa.
Esta vez el crack sería lo más parecida a un huracán financiero donde los gigantes tambalean, los bancos que les prestaron se hunden, y los estados, ya endeudados hasta las cejas, no pueden rescatar a todos. El endeudamiento empresarial y público es el combustible, y la chispa podría ser cualquier cosa: desde una escalada del conflicto en Oriente Medio hasta una simple desaceleración en la adopción real de la IA.
