He estado profundizando en algo que ha estado remodelando silenciosamente cómo funciona la guerra moderna, y honestamente es bastante salvaje cuando lo juntas todo.



Así que hay una operación llamada Epic Fury en febrero de 2026—Israel y EE. UU. básicamente realizaron lo que equivale a una prueba de estrés de IA en una zona de combate real contra Irán. Pero esto es lo que la mayoría de la gente pasa por alto: esto no se trataba solo de poder de fuego. Se trataba de comprimir toda la cadena de muerte—desde los datos de los sensores hasta la toma de decisiones y los ataques reales—en minutos o incluso segundos. Quien descifre esa compresión gana la próxima ronda de influencia geopolítica.

Lo que llamó mi atención es cómo las principales empresas tecnológicas han cambiado abiertamente sus posiciones. OpenAI pasó de tener una postura ética sobre mantenerse alejado de aplicaciones militares a, de repente, conseguir probablemente el contrato de defensa más sensible de nuestro tiempo. Lo anunciaron a finales de febrero—desplegando modelos GPT en redes clasificadas para análisis de inteligencia, traducción, simulaciones de combate. La compañía dice que lo hacen dentro de "líneas rojas", pero seamos realistas: esas líneas rojas se volvieron mucho más flexibles cuando estás hablando de cientos de millones en contratos de defensa.

Luego está Anthropic, que tomó el camino opuesto. Se negaron a ceder en sus principios, no aceptaron las demandas del Pentágono sobre armas autónomas y vigilancia masiva. ¿Resultado? Los etiquetaron como un "riesgo en la cadena de suministro"—una designación que antes se reservaba para empresas como Huawei. Eso es una señal escalofriante para toda la industria: mantén tus principios éticos y mira cómo tu acceso al presupuesto de defensa desaparece de la noche a la mañana.

Pero aquí está lo que nadie habla lo suficiente: el verdadero poder en esta ecuación no lo tienen las empresas de modelos. Lo tienen Microsoft y Google. Sin su infraestructura en la nube, todos esos modelos de IA sofisticados son solo diapositivas de PowerPoint. Microsoft Azure básicamente se convirtió en la columna vertebral operativa—el ejército israelí escaló sus operaciones de aprendizaje automático en algo así como 64 veces en unos meses. El Proyecto Nimbus de Google ha estado proporcionando infraestructura en la nube por más de mil millones de dólares. Estas empresas están absorbiendo el flujo de efectivo real mientras los proveedores de modelos toman el golpe reputacional. Listo, si lo piensas cínicamente.

Lo que realmente me perturba son sistemas de IA israelíes como Lavender. Esta cosa analizó patrones de comportamiento en prácticamente todos los hombres adultos en Gaza, les asignó un "puntaje de sospecha de militancia" y identificó decenas de miles de objetivos. Luego Gospel automatizó la construcción de objetivos, y Where's Daddy optimizó cuándo atacar para maximizar las bajas. ¿Revisión humana? Unos pocos segundos por objetivo. Esto es lo que realmente parece una fábrica de asesinatos algorítmica cuando eliminas la fricción del proceso de decisión.

Lo aterrador es cuán portable es esta lógica. Las técnicas que desarrollaron en Gaza podrían aplicarse en cualquier lugar—Teherán, Taipei, donde sea. No se trata de la geografía específica; se trata de la cadena de datos y la infraestructura en la nube que la procesa.

Desde una perspectiva de mercado, estamos presenciando la emergencia de lo que podrías llamar un complejo de IA-Nube-Defensa. Está remodelando cómo los inversores deben pensar en las acciones tecnológicas. Esto ya no se trata solo de OpenAI o Microsoft como empresas orientadas al consumidor. Se trata de quién controla la infraestructura para la próxima generación de conflictos. Las empresas dispuestas a comprometerse con la ética están siendo recompensadas con flujo de efectivo estable y contracíclico que las aísla de los ciclos económicos normales.

La verdadera pregunta que la gente debería estar haciendo: antes de externalizar más cadenas de muerte a un puñado de grandes empresas de modelos y nube, ¿todavía tenemos tiempo para averiguar quién es realmente responsable cuando las recomendaciones algorítmicas se convierten en coordenadas de bombardeo? Porque si no dices nada ahora, básicamente estás apostando a que esta complejidad se mantenga manejable. La historia sugiere lo contrario.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado