Home Guerra Personal artificial, comando humano: Un experimento de integración de IA

Personal artificial, comando humano: Un experimento de integración de IA

179
0

Fue la duodécima hora del ciclo de planificación cuando nuestro oficial principal de planes se colocó entre una pizarra blanca y un mapa, se puso un auricular y comenzó a describir una compleja operación defensiva. Habló sobre el esquema de maniobra en secuencia: terreno, rutas, líneas de fase, objetivos, posiciones de apoyo y fuego, transiciones, ramas. Los oficiales de inteligencia y apoyo de fuego intervinieron con detalles donde estaban involucradas sus funciones de combate. En un período de veinte minutos, una herramienta de transcripción capturó cada palabra. Treinta minutos después, el personal tenía una orden de operaciones de brigada en formato doctrinal correcto, redactada no por ningún oficial en la habitación, sino por una herramienta de inteligencia artificial entrenada en la estructura de las órdenes de operaciones del Ejército, trabajando a partir de la transcripción de lo que los humanos dijeron en realidad.

Esta fue una de las formas en que la inteligencia artificial se caracterizó en nuestra rotación en el Centro de Entrenamiento Conjunto de Preparación para la Operación en Fort Polk, Luisiana. Los tres servimos en el personal del 3er Equipo de Combate de Brigada, 101a División Aerotransportada, los Rakkasans. A lo largo de la rotación, integramos herramientas de inteligencia artificial en el proceso de toma de decisiones militares, la metodología de planificación de siete pasos que utiliza el Ejército para convertir la orientación de cuarteles generales superiores en una orden ejecutable. Los resultados fueron tres órdenes de operaciones de brigada completas, cada una producida en aproximadamente veintitrés horas, cumpliendo con la regla de un tercio/dos tercios que reserva dos tercios del tiempo de planificación para las unidades subordinadas, a un ritmo que supera significativamente lo que la mayoría de los estados mayores de brigada logran bajo la presión de una rotación en un centro de entrenamiento de combate.

El resultado no es el hallazgo. Lo importante es lo que creó la línea de tiempo comprimida: tiempo cognitivo. Tiempo para que el comandante y el personal realicen el trabajo conceptual que ninguna máquina puede realizar adecuadamente: entender el problema, visualizar la lucha, aceptar el riesgo y decidir. La inteligencia artificial dentro de un puesto de mando se utiliza mejor como apoyo de personal artificial, nunca como substituto del juicio de comando. Tratarlo como algo más rompe la doctrina e invita al riesgo operativo. Nuestra rotación demostró ambas partes de ese argumento: dónde la IA fortalece al personal y dónde, si se le permite pasar su límite adecuado, corrompería el proceso que se supone que debe apoyar.

Donde la IA se Ganó su Lugar

La doctrina del Ejército establece claramente la línea relevante. La Publicación 5-0 de la Doctrina del Ejército, El Proceso de Operaciones, establece que la planificación es dirigida por el comandante y apoyada por el personal. El comandante es dueño de la dimensión conceptual: enmarcar el problema, definir el estado final, desarrollar el enfoque operativo, seleccionar la operación decisiva, aceptar el riesgo. El personal es dueño del trabajo de apoyo: estimaciones en marcha, sincronización, comparación de opciones, conversión de la orientación del comandante en productos ejecutables. Donde pertenece la IA en un puesto de mando, y donde no, sigue esa línea exactamente.

Durante nuestra rotación, la IA entregó el mayor valor en cinco funciones de planificación, cada una caracterizada por un alto trabajo clerical y un juicio conceptual limitado.

La primera fue durante la recepción de la misión. Después de recibir nuestra orden de operación de nivel de división, la introdujimos y los productos de apoyo en una herramienta de IA que expuso tareas especificadas e implícitas, restricciones, restricciones, relaciones de mando y plazos críticos. La salida requirió interpretación y validación humanas, pero la extracción en crudo fue más rápida y menos propensa a errores que el escaneo manual. Publicamos una orden de advertencia completa a los batallones subordinados dentro de una hora después de recibirla, un ritmo que supera el rendimiento estándar de la brigada para una orden de advertencia que las unidades subordinadas puedan ejecutar realmente.

La segunda fue durante el análisis de misión, donde empleamos una herramienta habilitada para IA separada que ingirió documentos, extrajo factores de análisis de la misión y generó salidas estructuradas para el refinamiento del personal. Tareas esenciales aún requerían validación humana. Las suposiciones aún requerían juicio humano. Los riesgos aún requerían evaluación humana. Lo que cambió fue el punto de partida: el oficial de operaciones ingresó a la presentación de análisis de misión con un producto en funcionamiento en la mano en lugar de una carpeta llena de notas marcadas. Un personal que trabaja desde un borrador estructurado bajo plazos se comporta de manera fundamentalmente diferente a uno que mira párrafos vacíos en la hora cuatro de un reloj de veinticuatro horas.

El tercer caso de uso más consecuente que observamos, y el que creemos que más justifica la atención del Ejército, fue la traducción de voz a doctrina. Los comandantes y planificadores no piensan naturalmente en prosa doctrinal de cinco párrafos acabada. El pensamiento táctico surge verbalmente, en narrativa, corrección y refinamiento. El trabajo de personal tradicional obliga a ese pensamiento a través de un cuello de botella: Alguien debe registrarlo, interpretarlo, convertirlo en una estructura doctrinal y construir a partir de él la orden de operaciones, las órdenes de advertencia, las tareas para las unidades subordinadas, la matriz de sincronización y la línea de tiempo. El proceso consume horas e introduce fricción de traducción en cada paso. La intención del comandante se pierde en la traducción. Sucede en cuarteles generales de todo el Ejército todos los días.

Lo que hizo la IA, trabajando a partir de la transcripción del recorrido verbal del oficial de planes, fue tomar lo que realmente habíamos dicho y ponerlo en el formato que el Ejército requiere. La máquina no inventó el concepto táctico. Preservó y formalizó el pensamiento de comando, reduciendo la brecha entre cómo hablan los comandantes y cómo la doctrina exige que los cuarteles generales publiquen.

La cuarta función donde la IA demostró ser más valiosa fue después de que se definiera el esquema de maniobra, cuando una herramienta de IA redactó órdenes de advertencia, párrafos de orden estructurados, construyó líneas de tiempo y produjo primeras versiones de herramientas de sincronización. En la mayoría de los cuarteles generales, la creación del concepto no es donde termina el trabajo del producto; es donde la churn del producto se acelera. Cada refinamiento provoca cambios en las líneas de tiempo, tareas, matrices y materiales de ensayo. El personal manual gasta una energía desproporcionada simplemente manteniendo sus propios productos alineados entre sí. Utilizar la IA para absorber esa churn nos permitió utilizar nuestra energía para evaluar la calidad del plan en lugar de mantener la mecánica del plan.

Finalmente, el caso de uso más subestimado requirió que la máquina interrogara en lugar de decidir. Nuestro oficial ejecutivo de brigada estimuló a una herramienta de IA para generar preguntas específicas a través de las funciones de combate, tal como cuál es nuestra mayor vulnerabilidad durante un paso de líneas hacia adelante, por ejemplo, o qué pasa con el esquema de fuego si el esfuerzo principal se abre paso treinta minutos antes, y llevó esas preguntas a la reunión de sincronización. La máquina mejoró el rigor sin desplazar el juicio. Funcionó como un entrenador de personal, no como un comandante de personal.

Donde la IA se mantuvo en segundo plano

Durante el desarrollo de curso de acción, la IA se mantuvo en un segundo plano. Esto no fue un fracaso de integración, sino la relación doctrinal correcta, y fue el hallazgo más importante de la rotación. El desarrollo de cursos de acción depende de la imaginación táctica, la literacidad doctrinaria, la apreciación del terreno, la comprensión del enemigo y el sentido de riesgo aceptable del comandante. Es la etapa en la que el cuartel general decide qué es decisivo, qué está formando, dónde se concentra el poder de combate, cómo se crea el ritmo, qué hace la reserva. Nuestro oficial de planes no le pidió a la IA que generara cursos de acción. Se paró en el mapa con el comandante y el oficial de operaciones y construyó los conceptos a mano, contra el terreno, contra la disposición del enemigo, contra la intención del comandante. La IA estaba en la habitación. La IA no era la autora.

La misma limitación se aplicó en cada nodo de la autoridad del comandante. La IA no se utilizó para determinar la intención del comandante, seleccionar la operación decisiva, autorizar disparos, aceptar riesgos o firmar órdenes. Estas funciones no son delegables a máquinas, no por prohibición regulatoria, sino porque la responsabilidad del comando no es una tarea administrativa. Es la función por la cual se encarga a un oficial.

El Riesgo que el Entorno de Entrenamiento Encubrió

Velocidad sin gobernanza produce confusión más rápida, no mejores planes. Incluso en una rotación disciplinada, observamos varios modos de falla. Tres merecen una atención particular de cualquier brigada que esté considerando la adopción.

El más peligroso es lo que hemos llegado a llamar confianza oculta. Los modelos AI generativos a veces producen resultados que son gramaticalmente pulidos, correctos en estilo y factualmente incorrectos. No alertan sobre estos errores. No saben que están incorrectos. A lo largo de nuestro ciclo de planificación, observamos designaciones de unidades incorrectas, líneas de fase invertidas, nombres de medidas de control inventados que sonaban plausibles pero no existían en la orden original, y cálculos de tiempo-distancia erróneos en treinta a sesenta minutos. Cualquiera de estos errores, publicados en una orden de operaciones y ejecutados por una unidad subordinada, podría provocar fuego amigo, un desencuentro o una desincronización en un momento crítico. Nuestros jefes de sección capturaron estos errores porque se negaron a tratar la salida de IA como validada. Ese resultado reflejó entrenamiento y disciplina, no suerte. Un párrafo pulido no es un párrafo correcto. Una matriz limpia no es una matriz aprobada. El profesionalismo del personal en un cuartel general habilitado para IA se mide menos por la velocidad de producción que por el rigor de validación, una expectativa consistente con el marco de trabajo de IA responsable del Departamento de Defensa, que requiere que los sistemas habilitados para IA permanezcan rastreables, confiables y gobernables, con humanos responsables de su uso.

El segundo modo de falla es arquitectónico. Nuestras herramientas operaban en un entorno de entrenamiento benigno, conectado y no clasificado. No necesariamente son desplegables en uno operativo clasificado y disputado. Los modelos comerciales alojados en la nube requieren una conectividad que el Ejército puede no tener en condiciones negadas, degradadas, intermitentes o limitadas. También plantean riesgos de que la información clasificada se exponga a sistemas no seguros si se usan descuidadamente. Las herramientas generativas de red segura emergentes del Ejército son un punto de partida, pero la fuerza aún necesita modelos resistentes, implementables in situ o en la periferia que operen en un espectro electromagnético disputado. Un cuartel general que depende de un servicio de software comercial para producir órdenes ha introducido una dependencia logística tan crítica para las operaciones como el agua o el combustible. La pregunta de planificación en combate no es solo si la IA funciona, sino si funciona cuando el enemigo intenta activamente impedir que funcione.

El tercer modo de falla es estratégico. Las fuerzas rusas y chinas enfrentan el mismo problema de tiempo cognitivo que enfrentan las fuerzas estadounidenses. Sus estados mayores leen volúmenes comparables de orientación superior, elaboran productos comparables, enfrentan fricciones clericales comparables. Ambos han priorizado el desarrollo de comando y control habilitados para IA durante varios años. Si integran la IA en sus ciclos de planificación más rápido o de manera más efectiva que nosotros, la ventaja de tempo que observamos en Fort Polk se evapora. La pregunta relevante no es si la IA cambiará la planificación táctica. Es qué fuerza aprenderá a gobernarla primero y la disciplina de gobernanza relativa, más que la velocidad relativa de adopción, dará forma a qué fuerza presenta problemas más rápidos y mejor sincronizados al otro al comienzo del próximo conflicto.

Lo que Esto Significa para el Ejército

La conclusión general no es que la IA pueda reemplazar el proceso de toma de decisiones militares. Es que la IA puede hacer que ese proceso sea más ejecutable bajo condiciones modernas al reducir la fricción en las partes del trabajo del personal que consumen tiempo sin agregar un valor conceptual proporcional. Cuatro imperativos siguen para los comandantes de brigadas y los estados mayores que adopten estas herramientas ahora.

Primero, emplear la IA de forma agresiva durante la recepción de la misión, la redacción del análisis del trabajo, la traducción de voz a doctrina, la producción de órdenes y la creación de equipos enemigos. Estas son las etapas donde el trabajo de la máquina brinda el mayor retorno de tiempo cognitivo para los humanos, y donde la consolidación clerical se traduce más directamente en una ventaja de planificación.

Segundo, prohibir que la IA escriba la intención del comandante, la operación decisiva o cualquier producto de autoridad de aprobación sin validación humana explícita. Codifique estos límites en procedimientos operativos estándar de la unidad antes de que la presión operativa los ponga a prueba. Antes, no después.

Tercero, establecer la disciplina de gobernanza del producto como un requisito previo para la adopción de IA, y no como una refinación posterior. Una sola fuente de verdad, un proceso de control de versiones y validadores nombrados por clase de producto son las condiciones bajo las cuales la integración de la IA tiene éxito. Una brigada que adopta la IA sin tener estos en su lugar está peor que una que no lo hace en absoluto. Gobernanza primero. Herramientas después.

Cuarto, asumir que la conectividad fallará. Identificar qué herramientas de AI funcionan en condiciones degradadas y cuáles no, y ensayar procesos de planificación sin ellas. Un personal que no puede planificar sin sus herramientas no ha adoptado la IA. Se ha vuelto dependiente de ella.

El Ejército institucional debe avanzar en paralelo. La educación militar profesional: el Colegio de Comando y Estado Mayor General, los cursos de carrera de capitanes, los cursos previos al mando, deberían tratar la gobernanza de la IA como parte del plan de estudios central en lugar de material electivo, cubriendo la disciplina de pronta acción, la validación de la producción y los modos de falla específicos identificados anteriormente. El Manual de Campo 5-0, Planificación y Producción de Órdenes, requerirá eventualmente un capítulo sobre procesos de personal habilitados para IA. El Ejército no debe esperar una década de práctica emergente antes de codificar las lecciones que la fuerza operativa ya está generando.

Lo que observamos en Fort Polk no fue un comando artificial ni el reemplazo del juicio táctico. Fue la preservación del tiempo para la toma de decisiones tácticas. La IA pertenece al proceso de toma de decisiones militares si, y solo si, fortalece la capacidad del comandante para comandar y la capacidad del personal para apoyar el comando. Cuando se delimita adecuadamente, hace precisamente eso.

El Capitán Chris Lajeunesse es un oficial de infantería del Ejército de los EE. UU. que se desempeña como planificador de operaciones de brigada y oficial de innovación para el 3er Equipo de Brigada Móvil, 101ª División Aerotransportada. El Capitán Lajeunesse es graduado de West Point y oficial calificado de Ranger. Tomará el comando de una compañía de fusileros este verano en el 2º Batallón del 506º Regimiento de Infantería.

El Capitán Joseph