abril 15, 2026

La IA da la vuelta a la Luna y visita su lado oscuro

La IA da la vuelta a la Luna y visita su lado oscuro

El papel decisivo de la Inteligencia Artificial en la Misión Artemis II, el primer vuelo tripulado alrededor de la Luna en más de medio siglo. Apolo no tenía inteligencia artificial, Artemis II, sí.

Cuauhtémoc Valdiosera

El 1 de abril de 2026, a las 6:47 horas (hora de la Ciudad de México), el cohete Space Launch System de la NASA elevó desde la Plataforma 39B del Centro Espacial Kennedy la cápsula Orion bautizada por su tripulación como Integrity. A bordo viajaban cuatro astronautas: El comandante Reid Wiseman, el piloto Victor Glover —primera persona de color en una misión lunar—, la especialista Christina Koch —primera mujer— y el canadiense Jeremy Hansen —primer no estadounidense en volar a la Luna—. El destino: el lado oscuro de la Luna.

Nueve días, una hora y treinta y dos minutos después, el 10 de abril de 2026, la cápsula amerizó exitosamente en el océano Pacífico frente a las costas de California. La humanidad había completado su primer vuelo tripulado alrededor de la Luna en más de cincuenta años. Pero lo que esta misión demostró no fue solo que podemos llegar a la Luna de nuevo. Demostró algo más profundo: que a partir de ahora, ninguna nave espacial tripulada puede concebirse sin Inteligencia Artificial como columna vertebral de su operación.

A diferencia de las misiones Apolo, donde el éxito dependía de miles de interruptores manuales y cálculos realizados en tierra por equipos de ingenieros —con computadoras de a bordo con menos de 64 kilobytes de memoria—, la misión Artemis II fue gestionada por un software tan sofisticado que Kevin Woodward, gerente senior de IA en Lockheed Martin, describió sin ambages:

Si se le pidiera a un ser humano realizar el mismo análisis de datos que ejecuta este sistema, le llevaría 240 años. La IA lo resuelve en aproximadamente una hora.

FICHA DE MISIÓN: ARTEMIS II — ABRIL 2026

Lanzamiento: 1 de abril de 2026 | Centro Espacial Kennedy, Florida. Amerizaje: 10 de abril de 2026 | Océano Pacífico, frente a California

  • Duración exacta: 9 días, 1 hora y 32 minutos
  • Tripulación: Reid Wiseman (comandante), Victor Glover (piloto), Christina Koch y Jeremy Hansen
  • Distancia máxima: 406,771 km de la Tierra — nuevo récord histórico humano
  • Velocidad máxima: ~40,000 km/h | Temperatura de reingreso: ~2,700 °C
  • Vehículo: Cápsula Orion + Módulo de Servicio Europeo (ESA) + cohete SLS (98 metros)
  • Objetivo: Primer vuelo tripulado lunar desde Apolo 17 (diciembre 1972)

70 minutos de silencio: Cuando la IA tomó el mando

El momento más crítico de la misión Artemis II no fue el lanzamiento ni el reingreso a la atmósfera. Fue el instante en que la nave Orión desapareció detrás del limbo lunar y comenzó a surcar el lado oscuro de la Luna.

Durante el sobrevuelo del 6 de abril —el Día 6 de la misión—, la tripulación estuvo incomunicada con el Centro de Control de Houston durante un período de hasta 70 minutos. No había señal de radio. No había GPS. No había forma de recibir instrucciones desde la Tierra. En ese silencio absoluto, fue la Inteligencia Artificial quien mantuvo la nave en curso, monitoreó los sistemas vitales y garantizó la supervivencia de los cuatro astronautas.

El sistema utilizado para lograrlo se llama OpNav (Optical Navigation). La cápsula Orión lleva once cámaras de alta resolución orientadas hacia la Tierra, la Luna y el campo estelar. Un algoritmo de IA analiza esas imágenes en tiempo real, reconoce los cuerpos celestes, y calcula con precisión milimétrica la posición de la nave, su velocidad y su vector de trayectoria. Sin contacto con la Tierra. Sin GPS. Pura geometría celeste ejecutada a velocidad computacional.

“Es como un sextante digital”, explicó un ingeniero de Lockheed Martin durante el briefing post-misión. “Solo que en lugar de un marinero mirando las estrellas y haciendo cálculos trigonométricos, es un algoritmo que procesa miles de imágenes por segundo y determina dónde está la nave con una precisión que ningún ser humano podría alcanzar manualmente.”

Desde el lado oscuro de la Luna, Christina Koch transmitió —en el momento en que Orión volvió a estar en cobertura—:

Siempre elegiremos la Tierra. Fueron las primeras palabras pronunciadas por un ser humano que había cruzado la zona de silencio absoluto. Mientras ella las decía, los sistemas autónomos ya estaban procesando la corrección de trayectoria para el regreso.

artemis/ IA GEMINI

El médico permanente de la nave: IA de diagnóstico y soporte vital

Más allá de la navegación autónoma, la Inteligencia Artificial de Artemis II cumplió otra función igualmente vital: Ser el médico de guardia permanente de la cápsula Orion.

La nave incorpora miles de sensores que generan un flujo continuo de datos sobre temperatura, presión, niveles de oxígeno, consumo de energía, vibración estructural, radiación y decenas de otras variables críticas. Este volumen de información es humanamente imposible de procesar en tiempo real. Por ello, Lockheed Martin —contratista principal de Orión— integró algoritmos de machine learning capaces de detectar anomalías antes de que se conviertan en fallas críticas.

La metáfora es precisa: Imaginen un automóvil que puede avisarles con semanas de anticipación que una pieza está por romperse, no porque una luz de alerta se haya encendido, sino porque el motor está produciendo una vibración casi imperceptible que el algoritmo reconoce como patrón de desgaste acelerado. Eso es exactamente lo que hizo la IA de Artemis II con la nave Orión, durante nueve días, en el espacio profundo.

El sistema incluyó también monitoreo de salud biométrica de la tripulación: Frecuencia cardíaca, niveles de saturación de oxígeno, ritmos de sueño, indicadores de fatiga cognitiva. Esta información fue correlacionada con las condiciones ambientales de la nave para optimizar en tiempo real los parámetros del sistema de soporte vital, maximizando el bienestar de los astronautas en un entorno donde cada variable puede ser la diferencia entre la vida y la muerte.

SISTEMAS DE INTELIGENCIA ARTIFICIAL INTEGRADOS EN ARTEMIS II

OpNav (Optical Navigation): navegación autónoma por rastreo estelar, 11 cámaras de alta resolución, sin GPS ni contacto terrestre.

  • FALCON (Fast Adaptation and Learning for Control Online): IA de estabilización de maniobras. Aumentó el tiempo en zona segura del 63% (solo piloto humano) al 94%.
  • Diagnóstico predictivo: monitoreo continuo de miles de sensores para detección anticipada de anomalías estructurales y de sistemas.
  • Biometría inteligente: análisis de signos vitales y fatiga cognitiva de la tripulación; optimización automática del soporte vital.
  • Predicción de tormentas solares: anticipación de eventos de radiación y activación autónoma de protocolos de protección.
  • Callisto (Lockheed Martin + Amazon + Cisco): Alexa espacial sin conexión a internet — control por voz de sistemas de la nave, datos de trayectoria, videollamadas familiares.
  • Vehicle Management Computers: derivados de los computadores de vuelo del Boeing 787, radioendurecidos. Votan entre sí para detectar y corregir fallas por radiación.

Callisto: Alexa viajó a la Luna

Entre todos los sistemas de IA integrados en Artemis II, hay uno que sorprende por su cercanía con la vida cotidiana: Callisto, una colaboración entre Lockheed Martin, Amazon y Cisco que llevó al espacio profundo una versión del asistente de voz Alexa.

Pero con una diferencia fundamental: Esta versión de Alexa funciona completamente sin conexión a internet. En el espacio profundo, donde las señales tardan varios segundos en recorrer la distancia entre la nave y la Tierra, es imposible depender de servidores remotos. Por ello, toda la inteligencia artificial de Callisto corre directamente en los procesadores de la cápsula Orion, sin latencia, sin dependencia de infraestructura terrestre.

¿Para qué sirvió?

Los astronautas podían consultar datos de la nave por voz —velocidad, nivel de combustible, trayectoria, temperatura de cabina—, seguir procedimientos técnicos con las manos libres mientras realizaban operaciones físicas, controlar la iluminación y los sistemas ambientales del módulo, y recibir mensajes de video de sus familias.

En uno de los momentos más emotivos de la misión, los cuatro astronautas recibieron mensajes de sus seres queridos transmitidos a través de Webex, la plataforma integrada en Callisto.

Esta tecnología no es trivial. Representa el primer experimento a gran escala de interfaces conversacionales de IA en el espacio profundo, y sus lecciones informarán directamente el diseño de las futuras estaciones lunares y las eventuales naves tripuladas hacia Marte, donde la incomunicación con la Tierra no durará minutos, sino hasta 24 horas en cada dirección.

Tormentas solares y el escudo invisible

Una de las amenazas más mortales para los astronautas en el espacio profundo es la radiación. A diferencia de la órbita baja terrestre, donde el campo magnético de la Tierra ofrece cierta protección, en la trayectoria lunar los astronautas están completamente expuestos a los vientos solares y a los eventos de partículas energéticas provenientes del Sol.

La misión Artemis II integró un sistema predictivo de IA capaz de anticipar tormentas solares con horas de anticipación. Este algoritmo analiza datos del instrumento AVATAR (A Virtual Astronaut Tissue Analog Response) —un experimento de órgano en chip desarrollado para Artemis II que estudia los efectos de la radiación y la microgravedad en tejidos humanos— y los correlaciona con datos en tiempo real del Sol para emitir alertas tempranas.

Cuando el algoritmo detectaba una probabilidad elevada de evento de radiación, activaba automáticamente los protocolos de protección: reposicionamiento de la nave para usar la propia estructura como escudo, reducción de consumo energético, alerta a la tripulación para ubicarse en las zonas de mayor blindaje del módulo. En misiones anteriores, estas decisiones dependían completamente de los controladores en tierra. En Artemis II, la IA las ejecutaba de forma autónoma cuando el tiempo de respuesta no permitía esperar instrucciones desde Houston.

APOLO VS ARTEMIS: EL SALTO COMPUTACIONAL

Apolo 11 (1969): Computadora de navegación con 64 KB de RAM — menos que un correo electrónico vacío.

  • Artemis II (2026): sistemas de procesamiento redundantes gestionando millones de líneas de código por segundo.
  • Apolo: 6 hombres en sala de control verificando cálculos manualmente. Artemis II: IA autónoma a bordo.
  • Apolo: sextante estelar manual para verificar posición. Artemis II: OpNav — 11 cámaras + IA en tiempo real.
  • Apolo: sin capacidad predictiva. Artemis II: diagnóstico predictivo de fallas con semanas de anticipación.
  • Apolo: comunicación interrumpida = crisis. Artemis II: comunicación interrumpida = IA toma el mando.
  • Datos NASA: Kevin Woodward (Lockheed Martin) — análisis que la IA hace en 1 hora, un humano tardaría 240 años.

Foto: pizar_kestrap

El reingreso: Los siete minutos más aterradores

El 10 de abril de 2026, a 25,000 millas por hora —suficiente para recorrer la distancia entre la Ciudad de México y Madrid en menos de tres minutos—, la cápsula Orion comenzó su reingreso a la atmósfera terrestre. La temperatura exterior alcanzó los 2,700 grados Celsius. El escudo térmico de AVCOAT, el mayor jamás fabricado, comenzó a ablacionarse de forma controlada, absorbiendo el calor para proteger a los cuatro astronautas en su interior.

Durante los minutos previos a la apertura de los paracaídas —el período conocido como “apagón de comunicaciones”—, la cápsula quedó nuevamente incomunicada. Desde la sala de control en Houston, los ingenieros observaban en silencio la pantalla de telemetría. La secuencia era completamente autónoma: los algoritmos de la nave calculaban en tiempo real el ángulo de entrada, ajustaban la actitud de la cápsula mediante los propulsores de orientación, y gestionaban la separación por etapas de los sistemas de paracaídas.

Generó tensión en la sala de operaciones, describió la agencia EFE, pero la secuencia autónoma de la nave funcionó según lo previsto. A las 10:23 horas del 10 de abril, la cápsula Orion amerizó en el Pacífico. El USS John P. Murtha estaba esperando. Los cuatro astronautas salieron sanos y salvos.

Para el análisis científico, el reingreso fue también el momento de la verdad para los datos biométricos recopilados durante nueve días. Los sistemas de IA habían monitoreado continuamente los cambios fisiológicos de la tripulación ante la radiación cósmica, la microgravedad y el aislamiento. Esos datos, ahora en manos de los investigadores de la NASA y de la ESA, contribuirán directamente a los protocolos médicos de las futuras misiones lunares de larga duración.

El lado oscuro de la Luna: Imágenes que cambian la ciencia

Desde la trayectoria de libre retorno que llevó a Orión hasta 7,500 kilómetros más allá de la superficie lunar, la tripulación de Artemis II capturó miles de fotografías del lado oculto de la Luna —esa cara que nunca ve la Tierra y que Christina Koch describió como “partes de la Luna sobre las que jamás habían caído ojos humanos”.

Estas imágenes tienen valor científico directo. Muestran detalles inéditos de cráteres de impacto, formaciones volcánicas antiguas, regolito polar y la geografía del hemisferio oculto a resoluciones imposibles de obtener desde órbita robótica. Los sistemas de procesamiento de imágenes basados en IA analizaron en tiempo real las fotografías para identificar zonas de interés para futuras misiones de alunizaje en la región polar sur de la Luna, el objetivo de Artemis IV en 2028.

Desde la trayectoria, la tripulación también presenció un fenómeno extraordinario: Un eclipse solar total visto desde el espacio, con la Tierra interponiéndose entre el Sol y la nave, proyectando una corona luminosa que ningún ser humano había observado desde esa perspectiva. Las cámaras de OpNav —diseñadas para navegación— capturaron el evento con una resolución científica imprevista.

“Estas imágenes muestran desde earthset hasta detalles de cráteres y formaciones volcánicas”, reportó la agencia Actualidad.es, “y aportan información relevante para planificar los alunizajes y la futura cartografía de zonas de interés.”

Lo que Artemis II le dice al mundo: la IA ya no asiste, manda

Cuando el programa Apolo llegó a la Luna en 1969, el mundo aprendió que la humanidad podía viajar al espacio. Cuando Artemis II circunvoló la Luna en 2026, el mundo aprendió algo diferente: que la humanidad ya no puede viajar al espacio profundo sin Inteligencia Artificial.

La diferencia no es solo tecnológica. Es estructural. En Apolo, los humanos tomaban todas las decisiones, asistidos por computadoras básicas. En Artemis II, la IA tomó decisiones autónomas críticas —de navegación, de diagnóstico, de respuesta a emergencias— mientras los humanos actuaban como supervisores estratégicos. Este cambio de paradigma prefigura exactamente lo que serán las misiones a Marte, donde los tiempos de comunicación de hasta 24 horas hacen imposible cualquier dependencia del control terrestre.

Los desarrollos tecnológicos de Artemis II tampoco se quedarán en el espacio. Como ocurrió con las misiones Apolo —que generaron innovaciones en materiales, miniaturización electrónica, sistemas de comunicación y medicina— los sistemas de IA probados en Artemis II tienen aplicaciones directas en medicina predictiva, sistemas autónomos de emergencia, interfaces de voz sin conexión, y navegación en entornos sin señal. El ciclo virtuoso entre la exploración espacial y el bienestar humano en la Tierra continúa su espiral ascendente.

Artemis II no es el destino. Es el primer paso de una arquitectura que llevará a seres humanos de regreso a la superficie lunar en Artemis IV (2028), y eventualmente a Marte en la década de 2040. En cada uno de esos pasos, la Inteligencia Artificial no será una herramienta de apoyo. Será el sistema nervioso central de la exploración.

“Siempre elegiremos la Tierra”

Christina Koch, Especialista de Misión de Artemis II, primeras palabras pronunciadas al salir de la zona de silencio del lado oscuro lunar, 6 de abril de 2026.

Foto: Arek Socha/Pixabay

Conclusión: La Luna ya tiene memoria digital

Hace cincuenta y cuatro años, los últimos seres humanos que vieron el lado oscuro de la Luna lo hicieron desde las ventanillas del Apolo 17, con lápiz y papel en mano, calculando trayectorias manualmente. El 6 de abril de 2026, los primeros seres humanos del siglo XXI en ver esa misma oscuridad lo hicieron con once cámaras de IA registrando cada detalle, algoritmos calculando su posición sin GPS, sistemas predictivos monitoreando su salud, y un asistente de voz consultando las condiciones de vuelo en tiempo real.

La Luna no ha cambiado. Lo que ha cambiado es la inteligencia que llevamos con nosotros.

Artemis II no fue solo una misión de prueba técnica. Fue la demostración definitiva de que la exploración espacial humana ha entrado en una nueva era: la era en que la Inteligencia Artificial no asiste al astronauta, sino que es su compañero inseparable, su navegante silencioso, su médico de guardia y su sistema nervioso digital. Un compañero que no duerme, no se fatiga, no entra en pánico, y puede procesar en una hora lo que un humano tardaría 240 años en calcular.

El lado oscuro de la Luna ya fue visitado. Y la IA fue con ellos.

Fotos: IA Gemini/Pixabay

About The Author

Maestra en Periodismo y Comunicación; directora de noticias, editora, jefa de información, articulista, reportera-investigadora, conductora y RP. Copywriter de dos libros sobre situación política, económica y narcotráfico de México; uno más artesanal de Literatura. Diversos reconocimientos, entre ellos la Medalla de plata por 50 Aniversario de Radio UNAM y Premio Nacional de Periodismo, categoría Reportaje.

Related posts