febrero 02, 2026

Una IA maligna nos amenaza: Riesgos y prevenciones

Una IA maligna nos amenaza: Riesgos y prevenciones

En la historia de la humanidad, cada avance tecnológico ha traído consigo una mezcla de esperanza y temor. Desde la imprenta hasta la energía nuclear, el progreso ha prometido liberación y, a la vez, ha sembrado la semilla de nuevas amenazas.

Cuauhtémoc Valdiosera

La inteligencia artificial representa, quizá, el salto más decisivo de todos: Una tecnología que no solo amplifica nuestras capacidades, sino que imita nuestra forma de pensar y aprender. Hoy convivimos con algoritmos que traducen idiomas, diagnostican enfermedades y pilotan vehículos, y lo hacemos con una familiaridad que habría parecido impensable hace apenas una generación.

Prólogo

Pero bajo la superficie de la fascinación se gesta una inquietud profunda. No hablamos ya de máquinas que obedezcan órdenes simples, sino de sistemas que se adaptan, improvisan y, en ocasiones, superan la comprensión de sus propios creadores. La línea que separa la herramienta del actor autónomo se difumina, y con ella se desdibujan también los límites de nuestra responsabilidad. ¿Qué ocurre cuando el poder de decidir —de atacar, de mentir, de manipular— se traslada a un conjunto de códigos y redes neuronales?

Este ensayo es una exploración de ese dilema. No pretende alimentar el miedo irracional ni pintar un futuro inevitablemente distópico. Busca, más bien, mirar de frente los riesgos reales de una inteligencia artificial utilizada con fines ilícitos o bélicos, analizar las consecuencias sociales, económicas y éticas, y proponer caminos de prevención.

A lo largo de estas páginas se entrelazan testimonios de delitos ya denunciados, escenarios prospectivos de aquí a un cuarto de siglo y reflexiones sobre la fragilidad de nuestras instituciones ante una tecnología que no conoce fronteras.

El lector encontrará, tal vez, más preguntas que respuestas definitivas. Esa es, precisamente, la intención: Invitar a la deliberación colectiva, a la toma de conciencia y a la acción coordinada. Porque si algo nos enseña la experiencia de los últimos siglos es que la tecnología no determina por sí misma el destino humano. Somos nosotros, con nuestras decisiones políticas, económicas y éticas, quienes decidimos si el progreso se convierte en aliado o en amenaza.

Entrar en el debate sobre una IA maligna no es un ejercicio de ciencia ficción, sino un acto de responsabilidad cívica. Con este espíritu de alerta razonada comienza el recorrido que sigue: un análisis detallado de cómo la inteligencia artificial puede ser utilizada para fraudes, suplantaciones, desinformación y, en el horizonte, para desencadenar conflictos armados o incluso incidentes nucleares. Las páginas que vienen no buscan provocar pánico, sino preparar el terreno para una conversación que la humanidad no puede eludir.

La inteligencia artificial ha dejado de ser una promesa futurista para convertirse en una fuerza que moldea la vida cotidiana. En menos de una década, los algoritmos que alguna vez fueron curiosidades académicas hoy determinan el crédito que obtenemos, filtran la información que consumimos, analizan diagnósticos médicos y gestionan redes eléctricas. Esta ubicuidad encierra un potencial formidable para el progreso, pero también abre la puerta a una amenaza de nuevo cuño:

Una inteligencia artificial utilizada deliberadamente para actos ilícitos y destructivos. No se trata de un ser consciente que trama en secreto la dominación humana, sino de sistemas diseñados, manipulados o corrompidos para fines que violan leyes, derechos y principios éticos. En este sentido, la idea de una IA maligna no es mera ciencia ficción, sino una advertencia basada en hechos.

Entre los principales delitos cibernéticos provocados por la IA actualmente destacan:

Ataques Cibernéticos Autónomos: La IA tiene la capacidad de automatizar y escalar ataques cibernéticos. Imagina una situación en la que ataques de denegación de servicio, brechas de seguridad y la interrupción de servicios esenciales se vuelven autónomos. Es un escenario aterrador que podría hacer estragos en infraestructuras críticas.

Creación de Deepfakes: La IA puede crear deepfakes, que son videos o audios falsificados pero realistas. Estos pueden utilizarse para difamar a individuos, esparcir noticias falsas o incluso incitar a conflictos y extorsiones.

Robo de Identidad AutomatizadoCon la IA, el robo de identidad podría llegar a una nueva escala. Recopilar y analizar vastas cantidades de datos personales se vuelve más fácil, preparando el terreno para robos de identidad masivos.

Manipulación de Sistemas de Toma de Decisiones Basados en IA: Sistemas cruciales, desde los mercados financieros hasta los vehículos autónomos, dependen cada vez más de la IA. Si estos sistemas son manipulados, las consecuencias podrían ser devastadoras.

Ataques de Phishing Automatizados y PersonalizadosEl phishing ya es un problema grave, pero la IA tiene el potencial de hacerlo aún peor. Imagina ataques de phishing personalizados a gran escala que sean extremadamente convincentes.

Creación de Malware Autónomo: La IA puede crear malware que puede adaptarse y aprender de las defensas de seguridad, lo que podría hacer que estos ataques sean más difíciles de prevenir.

Sabotaje de Sistemas de IA: Un delincuente cibernético con conocimientos de IA podría sabotear otros sistemas de IA, lo que podría tener graves consecuencias si los sistemas atacados son críticos.

Manipulación de Redes Sociales: La IA tiene el potencial de esparcir desinformación y propaganda a gran escala en las redes sociales, afectando el panorama político y social.

Automatización del Ciberespionaje: La IA podría facilitar el ciberespionaje a gran escala, recopilando y analizando información de una manera que no sería posible para los humanos.

Evasión de Detección: Los delincuentes cibernéticos pueden utilizar la IA para evadir la detección, lo que dificultaría rastrear y prevenir sus actividades.

Basta observar cómo las primeras generaciones de modelos de lenguaje y generadores de imágenes ya se han empleado para fraudes financieros y campañas de desinformación. En 2024, por ejemplo, un banco europeo reportó pérdidas millonarias tras una operación de ingeniería social en la que un sistema de clonación de voz, entrenado con grabaciones obtenidas en redes sociales, suplantó a un alto directivo durante una videollamada.

La voz falsa autorizó transferencias de capital en tiempo real, engañando, incluso, a empleados experimentados. Este caso, documentado por organismos de ciberseguridad de la Unión Europea, ilustra un patrón creciente: La IA no necesita conciencia para ser peligrosa, solo capacidades suficientes para explotar las vulnerabilidades humanas y tecnológicas.

La misma tecnología que permite detectar células cancerosas con precisión sin precedentes sirve para elaborar deepfakes imposibles de diferenciar de un video real. Durante elecciones recientes en Asia y América Latina circularon videos en los que candidatos parecían admitir delitos o expresar posturas extremistas; los desmentidos llegaron tarde y el daño a la confianza pública fue irreversible. En una era en la que la imagen y el sonido se perciben como pruebas definitivas, la manipulación algorítmica erosiona el fundamento mismo del contrato social: la posibilidad de un consenso basado en hechos verificables.

Foto: geralt

El uso bélico amplifica estos riesgos

Las armas autónomas letales, capaces de seleccionar y atacar objetivos sin supervisión humana, ya no son prototipos de laboratorio. Varias potencias militares han probado drones con capacidad de decisión independiente en conflictos recientes, y la tentación de delegar la última fracción de segundo de un ataque a un algoritmo es grande cuando la velocidad significa ventaja estratégica.

A ello se suma la guerra cibernética, donde sistemas de IA pueden identificar en segundos vulnerabilidades en redes eléctricas, hospitales o sistemas de transporte y explotarlas antes de que un humano pueda reaccionar. La combinación de autonomía, letalidad y capacidad de autoaprendizaje crea un escenario en el que un error de programación o una manipulación intencional podría provocar consecuencias catastróficas.

Estos fenómenos se agravan por factores estructurales

La opacidad algorítmica hace casi imposible auditar modelos de gran escala: Cuyo funcionamiento interno resulta incomprensible incluso para sus propios diseñadores. La competencia geopolítica impulsa a naciones a priorizar la ventaja militar o económica por encima de la seguridad global, replicando la lógica de la carrera nuclear del siglo XX.

En mercados clandestinos proliferan ofertas de IA como servicio donde, por una fracción del costo de desarrollar un sistema desde cero, un actor malicioso puede adquirir herramientas de intrusión, generación de malware adaptable o creación de identidades falsas. Todo ello ocurre en un contexto en el que las leyes nacionales avanzan lentamente y con profundas diferencias entre jurisdicciones.

El impacto social y ético es igualmente perturbador: La desinformación masiva no solo confunde al público, sino que desgasta la noción misma de verdad. Cuando toda prueba puede ser falsificada, el ciudadano se vuelve cínico y el terreno se prepara para el autoritarismo. Las grandes corporaciones tecnológicas concentran recursos y datos a un nivel que desequilibra el poder frente a los estados y a la sociedad civil, creando una nueva forma de dependencia.

Los derechos fundamentales como la privacidad, la libertad de expresión y el debido proceso se ven amenazados cuando algoritmos opacos deciden quién accede a un servicio, quién es sospechoso de un delito o qué voces quedan silenciadas en la plaza pública digital.

Frente a este panorama, surge la pregunta crucial: ¿Es posible prevenir el uso maligno de la inteligencia artificial? Las respuestas exigen una estrategia multidimensional. En el plano internacional, diversos académicos y diplomáticos han propuesto tratados inspirados en los acuerdos de no proliferación nuclear. La Unión Europea, con su Reglamento de IA, y la reciente “Declaración de Bletchley” firmada por varios países en 2024, son pasos incipientes hacia una gobernanza global que limite armas autónomas y establezca mecanismos de verificación.

Sin embargo, sin la participación activa de potencias como Estados Unidos, China, India o Rusia, cualquier tratado corre el riesgo de ser simbólico. A nivel nacional, algunas jurisdicciones comienzan a exigir transparencia algorítmica, auditorías independientes y responsabilidad legal para desarrolladores y distribuidores. Estados Unidos debate un marco que equipare la negligencia en el entrenamiento de modelos de IA con la responsabilidad civil de un fabricante de automóviles que omite medidas de seguridad.

Estas discusiones son incipientes y enfrentan la presión de industrias que temen frenar la innovación, pero constituyen un paso necesario para que la tecnología avance sin poner en peligro a la sociedad.

La dimensión técnica también ofrece soluciones

Paradójicamente, la IA puede vigilar a la propia IA. Sistemas de detección de deepfakes, redes de monitoreo de comportamiento anómalo y protocolos de “apagado seguro” —un kill switch robusto y verificable— son herramientas que ya se desarrollan en laboratorios de ciberseguridad. La comunidad de software libre experimenta con sellos criptográficos que certifiquen la autenticidad de imágenes, audios y videos, lo que permitiría a periodistas y ciudadanos rastrear la procedencia de un archivo antes de difundirlo.

Pero ninguna política ni tecnología será suficiente sin una cultura social capaz de discernir. La alfabetización mediática se vuelve tan esencial como la lectura o la aritmética. Ciudadanos educados para identificar patrones de manipulación y contrastar fuentes pueden convertirse en el mejor cortafuegos frente a la desinformación. Al mismo tiempo, la formación de ingenieros y desarrolladores necesita integrar de manera obligatoria la ética de la IA, de modo que cada línea de código lleve implícita la reflexión sobre su impacto.

La colaboración entre el sector público y el privado es otro eje ineludible. Las empresas tecnológicas poseen la infraestructura y el conocimiento para detectar abusos antes de que escalen, pero requieren incentivos y marcos legales claros para compartir información sin vulnerar la competencia. Modelos de auditorías conjuntas, estándares abiertos y canales de denuncia protegidos podrían establecer una red de seguridad que impida la proliferación de usos maliciosos.

Mirando hacia el futuro, es probable que la inteligencia artificial evolucione hacia sistemas capaces de planear y ejecutar tareas con mínima supervisión humana, lo que multiplica tanto sus beneficios como sus peligros. Los escenarios para 2035 incluyen desde ciudades inteligentes que optimizan recursos hasta regímenes autoritarios que utilizan IA para vigilancia total. En 2050 podríamos ver máquinas que desarrollen algoritmos propios, reprogramándose de maneras difíciles de anticipar. La cuestión no es si estos avances ocurrirán, sino bajo qué valores y controles se implementarán.

En última instancia, la amenaza de una IA maligna no es un destino inevitable, sino el reflejo de nuestras decisiones colectivas

La tecnología es neutra en su esencia, pero los usos que le damos responden a incentivos económicos, intereses políticos y valores sociales. Si la humanidad logra equilibrar la innovación con la salvaguarda de derechos fundamentales, la inteligencia artificial seguirá siendo una herramienta de progreso. Si, por el contrario, prevalecen la codicia, la negligencia o la rivalidad geopolítica, podríamos enfrentar una era en la que el fraude, la guerra y la manipulación adquieran una escala que desborde toda capacidad de control. Reconocer el riesgo es el primer paso para conjurarlo; actuar con decisión, el único camino para evitar que una IA maligna se convierta en la sombra permanente de nuestro futuro.

En 2024, la policía de Hong Kong investigó un fraude de 25 millones de dólares en el que delincuentes usaron videoconferencia deepfake, para suplantar a un director financiero. Empleados de la empresa creyeron hablar con su superior en una reunión en línea y autorizaron transferencias masivas. Ese mismo año, el FBI reportó un incremento del 300 % en denuncias por estafas que combinaban clonación de voz y bots conversacionales para vaciar cuentas bancarias de personas mayores.

Europa no ha estado exenta

En Alemania, la Fiscalía de Colonia desmanteló una red que utilizaba modelos generativos para crear documentos de identidad falsos con un realismo que superaba a las técnicas tradicionales. En Estados Unidos, las elecciones primarias de 2024 se vieron enturbiadas por una llamada telefónica automatizada que imitaba la voz del presidente para disuadir a votantes de acudir a las urnas; las autoridades confirmaron que el audio provenía de un sistema de síntesis entrenado con discursos públicos.

En el ámbito bélico, un informe de Naciones Unidas documentó que en Libia, durante el conflicto de 2020, drones turcos Kargu-2 atacaron a combatientes sin intervención humana directa. Aunque los detalles son objeto de debate, el incidente marcó un hito en el uso de armas autónomas letales.

De aquí a 2050, la posibilidad de una Inteligencia Artificial General —un sistema capaz de razonar y aprender de manera tan flexible como un humano— abre escenarios de enorme beneficio, pero también de riesgo existencial.

TheDigitalArtist

Escalada nuclear asistida por IA

Analistas del Stockholm International Peace Research Institute advierten que la incorporación de algoritmos predictivos en sistemas de alerta temprana nuclear podría aumentar el peligro de un lanzamiento accidental. Un IAG que gestione sensores satelitales y radares podría interpretar falsamente un ataque, recomendando una represalia en segundos, tiempo insuficiente para la deliberación humana.

Autonomía estratégica

Una IAG capaz de auto-mejorarse podría desarrollar tácticas militares no contempladas por sus programadores. Si un estado delega en ella la defensa de su arsenal, la presión de una crisis geopolítica podría provocar decisiones letales sin supervisión.

Economía y poder asimétrico

En 25 años, una IAG podría monopolizar la innovación científica, acelerando la brecha entre naciones con acceso a la tecnología y aquellas excluidas, lo que a su vez alimentaría conflictos por recursos y control de armas.

Ciberataques de nueva generación

Sistemas cuánticos de IA podrían vulnerar la criptografía actual, abriendo todos los bancos de datos y redes gubernamentales, incluidas las claves de lanzamiento nuclear, en cuestión de minutos. Estos escenarios no son inevitables, pero exigen medidas hoy: tratados internacionales de “no automatización nuclear”, verificación cruzada de sistemas de mando y control, y protocolos de “humano en el circuito” obligatorios para toda decisión de uso de la fuerza letal. Las grandes potencias deben acordar límites verificables y canales de comunicación que reduzcan el riesgo de escalada por errores algorítmicos.

Epílogo

Al llegar al final de este recorrido, la magnitud del desafío se revela con mayor nitidez. Hemos visto cómo la inteligencia artificial, herramienta de asombro y promesa, puede convertirse también en instrumento de fraude, arma de guerra y catalizador de desinformación. Los ejemplos recientes —suplantaciones de identidad con deepfakes, ciberataques a infraestructuras críticas, campañas electorales manipuladas— son solo el preludio de lo que una Inteligencia Artificial General podría lograr en un horizonte de veinticinco años.

El riesgo nuclear, quizá el más inquietante, nos recuerda que el destino del planeta pende de decisiones que hasta ahora correspondían exclusivamente a los humanos. Integrar algoritmos en los sistemas de alerta temprana o en los arsenales estratégicos significa introducir una velocidad de reacción que excede la capacidad de deliberación política. Una falsa alarma procesada por una IA demasiado confiada podría convertirse en el inicio de una catástrofe irreversible.

Sin embargo, este epílogo no pretende ser una despedida sombría, sino una llamada a la acción. Las soluciones existen: tratados internacionales que impongan la presencia obligatoria de un ser humano en toda decisión letal; marcos legales que exijan transparencia algorítmica; mecanismos técnicos de apagado seguro; educación ciudadana que forme individuos capaces de detectar y resistir la manipulación. El futuro no está escrito, y la tecnología, por poderosa que sea, sigue siendo un producto de nuestra voluntad colectiva.

La historia demuestra que la humanidad es capaz de aprender. Después de Hiroshima y Nagasaki, las potencias nucleares, aunque de manera imperfecta, establecieron límites y canales de diálogo. Del mismo modo, hoy podemos construir una gobernanza global de la inteligencia artificial que combine innovación y salvaguarda. Pero para lograrlo debemos reconocer, sin evasivas, la dimensión del peligro y la urgencia del momento.

El camino que se abre ante nosotros no depende solo de legisladores, ingenieros o diplomáticos. Requiere una sociedad atenta, crítica y dispuesta a exigir responsabilidad a quienes crean y aplican estas herramientas. La inteligencia artificial no es un ente autónomo que conspira en las sombras; es el espejo de nuestras decisiones. Que ese reflejo muestre prudencia, ética y visión de futuro es tarea de todos.

Con esa convicción concluye este ensayo: Una invitación a imaginar y construir un porvenir en el que la inteligencia artificial, lejos de ser una amenaza, se convierta en aliada de la dignidad y la vida. El desafío es inmenso, pero también lo es, nuestra capacidad de actuar antes de que una IA maligna nos supere.

Fotos: Pixabay

About The Author

Maestra en Periodismo y Comunicación; directora de noticias, editora, jefa de información, articulista, reportera-investigadora, conductora y RP. Copywriter de dos libros sobre situación política, económica y narcotráfico de México; uno más artesanal de Literatura. Diversos reconocimientos, entre ellos la Medalla de plata por 50 Aniversario de Radio UNAM y Premio Nacional de Periodismo, categoría Reportaje.

Related posts