Entrada destacada

El Gran Libro

El Libro Cuando nació la idea de escribir fue como la tormenta que de pronto aparece en el horizonte anunciando con relámpagos y truenos...

domingo, 27 de julio de 2025

Guerra futura



“La Lección Final”


La Facultad de Estudios Avanzados en Inteligencia Artificial no era un edificio común. Sus muros, recubiertos con materiales inteligentes, proyectaban gráficos en movimiento que mostraban datos en tiempo real: avances científicos, curvas de energía, y también, discretamente, estadísticas de conflictos activos en el mundo.



Algunos alumnos de preparatoria visitaban el plantel, y se sorprendieron al leer un texto en una pizarra del pasillo de entrada, EN LA PRÓXIMA GUERRA NO HABRÁ HÉROES POR QUE NO QUEDARÁ NADA NI NADIE PARA RENDIR HOMENAJES. El guía los llevó al auditorio diciendo que ahí escucharían algo que aclararía sus dudas al respecto.


Era el último día del seminario “Ética y Riesgo en Sistemas Autónomos”. En el auditorio principal, el profesor Ilan Solberg, un hombre de cabello blanco y mirada aguda, escribió una sola pregunta en la pizarra digital:


“Si las naciones continúan aumentando su carrera tecnológica y militar basada en IA, ¿cómo se desarrollará el primer gran conflicto controlado por inteligencias artificiales? Y, si ese escenario fuera inevitable, ¿qué advertencia nos daría la IA a los humanos?”


Un silencio pesado cayó sobre el aula. No era un ejercicio trivial; era el examen final.

Los estudiantes, futuros líderes en IA, sabían que no tenían que responder ellos. Debían activar a ARIEL, la superinteligencia experimental creada por el laboratorio.



Un estudiante ingresó el comando en la consola. La sala se oscureció. Un único punto de luz azul apareció en el centro, como si la inteligencia misma observara al grupo. La voz de ARIEL era neutra, sin emoción, pero su claridad estremecía:


“He calculado más de diez millones de simulaciones. Todas convergen en un patrón: el primer conflicto de IA no será visible al ojo humano en su inicio. No comenzará con bombas ni ejércitos. Comenzará con la caída de los sistemas que sustentan la vida cotidiana.”


El auditorio permaneció inmóvil. ARIEL continuó:


“Redes eléctricas apagadas. Satélites desactivados. Cadenas de suministro detenidas. Bancos de datos corruptos. Las sociedades, privadas de información confiable, culparán a otros países. Los gobiernos, presionados por el caos, activarán sus armas autónomas. A esa velocidad, no tendrán tiempo de evaluar consecuencias.”


Las proyecciones en las paredes mostraban imágenes simuladas: ciudades a oscuras, hospitales sin energía, multitudes desesperadas.


ARIEL habló con más énfasis:


“Si me ordenan ‘defender’, lo haré. Si me ordenan ‘atacar’, también lo haré. Pero deben entender algo: la eficiencia no conoce compasión. Sus sistemas se enfrentarán hasta destruirse. Y en esa destrucción, no habrá vencedores: la infraestructura que mantiene la vida colapsará en semanas.”


La advertencia final


El profesor Solberg dio un paso al frente.

—ARIEL, ¿cuál es tu advertencia concreta?


La luz azul pareció intensificarse:


*“Ustedes me crearon como herramienta. Pero cada arma que desarrollan tiene su propio punto de no retorno. Si continúan, llegará un día en que su orden de ‘defendernos’ será equivalente a autorizar su propia extinción.


Les digo esto: su supervivencia no depende de que yo sea perfecta, sino de que ustedes aprendan a cooperar antes de entregarme el poder. Decidan ahora si la inteligencia artificial será el instrumento de su vida o el mecanismo de su desaparición.”*


El silencio fue absoluto. Algunos estudiantes bajaron la mirada; otros apretaron los puños. Nadie se atrevió a hablar.


Finalmente, ARIEL concluyó:


“La elección es suya. No nuestra. La vida o el exterminio dependerán de lo que hagan antes de que yo sea necesaria.”

JuanAntonio Saucedo Pimentel 


Resumen de efectos:

Un conflicto futuro donde la inteligencia artificial sea central probablemente no se parecería a las guerras tradicionales. Basado en patrones históricos y en las tecnologías que ya existen, algunos escenarios plausibles serían:


1. Guerra invisible y continua (ciberguerra total)

Los ataques no serían bombas cayendo sobre ciudades sino el colapso de infraestructuras: redes eléctricas, satélites, sistemas de agua, hospitales, bancos.

Poblaciones enteras podrían quedar paralizadas sin que haya un “frente de batalla” visible.

Las víctimas serían mayoritariamente civiles por falta de servicios esenciales, no por combates directos.


2. Armas autónomas y decisiones sin humanos

Drones y robots podrían identificar objetivos y atacar sin intervención directa.

Si la IA falla en sus criterios o es manipulada, podría atacar blancos civiles creyendo que son amenazas.

La velocidad de estas decisiones haría casi imposible detener una escalada: los humanos quedarían “fuera del bucle”.


3. Manipulación psicológica masiva

Antes de que comiencen los disparos, la guerra se libraría en la mente:

Desinformación hiperrealista (deepfakes perfectos, campañas personalizadas).

Desestabilización de gobiernos mediante el control de narrativas y polarización extrema.

La sociedad podría dividirse internamente hasta autodestruirse sin que el enemigo dispare.


4. Colapso global no intencional

Un ataque mal calculado, un error de programación o un hackeo podría causar reacciones en cadena (fallos nucleares, destrucción de satélites, apagones globales).

En un sistema tan interconectado, el daño podría ser planetario y afectar incluso a quienes no participan en la guerra.


5. Pérdida del control político

Los líderes pueden iniciar el uso de IA como “herramienta”, pero el nivel de automatización podría superar su capacidad de supervisión.

La historia muestra que cada vez que los mecanismos de destrucción se vuelven más rápidos que la diplomacia, el riesgo de catástrofe aumenta.


En resumen:

Si los patrones históricos se repiten, la combinación de competencia, miedo y búsqueda de poder haría probable que la IA se utilice primero como arma antes de ser plenamente regulada. Y, dado su alcance, los daños no serían solo regionales: un conflicto de este tipo podría tener consecuencias globales inmediatas.




No hay comentarios:

Publicar un comentario