Comentarios y Análisis

ANÁLISIS | Más allá del chatbot: implicancias de la inteligencia artificial para Chile

4 de Mayo de 2026 Alejandro Amigo
Compartir
ANÁLISIS | Más allá del chatbot: implicancias de la inteligencia artificial para Chile

La inteligencia artificial (IA) se está convirtiendo en una variable de las condiciones bajo las cuales se ejerce el poder en el sistema internacional. A diferencia de tecnologías anteriores que amplificaron capacidades existentes, la IA redefinirá quién puede conocer y quién decide y actúa más rápido. Un Estado que no controla los sistemas que producen su conocimiento estratégico no controla plenamente su ciclo de decisión. Por tanto, la autonomía estratégica ya no dependería exclusivamente de recursos materiales sino además de la posesión de sistemas de IA que producen mejor conocimiento para las decisiones en la complejidad internacional actual. Esta reconfiguración opera simultáneamente en todos los dominios del poder y obliga a comprender los impactos de la IA y por qué su evolución cambia la naturaleza de los riesgos. El presente artículo examina implicancias en las relaciones internacionales, economía política internacional, seguridad y defensa -con especial atención a Chile-, un país proveedor de insumos críticos para la IA pero que no participa en los ámbitos donde los modelos avanzados se desarrollan y explotan sus ventajas.

Figura 1. IA como variable de poder: cuatro ámbitos de análisis

Elaboración propia

I.    Relaciones Internacionales

Los grandes desarrolladores de IA[1] han emergido como un nuevo tipo de actor en el orden internacional. Sus capacidades superan a la mayoría de los Estados medianos y no tienen la obligación de rendición de cuentas propias de un gobierno.[2] Un Estado que gestione su seguridad y política exterior con herramientas de IA que no controla, estará cediendo parte de su autonomía a otra jurisdicción. Ante esta situación, la soberanía sobre este tipo de modelos emerge como una dimensión crítica que la mayoría de los marcos de seguridad nacional aún no han formalizado.

La capacidad de acceso prioritario a modelos de IA y centros de cómputo se convierte así en un nuevo objetivo diplomático. Los Estados sin acceso soberano a esa infraestructura dependen de decisiones corporativas extranjeras o de potencias que la controlan. La Alianza Paxílica, firmada en diciembre de 2025 por EEUU, Japón, Corea del Sur, Singapur, Países Bajos, Israel, EAU, Reino Unido y Australia, ilustra esta nueva dinámica.[3] El objetivo implícito “mercado para todos, frontera para los aliados”, reserva el acceso a semiconductores de frontera y capacidad de cómputo avanzado para quienes se posicionan del lado estadounidense.

La inexistencia de un marco multilateral vinculante para el uso de IA crea un entorno normativo permisivo. La Resolución 79/62 de la Asamblea General de la ONU, de diciembre 2024, reconoce la necesidad urgente de abordar los desafíos de los LAWS desde perspectivas humanitarias, legales y éticas, pero no avanzó hacia un instrumento jurídicamente vinculante que las principales potencias no están dispuestas a negociar.[4] Esto genera para países medianos el dilema entre apoyar marcos regulatorios estrictos que ofrecen credibilidad normativa, pero que producirán restricciones ante iniciativas propias. Este vacío regulatorio no es solo un tema de gobernanza sino una variable que condicionará las opciones de cada Estado.

II.    Economía Política Internacional

La IA depende de una disputada cadena de suministros que determina qué actor estatal puede desarrollar capacidades propias y cuales estarán limitados en ese ámbito. Para entenderlo, es útil pensar en la IA como un conjunto de las siguiente capas: minerales críticos, energía, semiconductores, infraestructura de data centers, modelos de lenguaje y aplicaciones.

Los minerales críticos son el sustrato físico y su concentración geográfica los convierte en factores de coerción estratégica. Chile es el primer productor mundial de cobre —crítico para la infraestructura de los data centers— y posee una de las mayores reservas de litio, elemento central para el almacenamiento de energía que respalda esa infraestructura. Para un Estado, ser eslabón clave en la cadena de suministro otorga ventajas, pero también lo sitúa en el centro de la disputa entre intereses externos. La creciente presencia de capitales chinos, estadounidenses y europeos en el triángulo del litio es muestra de esta competencia.

El alto consumo energético de la IA limita el desarrollo de capacidades en este ámbito. Por ejemplo, para 2028, la IA podría consumir el equivalente al 22% de todos los hogares de EEUU anualmente.[5] Los Estados sin acceso a energía abundante y confiable quedarán estructuralmente restringidos para desarrollar sus propios modelos de IA. Además, se prevé que la demanda energética crecerá exponencialmente, convirtiendo el suministro eléctrico en una variable relevante.

La manufactura de semiconductores avanzados es el cuello de botella más crítico de toda la cadena. TSMC, con sede en Taiwán, concentra más del 90% de la producción mundial de chips que soportan los modelos más potentes. Esta concentración dio origen al concepto de “escudo de silicio”, ya que la dependencia de TSMC funciona como disuasión ante una agresión china, la que generaría una crisis tecnológica global de graves consecuencias.[6] EEUU ha respondido con restricciones de exportación de chips a China y con el Chips Act, que busca relocalizar parte de la producción de TSMC en Arizona;[7] convirtiendo a la manufactura de semiconductores en un asunto de seguridad económica.[8]

Los data centers —la infraestructura donde opera la IA— plantean una dimensión de soberanía de la información. Mientras Google, Amazon y Microsoft controlan la mayor parte de la nube global,[9] la mayoría de los Estados medianos carecen de la suficiente infraestructura de escala propia; por ende, los datos de esos actores se procesan en servidores bajo jurisdicción extranjera. La soberanía de la información es, en este sentido, el eslabón que conecta la economía política internacional con los riesgos de seguridad que se analizan a continuación.

Figura 2. Las capas de la IA: de los minerales críticos a las aplicaciones

Elaboración propia

III.    Seguridad Internacional

La IA está transformando el entorno de seguridad en cuanto a la velocidad y volumen ofensivo en el ciberespacio, la distinción entre la información real y falsa, y la vulneración de los procesos cognitivos que sustentan la toma de decisiones.

Un actor estatal o no estatal con acceso a modelos de IA puede automatizar operaciones ofensivas en el ciberespacio a velocidades impensables hace unos años. De acuerdo a lo señalado por Anthropic, Mythos permitiría ataques adaptativos, generación automática de código malicioso y reconocimiento masivo de vulnerabilidades.[10] La ventaja ya no sería sólo función del talento humano disponible, sino de la capacidad de entrenar y desplegar modelos propios. La IA reducirá el costo marginal del hostigamiento constante en el ciberespacio, que además serán aún más difíciles de atribuir y operarán por debajo del umbral del conflicto.

La desinformación asistida por IA representa un salto exponencial respecto a la propaganda tradicional al operar sobre perfiles individuales. Los modelos de IA permiten identificar sesgos cognitivos específicos a escala y explotarlos mediante contenido personalizados.[11] La posibilidad de que líderes políticos actúen basados en percepciones moldeadas por algoritmos extranjeros sería un ejemplo de cómo este fenómeno podría penetrar en los núcleos de decisión del Estado.

Además, los modelos diseñados con IA para decidir más rápido que el adversario reducen el margen para la deliberación política. En escenarios de alta presión, esa velocidad puede desencadenar respuestas automáticas antes de que ningún decisor humano intervenga, transformando una falsa alarma en una crisis real. Esto exige definir con anticipación umbrales y mecanismos de control que preserven la responsabilidad política en entornos de crisis acelerados por IA.

IV.    Defensa

La IA introduce dilemas sin respuesta doctrinaria consolidada sobre el rol del juicio de los comandantes en la guerra. A medida que los sistemas asuman tareas más centrales en el ciclo de decisión militar, la discreción humana podría volverse marginal; tendencia que se expresa en la progresión desde human-in-the-loop (el humano aprueba cada decisión) hacia human-on-the-loop (el humano supervisa pero el sistema actúa).[12] Al respecto, diversos LAWS se despliegan hoy sin consenso internacional sobre autonomía significativa ni control humano adecuado.[13] La opacidad algorítmica agrava el problema, ya que un sistema que recomienda un blanco y no puede verificar su propio razonamiento[14] genera una pregunta sin respuesta sobre quién responde por esa decisión. Los principios del DIH enfrentan tensiones severas cuando el agente decisor no puede rendir cuentas ante ninguna autoridad identificable.

Por otra parte, la IA está alterando la lógica tradicional de la ventaja militar, que históricamente privilegió la calidad sobre la cantidad. Un reporte de RAND plantea que la combinación de “masa precisa” y “masa asequible” (sistemas no tripulados habilitados por IA, más económicos y cada vez más capaces) podría otorgar una ventaja de costo-efectividad sobre plataformas costosas en determinadas aplicaciones.[15] Esta inversión de la lógica convencional tiene consecuencias para ejércitos de tamaño y presupuesto medio, considerando que si la IA reduce el costo de escalar capacidades autónomas, actores con menos recursos podrían compensar brechas mediante esos sistemas. En paralelo, infraestructura que soporta la IA (data centers, cables de fibra óptica y centros de cómputo) ha sido objeto de ataques iraníes con drones,[16] convirtiéndose en una nueva alternativa para degradar las capacidades operacionales del adversario sin necesidad de enfrentamiento convencional.

Las fuerzas armadas que no desarrollen capacidades de IA quedarán en desventaja operacional, pero las que adopten sin doctrina adecuada asumirán riesgos institucionales graves. La integración responsable de IA en defensa no es un problema exclusivamente técnico, sino que requiere marcos jurídicos, doctrina operacional y mecanismos de auditoría que preserven el control civil y la coherencia con el DIH. El caso Anthropic-Pentágono ilustra que este debate no está resuelto ni siquiera en EE.UU., ya que al negarse la empresa a eliminar sus líneas rojas sobre vigilancia masiva y LAWS, fue etiquetada como “riesgo en la cadena de suministro”.[17] El verdadero desafío no es si integrar IA en defensa sino construir previamente la arquitectura institucional que haga esa integración coherente con los valores y obligaciones que definen a una fuerza armada profesional.

V. Implicancias y oportunidades para Chile

Chile podría enfrentar una erosión progresiva de su autonomía estratégica en la medida en que sus procesos de toma de decisiones dependen de sistemas que no controla y operan bajo jurisdicción extranjera. Asimismo, en ausencia de marcos vinculantes respecto a la IA, las reglas sobre estas tecnologías las definirán quienes tienen la capacidad de desarrollarla, lo que introduce una nueva dimensión de asimetría informacional. Construir capacidad analítica propia y establecer estándares de soberanía de esos modelos antes de que la dependencia sea irreversible es una oportunidad que Chile debe abordar prioritariamente. Para ello, una medida sería establecer una política nacional de soberanía algorítmica que regule qué sistemas pueden procesar información estratégica del Estado y bajo qué condiciones de auditoría y jurisdicción.

Nuestro país ocupa una posición ambivalente en la cadena de suministro de la IA, al ser proveedor de insumos críticos en los niveles inferiores pero sin participación en los niveles donde se concentra el valor y el poder. Es decir, aportamos los insumos que hacen posible la revolución de la IA sin capturar las capacidades que esa revolución genera. Asimismo, el país carece de infraestructura de transmisión para convertir sus recursos renovables en la base de una industria competitiva. Chile, con cobre y litio, podría aspirar a un esquema que atraiga infraestructura digital extranjera y acuerdos de transferencia tecnológica. Se debiera condicionar el acceso preferencial a los recursos mineros estratégicos a compromisos de inversión en infraestructura digital local y transferencia de capacidades tecnológicas.

Chile enfrenta las áreas de riesgo de seguridad analizadas —ciberoperaciones ofensivas, desinformación y manipulación cognitiva— sin capacidades defensivas consolidadas. Su infraestructura no está dimensionada para absorber una campaña de hostigamiento digital sostenida que no cruce el umbral que activaría una respuesta política formal. Además, nuestros líderes operan en un entorno donde la manipulación cognitiva personalizada es técnicamente posible y difícil de detectar. Chile debe desarrollar capacidades de IA en el ciberespacio y en el ámbito de la seguridad cognitiva. Se debiera incorporar la resiliencia cognitiva y la detección de manipulación asistida por IA como dimensiones explícitas de la Política Nacional de Ciberseguridad, junto con marcos institucionales que definan umbrales de respuesta ante campañas de hostigamiento digital sostenido.

Las Fuerzas Armadas Chilenas podrían operar en el futuro cercano en entornos con ciclos de decisión que presionan por la eliminación del control humano, soportados por algoritmos opacos y donde adversarios empleen LAWS sin marcos jurídicos claros. La ausencia de doctrina sobre empleo de IA deja a las instituciones sin parámetros para evaluar, adquirir e integrar estas capacidades de forma coherente con el DIH y el control civil. Alcanzar capacidades que integren IA de manera responsable es una condición de relevancia operacional para el éxito de la disuasión nacional. Se debiera incorporar el empleo responsable de IA en la actualización de la Política de Defensa Nacional, estableciendo criterios doctrinarios que orienten la adquisición, el entrenamiento y el control civil sobre sistemas autónomos.

Figura 3. Chile frente a la IA: implicancias, oportunidades y acciones por área

Elaboración propia

V.    Conclusión

La IA no solo agrega complejidad al actual escenario internacional sino que podría reconfigurar algunos de sus fundamentos. Los Estados que controlen los sistemas que producen conocimiento y mejores decisiones condicionarán aún más el margen de autonomía de los demás actores estatales, independiente de sus recursos materiales o capacidades convencionales. Para los países medianos, la dependencia tecnológica incrementará la actual dependencia estratégica de forma silenciosa y progresiva.

Chile necesita una postura frente a la IA para los cuatro dominios analizados. Esto requiere como prerrequisito una infraestructura nacional de datos críticos que garantice que las decisiones de seguridad, política exterior y defensa no ocurra en servidores fuera del control del Estado. La urgencia de este tema se incrementará en paralelo con el aumento de las asimetrías tecnológicas y la oportunidad existirá hasta que la dependencia estructural haga irreversible la brecha. Esto generaría no solo una desventaja tecnológica sino una erosión irreversible de nuestra autonomía con los consecuentes impactos a la seguridad nacional.

Alejandro Amigo
Investigador senior AthenaLab

4 de mayo 2026


[1] En el caso de EE.UU. los principales son OpenAI, Anthropic, Google/DeepMind y Meta y en el caso de China son Baidu, Alibaba, Huawei y DeepSeek.

[2] Shaleen Khanal, Hongzhou Zhang, and Araz Taeihagh, “Why and How Is the Power of Big Tech Increasing in the Policy Process? The Case of Generative AI,” Policy and Society 44, no. 1 (2025): 52–69

[3] Australian Government, “The Pax Silica Declaration by Countries Attending the Pax Silica Summit, 12 December 2025,” Department of Industry, Science and Resources, December 13, 2025, https://www.industry.gov.au/publications/pax-silica-declaration-countries-attending-pax-silica-summit-12-december-2025

[4] Naciones Unidas, Asamblea General. Lethal Autonomous Weapons Systems. A/RES/79/62. Nueva York: Naciones Unidas, 2 de diciembre de 2024. https://undocs.org/A/RES/79/62.

[5] James O’Donnell and Casey Crownhart, “We Did the Math on AI’s Energy Footprint. Here’s the Story,” MIT Technology Review, May 20, 2025, https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/. 

[6] AthenaLab. 2024. Documento especial: Taiwán. Santiago: AthenaLab. https://www.athenalab.org/wp-content/uploads/2024/11/athenalab_doc_especial_taiwan.pdf.

[7] U.S. Congress, “H.R. 4346—CHIPS and Science Act of 2022,” Congress.gov, accessed May 3, 2026, https://www.congress.gov/bill/117th-congress/house-bill/4346. 

[8] Chris Miller, Chip War: The Fight for the World’s Most Critical Technology (New York: Scribner, 2022).

[9] Felix Richter, “The Big Three Hold Dominant Lead in Accelerating Cloud Market,” Statista, February 9, 2026, https://www.statista.com/chart/18819/worldwide-market-share-of-leading-cloud-infrastructure-service-providers/.

[10] Chiara Barbeschi and Tarik Fayad, “Anthropic’s Mythos Moment: How Frontier AI Is Redefining Cybersecurity,” World Economic Forum, April 20, 2026, https://www.weforum.org/stories/2026/04/anthropic-mythos-ai-cybersecurity/. 

[11] Bentzen, Naja. 2025. Information Manipulation in the Age of Generative Artificial Intelligence. Brussels: European Parliamentary Research Service (EPRS).

[12] NATO Command and Control Centre of Excellence, “Human Oversight in AI-Driven Defence: At What Positions Do We Need the Human in the Loop,” August 4, 2025, https://c2coe.org/download/human-oversight-in-ai-driven-defence-at-what-positions-do-we-need-the-human-in-the-loop/.

[13] Samuel Bendett and David Kirichenko, “Battlefield Drones and the Accelerating Autonomous Arms Race in Ukraine,” Modern War Institute at West Point, January 10, 2025, https://mwi.westpoint.edu/battlefield-drones-and-the-accelerating-autonomous-arms-race-in-ukraine/.

[14] “Inside the AI Black Box, for Real This Time,” The New York Times Magazine, April 15, 2026, https://www.nytimes.com/2026/04/15/magazine/ai-black-box-interpretability-research.html.

[15] Burdette, Zachary, Dwight Phillips, Jacob L. Heim, Edward Geist, David R. Frelinger, Chad Heitzenrater, and Karl P. Mueller. How Artificial Intelligence Could Reshape Four Essential Competitions in Future Warfare. Santa Monica, CA: RAND Corporation, 2026. https://www.rand.org/pubs/research_reports/RRA4316-1.html.

[16] Phoebe Liu, “AI Data Centers Are Now a Big Geopolitical Risk. Securing Them Against Attackers, Drones and More Is Becoming a Lucrative Business,” Forbes, April 21, 2026, https://www.forbes.com/sites/phoebeliu/2026/04/21/ai-data-centers-are-now-big-geopolitical-risk-securing-them-against-iran-attackers-drones-business/.

[17] “Pete Hegseth Wages War on Anthropic,” The Economist, February 24, 2026, https://www.economist.com/business/2026/02/24/pete-hegseth-wages-war-on-anthropic.

Temas relevantes

suscripcion

No te pierdas ninguna actualización

Suscríbete a nuestro newsletter de forma gratuita para mantenerte informado de nuestros lanzamientos y actividades.

Suscribirse