En los últimos días, una historia publicada por The New York Times volvió a poner a la inteligencia artificial en el centro del debate global. No se trataba de un avance técnico ni de un nuevo modelo más potente. Se trataba de algo más profundo: la tensión entre el Departamento de Defensa de Estados Unidos y Anthropic respecto de los límites éticos en el uso de modelos de IA.
A primera vista, puede parecer un conflicto lejano, propio de las grandes potencias. Pero si uno lo observa desde la perspectiva de la inversión y la administración de capital, la historia cambia completamente. Ya no es solo una discusión tecnológica. Es una discusión sobre riesgo, gobernanza y asignación estratégica de recursos.
La pregunta de fondo no es si la IA puede utilizarse para fines militares. La pregunta es quién define esos límites y cómo esa definición impacta el valor económico de una compañía. Cuando una empresa decide imponer restricciones éticas al uso de su tecnología, está tomando una decisión que afecta directamente su flujo de ingresos potenciales. Puede estar renunciando a contratos millonarios en el corto plazo. Pero también puede estar construyendo un activo invisible: confianza.
Para un inversionista sofisticado, esa confianza no es un intangible romántico. Es una variable financiera. Reduce la prima por riesgo regulatorio, protege la marca frente a cambios políticos y disminuye la probabilidad de sanciones o exclusión de mercados sensibles. En términos simples, puede bajar el costo de capital y estabilizar los flujos futuros.
En cambio, una empresa que maximiza ingresos sin límites claros puede mostrar un EBITDA atractivo hoy, pero cargar una volatilidad implícita mucho mayor en su valoración. Basta imaginar un escenario donde, en tres o cinco años, la regulación global sobre IA se vuelva más estricta. El mercado podría reprecificar abruptamente aquellas compañías expuestas a usos controversiales. Ese riesgo no aparece en el pitch deck, pero sí debería aparecer en el comité de inversiones.
Aquí es donde la historia del Pentágono y Anthropic deja de ser anecdótica y se transforma en estructural. Nos obliga a ampliar el marco con el que analizamos empresas tecnológicas. Ya no basta con proyectar crecimiento de usuarios, eficiencia computacional o ventaja de datos. Hay que incorporar el riesgo ético-operativo como una dimensión formal del análisis.
En mercados emergentes como el chileno, donde estamos construyendo fintech, plataformas de inversión y modelos de tokenización bajo marcos regulatorios como la Ley Fintech 21.521, la lección es aún más relevante. La confianza es el activo central. Una plataforma que utiliza IA para scoring crediticio, recomendación de inversiones o automatización de decisiones no solo compite por rendimiento, compite por legitimidad. Y la legitimidad es una condición necesaria para la sostenibilidad del negocio.
En administración de inversiones solemos hablar de diversificación geográfica, exposición sectorial o riesgo cambiario. En adelante, deberemos hablar también de alineamiento ético-tecnológico. ¿Cuánto depende esta empresa de contratos gubernamentales? ¿Cuál es su política de uso permitido? ¿Qué pasaría si el entorno regulatorio cambia radicalmente? Estas preguntas ya no son filosóficas. Son financieras.
Lo interesante es que, en última instancia, el capital también moldea la dirección de la tecnología. Si los inversionistas premian compañías con gobernanza sólida y límites claros, estarán incentivando un desarrollo más responsable. Si, en cambio, el mercado solo recompensa crecimiento sin restricciones, la señal será distinta.
La tensión entre poder estatal, innovación privada y capital no es nueva. Lo nuevo es la magnitud del impacto que la inteligencia artificial puede tener sobre sistemas económicos, políticos y sociales completos. Por eso, cada decisión ética en IA es también una decisión de asignación de capital.
Y en ese cruce —entre tecnología, riesgo y administración de inversiones— se definirá buena parte del valor económico de la próxima década.