Detalles de la disputa entre el Pentágono y Anthropic:
La disputa surge de un contrato por aproximadamente $200 millones que Anthropic firmó para usar su modelo de IA Claude en sistemas clasificados para el ejército de EE. UU.
Anthropic estableció dos "líneas rojas" clave:
- Que la IA no se utilice para vigilancia masiva de ciudadanos estadounidenses.
- Que no se utilice para **sistemas de armas completamente autónomas** (armas que toman decisiones letales sin supervisión humana)
El Pentágono, sin embargo, exigió un uso ilimitado de la IA para "todos los propósitos legítimos" y no aceptó estas restricciones. El Secretario de Defensa Pete Hegseth obligó a la compañía a cumplir con un plazo hasta la noche del viernes (26 de febrero de 2026).
Cuando no se alcanzó un acuerdo:
- El presidente Trump ordenó a todas las agencias federales **detener inmediatamente** la tecnología de Anthropic (dando al Pentágono un período de transición de 6 meses).
- Hegseth declaró a Anthropic como un "riesgo en la cadena de suministro para la seguridad nacional", una sanción normalmente utilizada contra amenazas extranjeras; también prohíbe a los contratistas militares hacer negocios con la compañía.
Anthropic calificó la decisión como "inválida legalmente y que establece un precedente" y anunció que llevará el asunto a los tribunales. El CEO Dario Amodei enfatizó que no daría marcha atrás en su posición.
Finalmente, el Pentágono firmó un nuevo acuerdo con OpenAI aceptando restricciones similares. Este evento marcó un punto de inflexión importante respecto a quién debería establecer límites en el uso militar de la IA—¿empresas o gobierno?
En resumen: Lo que comenzó como una discusión sobre preocupaciones de seguridad escaló a presión política y sanciones. El conflicto entre ética de la IA y seguridad nacional continúa.
#TrumpordersfederalbanonAnthropicAI
La disputa surge de un contrato por aproximadamente $200 millones que Anthropic firmó para usar su modelo de IA Claude en sistemas clasificados para el ejército de EE. UU.
Anthropic estableció dos "líneas rojas" clave:
- Que la IA no se utilice para vigilancia masiva de ciudadanos estadounidenses.
- Que no se utilice para **sistemas de armas completamente autónomas** (armas que toman decisiones letales sin supervisión humana)
El Pentágono, sin embargo, exigió un uso ilimitado de la IA para "todos los propósitos legítimos" y no aceptó estas restricciones. El Secretario de Defensa Pete Hegseth obligó a la compañía a cumplir con un plazo hasta la noche del viernes (26 de febrero de 2026).
Cuando no se alcanzó un acuerdo:
- El presidente Trump ordenó a todas las agencias federales **detener inmediatamente** la tecnología de Anthropic (dando al Pentágono un período de transición de 6 meses).
- Hegseth declaró a Anthropic como un "riesgo en la cadena de suministro para la seguridad nacional", una sanción normalmente utilizada contra amenazas extranjeras; también prohíbe a los contratistas militares hacer negocios con la compañía.
Anthropic calificó la decisión como "inválida legalmente y que establece un precedente" y anunció que llevará el asunto a los tribunales. El CEO Dario Amodei enfatizó que no daría marcha atrás en su posición.
Finalmente, el Pentágono firmó un nuevo acuerdo con OpenAI aceptando restricciones similares. Este evento marcó un punto de inflexión importante respecto a quién debería establecer límites en el uso militar de la IA—¿empresas o gobierno?
En resumen: Lo que comenzó como una discusión sobre preocupaciones de seguridad escaló a presión política y sanciones. El conflicto entre ética de la IA y seguridad nacional continúa.
#TrumpordersfederalbanonAnthropicAI
























