La administración de Donald Trump vetó a la empresa tecnológica Anthropic, acusándola de ser un riesgo para la cadena de suministro tras rechazar el uso de su modelo Claude en armas autónomas. La firma defiende su postura ética y evalúa apelar la medida.
Tras meses de negociaciones entre el Pentágono y desarrolladores de San Francisco, la administración de Donald Trump vetó a la empresa tecnológica Anthropic y la catalogó como un «riesgo para la cadena de suministro» tras la negativa de la firma a permitir el uso irrestricto de su modelo Claude en sistemas de armas autónomas.
El Departamento de Defensa de los Estados Unidos buscó integrar las capacidades de procesamiento de lenguaje natural y razonamiento lógico de Claude en los centros de mando que coordinan operaciones en Medio Oriente. Según la Casa Blanca, las salvaguardas éticas de la empresa constituyen una «obstrucción operativa» para las capacidades de defensa nacional.
Para la administración republicana, Anthropic presenta limitaciones que ralentizan la respuesta de sistemas automatizados en escenarios de combate real y una vulnerabilidad estratégica frente a potencias extranjeras. La medida excluye a la compañía de cualquier licitación vinculada a la infraestructura crítica del Estado y prohíbe a las agencias federales renovar licencias de software con la firma californiana.
Mientras tanto, la empresa defendió su postura y ratificó su compromiso con la seguridad del usuario. El conflicto escaló cuando el Pentágono exigió acceso al código fuente y a las capas de seguridad de Claude para su implementación en el programa Project Maven, que utiliza IA para identificar objetivos militares mediante imágenes satelitales y datos en zonas de conflicto.
Los técnicos de la firma se negaron a eliminar los filtros que impiden generar respuestas relacionadas a la planificación de ataques físicos. La negativa fue interpretada por el Departamento de Defensa como una «falta de cooperación». La administración actual sostuvo que la prioridad es la «superioridad algorítmica» en el campo de batalla, especialmente ante el avance de sistemas similares desarrollados en China.
La sanción administrativa podría ralentizar el entrenamiento de futuros modelos de la serie Claude, que depende de infraestructura de gran escala. Sin embargo, la empresa mantiene su base de clientes en el sector privado, principalmente empresas financieras e instituciones de salud.
Expertos en seguridad nacional indicaron que la medida define la frontera entre la IA civil y la militar. Mientras la Casa Blanca busca establecer que cualquier desarrollo debe ser «militarizable», la firma de San Francisco cuenta con seguridad propia encargada de garantizar que el avance tecnológico no supere los límites de seguridad humana. Lo cierto es que la situación en Medio Oriente aceleró la urgencia del Gobierno por adquirir herramientas de análisis predictivo que funcionen sin las restricciones de seguridad habituales.
Estados Unidos busca que la IA proponga cursos de acción letales de manera autónoma para reducir los tiempos de reacción humana. Por su parte, la empresa inició un proceso de revisión legal para apelar la designación bajo el argumento de que sus protocolos de seguridad son precisamente lo que garantiza que la tecnología no sea robada.
