Anthropic Demanda al Gobierno de EE. UU. por Designación de Riesgo a la Cadena de Suministro
La firma de inteligencia artificial Anthropic ha tomado acciones legales contra la administración Trump tras ser designada como un «riesgo a la cadena de suministro» para la seguridad nacional. Esta situación plantea un conflicto que podría tener implicaciones significativas para el uso de la inteligencia artificial (IA) en el ámbito militar.
Detalles de la Demanda
Anthropic, una empresa radicada en San Francisco, ha presentado dos demandas: una en un tribunal federal de California y otra en el tribunal de apelaciones de Washington. Ambas buscan impugnar la designación extraordinaria del Pentágono, comunicada la semana pasada. Esta es la primera vez que una firma estadounidense recibe tal etiqueta, cortando sus oportunidades de contratos federales y limitando a otras empresas en sus decisiones comerciales si desean mantener vínculos con el gobierno.
Contexto de la Controversia
La disputa entre Anthropic y el gobierno se centra en cómo se puede emplear su herramienta de IA, Claude, en aplicaciones militares. Anthropic demanda garantías sólidas de que su herramienta no será utilizada para desarrollar armamento autónomo ni para vigilancia masiva. Aunque el Pentágono ha asegurado que no se empleará Claude para esos fines, no ha querido comprometerse formalmente, insistiendo en que Claude debe estar disponible para «todas las aplicaciones legales».
Argumentos Legales
En su demanda, Anthropic declara que la administración ha excedido sus límites de autoridad. La firma sostiene:
“Estas acciones son sin precedentes e ilegales. La Constitución no permite que el gobierno utilice su enorme poder para castigar a una empresa por su discurso protegido. Ninguna ley federal autoriza las acciones tomadas en este caso. Anthropic recurre al poder judicial como último recurso para vindicar sus derechos y detener la campaña de represalias ilícitas del ejecutivo.»
El Departamento de Defensa no ha comentado sobre el asunto, remitiéndose a su política de no opinar sobre litigios en curso.
Implicaciones en la Seguridad Nacional
El conflicto se agrava en un momento en que funcionarios de defensa indican que Claude se está utilizando en la campaña militar de EE. UU. contra Irán. Mientras tanto, el expresidente Trump ha expresado su frustración con Anthropic por no conceder al ejército acceso ilimitado a su tecnología, afirmando:
“Bueno, despedí a Anthropic. Anthropic está en problemas porque los despedí como perros, porque no deberían haber hecho eso.”
Competencia en el Mercado de IA
Anthropic afirma que sus modelos son los únicos aprobados para su uso en escenarios clasificados, mientras que OpenAI, una firma rival, ha concretado un acuerdo con el Pentágono. OpenAI ha declarado que su convenio aborda preocupaciones sobre vigilancia doméstica y armamentos autónomos, a lo que ha respondido:
«Creemos que nuestro acuerdo tiene más resguardos que cualquier acuerdo previo para implementaciones de IA en entornos clasificados.»
Desafíos Internos y Transiciones
La situación ha llevado a la renuncia de Caitlin Kalinowski, jefa de robótica de OpenAI, quien comentó en redes sociales sobre la difícil decisión. La preocupación predominante es que la vigilancia de los ciudadanos estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecen más deliberación.
A pesar de la designación de riesgo a la cadena de suministro y las demandas federales, ambas partes aún están negociando una posible utilización de Claude en el ámbito militar.
Perspectivas Futuras
Anthropic está trabajando para asegurar a empresas y otras agencias gubernamentales que la designación de riesgo a la cadena de suministro afecta principalmente a los contratistas militares cuando usan Claude en relación con el Departamento de Defensa. Este matiz es crucial para Anthropic, ya que se proyecta que la mayor parte de sus ingresos, que ascienden a 14 mil millones de dólares este año, provendrán de empresas y agencias gubernamentales que utilizan Claude en campos como la programación y otras tareas relacionadas.
Anthropic actualmente cuenta con más de 500 clientes que pagan al menos un millón de dólares al año por el acceso a Claude, lo que destaca el valor y la relevancia de su tecnología en el mercado actual.
Conclusión
La batalla legal entre Anthropic y la administración Trump representa un desafío significativo en la intersección de la tecnología y la política de defensa. Los resultados de este litigio podrían influir en cómo se desarrolla la inteligencia artificial en el futuro, especialmente en aplicaciones militares. La atención ahora se centra en las negociaciones en curso y la evolución de esta controvertida relación entre el sector privado y el gobierno.
Para más información sobre temas relacionados con inteligencia artificial y defensa nacional, revisa este artículo.
