Le pentagone refuse d'utiliser l'intelligence artificielle d'anthropic, accusée de représenter un risque pour la sécurité nationale
Les autorités américaines ont demandé à un juge fédéral de rejeter l'offre d'Anthropic pour éviter la suppression de son statut de risque pour la chaîne d'approvisionnement.

Le conflit s'intensifie entre le développement d'ia militaire et les limites de sécurité contractuelles
Dans un document présenté au tribunal mardi, les avocats du Département de la Défense affirment que les agences fédérales ont agi légalement en retirant progressivement la Technologie de la startup d'intelligence artificielle dirigée par Dario Amodei après que l'entreprise a refusé d'accepter les termes du contrat qui autorisaient tout usage légal de son IA par l'armée.
L'administration a déclaré que l'entreprise représente un risque pour la sécurité nationale.
La dispute se centre sur un conflit plus large entre l'utilisation d'IA par les militaires et les limites de sécurité contractuelles établies avec les fournisseurs de Technologie.
Anthropic a déclaré au juge que des milliards de dollars étaient en jeu si les États-Unis rejetaient sa méthode d'IA, que développe le modèle d'IA Claude.
