Anthropic et l'armée américaine : un désaccord majeur sur l'ia

Anthropic et l'armée américaine : un désaccord majeur sur l'ia

nn

Le géant de l'intelligence artificielle, Anthropic, se confronte à l'armée américaine sur les conditions d'utilisation de son modèle d'IA, Claude. L'entreprise, dirigée par Dario Amodei, a annoncé son intention de rompre un accord avec le Détachement de la Défense, invoquant des préoccupations éthiques et sécuritaires.

nn

Les raisons de la rupture : surveillance et armes autonomes

Les raisons de la rupture : surveillance et armes autonomes

nn

Dans un récent article de blog, Dario Amodei a exprimé son désaccord face à une demande du Détachement de la Défense concernant les garanties autour de Claude. Il a notamment souligné que l'entreprise ne pourrait, en bonne conscience, satisfaire à une requête relative à la surveillance massive domestique et au développement d'armes entièrement autonomes. Ces deux points représentent des lignes rouges pour Anthropic.

nn

Un ultimatum et des tensions croissantes

Un ultimatum et des tensions croissantes

nn

Le Secrétaire à la Défense, Pete Hegseth, avait donné à Anthropic un ultimatum : accepter les termes du Détachement de la Défense concernant l'utilisation de Claude ou être inscrit sur une liste noire gouvernementale. La date limite était fixée au vendredi 27 février 2026. Les détails précis de ces termes restent flous, mais ils semblent concerner la possibilité pour l'armée d'utiliser Claudesans restrictions en matière de surveillance ou d'armement.

nn

Réactions vives et critiques

nn

La situation a suscité des réactions passionnées. Un porte-parole du Pentagone a nié tout intérêt à utiliser l'IA pour la surveillance de masse ou le développement d'armes autonomes. Cependant, Emil Michael, sous-secrétaire à la recherche et à l'ingénierie du Détachement de la Défense, a vivement critiqué Dario Amodei, l'accusant de