Google a signé un nouvel accord avec le Pentagone pour ouvrir l'accès à ses propres outils d'IA à ses réseaux classifiés, autorisant presque toutes les « utilisations licites » après qu'Anthropic a rejeté une demande du ministère américain de la Défense d'autoriser les utilisations sensibles. Plusieurs médias ont déclaré que cet arrangement signifie que le ministère de la Défense peut déployer plus largement l’IA de Google dans des environnements classifiés à des fins d’analyse du renseignement, d’aide à la décision et d’autres scénarios.

L’incident a été déclenché par la position publique d’Anthropic contre l’administration Trump. Auparavant, le Pentagone souhaitait utiliser les modèles d'Anthropic avec peu de restrictions, notamment l'utilisation de l'IA pour la surveillance de masse nationale et les systèmes d'armes autonomes, mais Anthropic a insisté pour ajouter des « garde-fous » clairs au contrat interdisant de telles utilisations. Parce qu'Anthropic a refusé de coopérer avec ces cas d'utilisation, le ministère de la Défense a ensuite placé l'entreprise modèle sur une liste de « risques liés à la chaîne d'approvisionnement », une étiquette généralement réservée aux entités considérées comme des « adversaires étrangers ».

Anthropic a intenté une action en justice concernant cette désignation. En mars de cette année, un juge a accédé à la demande d’Anthropic d’émettre une injonction temporaire sur la détermination du « risque de chaîne d’approvisionnement » pendant que l’affaire était en cours, empêchant ainsi temporairement la propagation des conséquences administratives associées.

Au milieu de ce conflit, d’autres grandes sociétés d’IA n’ont pas tardé à saisir l’opportunité, essayant de transformer les « pertes » d’Anthropic en « gains » qui leur sont propres. OpenAI a signé un accord avec le ministère de la Défense dans les plus brefs délais. Plus tard, xAI a également eu accès à des réseaux confidentiels, ce qui a amené certains membres du Congrès américain à remettre en question le processus décisionnel du Pentagone. Google est désormais devenu la troisième entreprise à conclure un accord similaire avec l’armée, et sa coopération a encore élargi la gamme de grands modèles disponibles pour le système de défense américain.

Selon le Wall Street Journal, le texte de l’accord entre Google et le Pentagone comprenait également des dispositions indiquant que l’entreprise « n’a pas l’intention » d’utiliser son IA pour la surveillance de masse nationale ou pour des armes autonomes, à l’instar de certaines parties du contrat OpenAI. Cependant, le rapport souligne également qu'il existe encore une incertitude quant à savoir si ces dispositions sont réellement juridiquement contraignantes et comment elles seront contrôlées et tenues pour responsables lors de leur mise en œuvre effective.

Il convient de noter que Google fait progresser cette vaste commande militaire alors que l’opposition interne ne s’est pas calmée. Jusqu’à présent, 950 employés de Google ont signé une lettre ouverte appelant l’entreprise à suivre l’exemple d’Anthropic et à ne pas vendre de capacités d’IA au ministère de la Défense sans restrictions d’utilisation claires et applicables. Google n'a pas encore répondu à la lettre conjointe et au contenu spécifique du nouveau contrat, ni aux demandes de commentaires des médias.

Dans le contexte de la pénétration rapide de l’intelligence artificielle dans les domaines de la sécurité publique et du militaire, cet incident reflète un conflit de valeurs de plus en plus aigu entre les géants de la technologie, les gouvernements et leurs propres employés. D’une part, l’armée cherche à maximiser l’utilisation d’outils d’IA de pointe pour améliorer ses capacités ; d’un autre côté, certaines entreprises technologiques et leurs employés tentent d’établir des limites pour les applications militaires et sécuritaires de l’IA par le biais de clauses contractuelles et de pressions de l’opinion publique. Le choix de Google d'élargir sa coopération avec le Pentagone au lieu de suivre la position ferme d'Anthropic a encore intensifié la controverse autour de "qui devrait tracer des lignes rouges pour l'utilisation de l'IA".