L'administration Trump aux États-Unis envisage d'adopter un ensemble de mesures administratives visant à renforcer les contrôles sur les modèles d'intelligence artificielle de pointe afin de faire face aux risques croissants pour la sécurité nationale. Des discussions au sein de la Maison Blanche sur de nouvelles réglementations, qui incluraient l'établissement d'un mécanisme formel d'examen et de publication pour les modèles d'IA avancés, sont en cours depuis un certain temps, selon sept représentants de l'industrie technologique et conseillers politiques qui ont obtenu l'anonymat.

Plusieurs personnes proches du dossier ont déclaré que lors de récentes communications à huis clos avec l'industrie, l'une des idées proposées par la Maison Blanche était d'établir un système d'examen sous la forme d'un décret pour évaluer l'impact potentiel des soi-disant « modèles d'IA de pointe ». Un expert en politique de l'IA et une source industrielle ont déclaré que dans le cadre de ce programme, les entreprises pourraient avoir besoin d'obtenir le « feu vert » du gouvernement fédéral avant de lancer des modèles à haute capacité. Le New York Times avait précédemment révélé que la Maison Blanche envisageait une structure d'examen similaire.
Un porte-parole de la Maison Blanche a déclaré que toute politique formelle serait annoncée personnellement par le président Donald Trump et que les discussions en cours autour d'éventuels décrets restaient des « spéculations ». Dans le même temps, de plus en plus d’entreprises technologiques coopèrent volontairement avec le gouvernement et soumettent activement de nouveaux modèles pour examen avant leur mise en ligne. Mardi seulement, l’administration Trump a conclu un accord avec Microsoft, xAI et Google DeepMind pour permettre au gouvernement de procéder à une évaluation des risques pour la sécurité nationale sur une nouvelle génération de modèles avant qu’ils ne soient rendus publics.
Cette série d'actions intervient alors que le malaise généralisé du public à l'égard de l'IA continue de croître, notamment des inquiétudes concernant la sécurité de la technologie elle-même et des questions sur l'énorme investissement de l'industrie dans les campagnes politiques. Un sondage POLITICO publié plus tôt ce mois-ci a montré que les électeurs américains sont globalement sceptiques à l’égard de l’intelligence artificielle. Dans ce contexte, un mécanisme formel d’examen préalable au déploiement de l’IA n’est qu’une parmi une série de mesures administratives actuellement envisagées par la Maison Blanche. D’autres idées incluent l’adoption d’une approche plus stricte face aux risques de sécurité posés par l’IA et la limitation de l’espace dont dispose l’industrie technologique pour contrer les exigences de sécurité et politiques du gouvernement.
Le gouvernement prépare un projet de décret de 16 pages qui interdirait au secteur privé « d’interférer » dans l’utilisation par le gouvernement des modèles d’IA, selon quatre personnes proches du dossier. Le projet prévoit également de renforcer les normes fédérales en matière d’approvisionnement et de passation de contrats et de donner au gouvernement une plus grande liberté d’action dans sa collaboration avec les fournisseurs d’IA. Ces dispositions sont largement considérées comme une réponse directe à une récente impasse entre la Maison Blanche et la société d'intelligence artificielle Anthropic, qui a refusé de permettre à l'armée d'utiliser son modèle Claude pour surveiller les citoyens américains ou alimenter des armes autonomes, suscitant un tollé de la part du ministère de la Défense.
En réponse, le secrétaire à la Défense Pete Hegseth a classé en mars Anthropic comme un « risque pour la sécurité de la chaîne d'approvisionnement », une décision rare qui a immédiatement restreint la capacité des agences fédérales à utiliser les produits de l'entreprise. De nombreux observateurs ont souligné que le cycle actuel de politiques autour de l’IA marque un changement important dans la pensée réglementaire de l’administration Trump. Avant cela, sous le lobby des investisseurs en capital-risque du « laissez-faire » tels que David Sacks et Marc Andreessen, la Maison Blanche avait toujours adopté une attitude relativement souple et « légère » à l'égard de la réglementation et de la supervision de l'industrie de l'IA.
Maintenant, ce « virage brusque » apparemment suscite la vigilance dans le cercle technologique. Certains représentants de l’industrie craignent qu’un contrôle gouvernemental plus strict ne ralentisse le rythme de l’innovation. Daniel Castro, président du groupe de réflexion "Information Technology and Innovation Foundation", a déclaré que personne ne veut entrer dans un monde où "chaque nouvelle version du modèle doit d'abord être soumise au gouvernement pour approbation". Il a averti que la « vitesse de la Silicon Valley » est très différente de la « vitesse de Washington » et que les États-Unis doivent continuer à progresser rapidement s'ils veulent rivaliser avec la Chine dans le domaine de l'IA.
Le décret proposé vise également les nouvelles menaces posées par l’IA de pointe en matière de cybersécurité, en particulier le nouveau modèle Mythos d’Anthropic. Bien que le modèle n'ait pas encore été rendu public, les premiers résultats de tests effectués par les gouvernements et les grandes institutions montrent que Mythos est capable de trouver et d'exploiter les vulnérabilités des logiciels bien au-delà des capacités des pirates informatiques humains. Deux personnes proches des discussions ont révélé que le projet envisageait de formuler des directives techniques et des meilleures pratiques pour les « modèles à poids ouvert » afin de renforcer la protection de la sécurité. De tels modèles exposeront les paramètres de formation et permettront aux utilisateurs de les recycler et de les modifier pour différentes tâches. La Maison Blanche envisage également de mobiliser la communauté du renseignement pour l’aider à se défendre contre les menaces pesant sur les systèmes critiques posées par l’IA de pointe, ont ajouté trois personnes proches du dossier.
Les risques potentiels posés par Mythe ont suscité une vive vigilance parmi les hauts responsables de l'administration Trump. Plusieurs responsables craignent qu'au milieu de l'impasse avec Anthropic, les agences fédérales aient des difficultés à obtenir que Mythos soit utilisé pour « tester sous contrainte » les systèmes critiques. Ces dernières semaines, la Maison Blanche a commencé à « apaiser » les tensions avec la société d’IA. L'administration envisage de créer un comité d'examen pour réévaluer la détermination des risques liés à la chaîne d'approvisionnement effectuée sur Anthropic, ont indiqué deux sources, mais il n'est pas clair si cet arrangement sera inclus dans le texte du décret final sur AI.
De l’extérieur, l’émergence du Mythe remodèle le cadre de discussion autour de l’IA et de la sécurité nationale au sein de la Maison Blanche. Saif Khan, qui a été conseiller en technologies émergentes dans l'administration Biden et est maintenant chercheur au groupe de réflexion Institute for Progress, a déclaré qu'il y avait auparavant un certain degré de mépris pour les risques associés au sein du gouvernement, "mais maintenant, beaucoup de gens commencent à prendre cette question extrêmement au sérieux". Selon lui, l’ère de la politique de l’IA guidée uniquement par la logique du capital-risque de la Silicon Valley pourrait toucher à sa fin sous l’administration Trump.