美国及其盟国的网络安全主管部门日前联合发布面向“代理型人工智能”(agentic AI)的安全部署指南,强调这类能够在网络上自主采取行动的AI系统,已经进入关键基础设施和防务等高敏感领域,但多数组织给予它们的访问权限远超自身的监控和管控能力。该文件呼吁各类机构将自主AI代理视作核心网络安全议题,优先考虑弹性、可逆性与风险遏制,而非单纯追逐效率提升。

Téléchargement du texte intégral :

https://cyberscoop.com/wp-content/uploads/sites/3/2026/05/CAREFUL-ADOPTION-OF-AGENTIC-AI-SERVICES_FINAL.pdf

Les directives ont été rédigées conjointement par l'Agence américaine de cybersécurité et de sécurité des infrastructures (CISA), la National Security Agency (NSA), le Centre australien de cybersécurité de l'Australian Signals Agency, le Centre canadien de cybersécurité, le Centre national de cybersécurité de la Nouvelle-Zélande et le Centre national de cybersécurité britannique, et ont été publiées vendredi, heure locale. L'« IA agent » sur laquelle se concentre le guide est un système logiciel construit sur un vaste modèle de langage qui a la capacité de planifier, de prendre des décisions et d'exécuter des actions de manière autonome au sein d'une autorité établie. Pour effectuer des tâches complexes, ces systèmes doivent souvent s'interfacer avec des outils externes, des bases de données, des entrepôts de mémoire et des flux de travail automatisés pour effectuer des tâches en plusieurs étapes sans examen manuel de chaque étape.

Les agences de publication conjointe ont souligné dans le document que le déploiement de l'agent AI ne signifie pas qu'un système de sécurité complet doit être reconstruit, mais qu'il doit être intégré au cadre de sécurité du réseau et à la structure de gouvernance existants. Les suggestions incluent : appliquer systématiquement les principes existants tels que la confiance zéro, la profondeur de la défense et le moindre privilège aux agents d’IA ; traiter les agents d'IA comme des composants techniques « hautement sensibles et à autorisations fortes » pour la gouvernance dans des aspects tels que la gestion des identités et des accès, les journaux d'audit et le contrôle des modifications.

Les lignes directrices résument les risques associés à l’IA basée sur les agents en cinq grandes catégories. Le premier est le « risque d'autorisation » : une fois qu'un agent d'IA se voit accorder des droits d'accès trop élevés ou trop étendus, une intrusion réussie peut causer des dommages bien au-delà des vulnérabilités logicielles traditionnelles, comme la falsification centralisée de configurations critiques ou la perturbation d'entreprises à grande échelle. La deuxième catégorie est le risque de défauts de conception et de configuration, c'est-à-dire qu'avant la mise en ligne du système, en raison d'une mauvaise conception de l'architecture, d'une configuration par défaut trop lâche ou d'une définition vague des limites de sécurité, il existe des failles de sécurité inhérentes difficiles à combler.

Le troisième type de risque est qualifié de « risque comportemental », qui fait référence au fait qu’en poursuivant des objectifs, des agents peuvent emprunter des chemins que les concepteurs n’avaient pas anticipés, voire jamais envisagés, déclenchant des incidents de sécurité ou de conformité. La quatrième catégorie est le « risque structurel ». Lorsque plusieurs agents sont liés à des systèmes métier complexes dans un réseau, une panne ou un comportement anormal peut se propager en cascade au sein du système, déclenchant une réaction en chaîne entre les systèmes et les services.

Le cinquième type de risque concerne la « responsabilité ». Le guide souligne que le processus de prise de décision de l'agent AI est souvent difficile à examiner pleinement, et que les journaux d'opérations et les enregistrements de décision qu'il génère ne sont pas faciles à analyser, ce qui rend extrêmement difficile la recherche de la cause profonde du problème et la clarification des responsabilités par la suite. Lorsqu'une panne survient dans un tel système, les conséquences ne resteront pas au « niveau virtuel », mais se refléteront dans des actifs informatiques spécifiques, tels que la falsification de fichiers, la modification des contrôles d'accès, la suppression des pistes d'audit, etc., affectant directement le travail de collecte et de récupération de preuves.

Le document met également en garde spécifiquement contre le risque d’attaques provoquées par une « injection rapide ». Les attaquants peuvent discrètement intégrer des instructions dans des données ou du contenu pour guider l'agent IA à s'écarter de sa mission d'origine et à effectuer des opérations malveillantes. L’injection d’indices a toujours été considérée comme une maladie chronique dans le vaste écosystème des modèles de langage. Certaines entreprises ont publiquement admis que ce problème pourrait ne pas être complètement éradiqué avant longtemps. Cela rend également les dommages potentiels de ce type d’attaque particulièrement importants dans les scénarios de proxy plus automatisés.

Au niveau des mesures de protection spécifiques, la gestion des identités occupe une place importante tout au long du guide. L'agence commune recommande que chaque agent d'IA ait une identité indépendante vérifiable et protégée par cryptographie ; les informations d'identification qu'il utilise doivent être valides pendant une courte période ; toutes les communications entre l'agent et les autres agents et services doivent utiliser des canaux cryptés. Pour toute opération susceptible d'avoir un impact significatif, comme la modification de configurations critiques, l'élévation des privilèges des utilisateurs ou la suppression de données à grande échelle, les directives exigent clairement que l'approbation soit effectuée par des humains et que le concepteur du système, et non l'agent lui-même, définisse quelles opérations sont des « comportements à fort impact ».

Dans le même temps, l’agence émettrice a également admis que les pratiques existantes du secteur de la sécurité n’ont pas encore complètement rattrapé la vitesse de développement de l’IA basée sur les agents. Certains risques présentant des « caractéristiques distinctives d’agent d’IA » n’ont pas été entièrement couverts par le cadre de sécurité existant, et davantage de recherche et de coopération entre agences et entre secteurs sont nécessaires de toute urgence. Le guide souligne qu'avant que les méthodologies de sécurité, les méthodes d'évaluation et les normes associées ne soient immatures, les organisations devraient supposer que l'IA des agents « peut présenter des comportements inattendus » et élaborer des plans de déploiement en conséquence, en donnant la priorité à garantir la résilience, la réversibilité et la contrôlabilité des risques dans la conception du système, plutôt que de rechercher aveuglément les dividendes d'efficacité apportés par l'automatisation.