De l’ère du cloud à l’IA agentique : pourquoi la cybersécurité doit rattraper l’innovation

Par Martyn Ditchburn, chez Zscaler
Au moment où les systèmes agentiques commencent à transférer du travail d’une organisation à une autre, la surface d’attaque se multiplie.
Chaque grande rupture technologique suit un schéma bien connu : la promesse est séduisante, l’adoption s’accélère, la pression concurrentielle s’intensifie, et la sécurité arrive toujours en dernier.
Ce fut déjà le cas avec le cloud public. Concept vaste et mal défini, ayant une signification différente selon les organisations, l’adoption du cloud a créé à la fois des opportunités et des inquiétudes. Les entreprises établies ont souvent été prises de court, soit exposées par des concurrents plus agiles, soit surprises par des initiatives de shadow IT opérant en dehors du contrôle centralisé. Le résultat mêle alors peur, ambiguïté et posture de sécurité incertaine.
C’est aujourd’hui le même schéma avec l’intelligence artificielle. Mais cette fois, les choses vont encore plus vite, sont gérées à une plus grande échelle et avec des enjeux bien plus élevés. L’IA n’est pas une technologie unique. Il s’agit d’une évolution par vagues, et la mauvaise compréhension de ces vagues constitue actuellement l’un des plus grands risques pour les entreprises.
Les trois vagues de l’IA : pourquoi elles comptent pour la sécurité
La première vague de l’IA s’est concentrée sur l’analytique prédictive : data lakes, reconnaissance de motifs à grande échelle et machine learning opérant principalement en arrière-plan. Pour de nombreuses organisations, cette adoption s’est faite discrètement, sans véritable supervision au niveau des conseils d’administration. Du point de vue de la sécurité, ces systèmes représentaient essentiellement un problème de protection des données : il s’agissait de s’assurer que les informations sensibles ne soient ni divulguées ni utilisées de manière abusive.
La deuxième vague, l’IA générative, a tout changé. Lorsque des outils capables de produire du texte, du code et des images de type humain sont entrés dans le domaine public, l’IA est devenue du jour au lendemain un sujet central de discussion. Cependant, cette visibilité a eu un coût. L’IA générative a été regroupée dans un concept unique et trop large d’« IA », masquant des différences critiques dans les profils de risque et les contrôles de sécurité. Les équipes de sécurité ont réagi de manière prévisible en se concentrant sur ce qui était le plus visible.
Mais c’est la troisième vague, l’IA agentique, qui modifie fondamentalement le paysage des menaces.
IA agentique : lorsque les systèmes agissent, et ne se contentent plus d’assister
Les systèmes d’IA agentique ne se contentent pas d’analyser ou de générer du contenu : ils agissent. Ils se connectent directement aux systèmes métier, prennent des décisions et déclenchent des workflows. De plus en plus, ils le font de manière semi-autonome, avec une supervision humaine limitée. Il ne s’agit pas d’un futur théorique.
L’IA prédictive et l’IA générative sont fondamentalement des problèmes d’échange de données. L’IA agentique est un problème d’intégrité comportementale et d’intégrité des systèmes. Dès que des agents d’IA sont autorisés à interagir avec des plateformes ERP, des systèmes financiers, des workflows logistiques ou des environnements clients, le périmètre d’impact d’une compromission s’étend considérablement.
Les parallèles avec les premières évolutions d’Internet sont frappants. Les sites web statiques ont laissé place à des applications dynamiques pilotées par des bases de données. Soudainement, les injections SQL sont devenues une menace dominante. L’automatisation a exposé de nouveaux vecteurs d’attaque. Chaque évolution architecturale a introduit des risques que les équipes de sécurité n’étaient pas encore équipées pour gérer. L’IA agentique représente un point d’inflexion similaire.
L’angle mort : contrôle interne vs réalité externe
On note alors non pas un manque d’investissement, mais un excès de confiance mal placé.
En d’autres termes, les organisations pensent être sécurisées parce qu’elles contrôlent ce qui se passe à l’intérieur de leurs propres infrastructures, tout en négligeant l’écosystème en expansion constitué de partenaires, de plateformes et de chaînes d’approvisionnement pilotées par l’IA au-delà de leurs frontières.
Cet angle mort devient particulièrement dangereux lorsque l’IA agentique commence à opérer au-delà des frontières organisationnelles. L’IA « interne » d’aujourd’hui devient rapidement l’automatisation interconnectée des chaînes d’approvisionnement de demain. Les secteurs du commerce de détail, de la logistique et de l’industrie manufacturière devraient probablement mener cette transformation, les entreprises poursuivant des objectifs de durabilité, de production en flux tendu et d’optimisation des opérations par l’IA.
Au moment où les systèmes agentiques commencent à transférer du travail d’une organisation à une autre, la surface d’attaque se multiplie. Les défaillances de sécurité ne seront plus des incidents isolés. Elles se propageront en cascade.
Se défendre contre l’évolution des menaces liées à l’IA : un changement d’état d’esprit
Se défendre contre les menaces pilotées par l’IA ne nécessite pas d’abandonner les principes de sécurité existants, mais exige leur évolution. Bon nombre des garde-fous nécessaires pour sécuriser l’IA agentique sont dérivés de contrôles efficaces utilisés pour gérer les utilisateurs humains. La principale différence réside dans la vitesse, l’échelle et la nature continue des opérations.
Malgré cela, les agents d’IA doivent toujours être traités comme des utilisateurs humains du point de vue de la sécurité, avec des contrôles basés sur le modèle Zero Trust. Cela signifie attribuer des identités, définir des accès selon le principe du moindre privilège, établir des références comportementales et surveiller en continu les anomalies. Si un agent commence soudainement à interagir avec des systèmes en dehors de son périmètre défini, cet écart doit être aussi visible et exploitable qu’un comportement humain suspect.
La segmentation devient essentielle, non pas comme un idéal architectural abstrait, mais comme un moyen concret de limiter l’ampleur des impacts en cas de compromission. Sans cela, des agents compromis peuvent se déplacer latéralement à la vitesse des machines.
Et peut-être plus important encore, les organisations doivent cesser de considérer la sécurité de l’IA comme un simple ajout. Si les organisations peinent déjà à faire face aux menaces actuelles, comment pourraient-elles gérer les menaces émergentes telles que l’IA agentique et l’informatique quantique ?
D’une cybersécurité réactive à une cybersécurité « resilient by design »
La principale leçon tirée à la fois de l’adoption du cloud et de l’évolution de l’IA est la suivante : la sécurité réactive ne passe pas à l’échelle.
Le rythme de l’innovation dépasse désormais systématiquement celui de la gouvernance, de la législation et des cycles d’approvisionnement. Attendre que les cadres réglementaires arrivent à maturité ou que des incidents forcent l’action n’est plus viable. La résilience doit être conçue dès le départ, et non ajoutée après coup une fois la perturbation survenue.
Cela implique de déplacer l’attention des solutions ponctuelles vers l’agilité architecturale. Les organisations doivent construire des modèles de sécurité capables de s’adapter à mesure que les capacités de l’IA évoluent, plutôt que de se briser à chaque évolution.
L’IA ne ralentira pas. Les systèmes agentiques ne feront que devenir plus capables, plus connectés et plus autonomes. Les organisations qui continuent de considérer la sécurité de l’IA comme un problème marginal ou futur répéteront les erreurs de l’ère du cloud.
Cette fois, cependant, les conséquences se propageront plus rapidement et plus loin.
La question n’est plus de savoir si l’IA va remodeler le paysage des menaces. Elle l’a déjà fait. La véritable question est de savoir si les entreprises sont prêtes à s’en défendre avant que les effets en cascade ne les atteignent.
Partager cet article
Nos billets d’humeur les plus lus
27/04/2026
Start-up : comment transformer ses annonces en sujet média
Mais entre ce que tu penses être intéressant et ce qui intéresse vraiment un journaliste,…
23/04/2026
La réaction à l’actu : un format clé pour booster les RP des startups
La régularité, c'est la clé ! N'hésite pas à solliciter les journalistes régulièrement,…
30/03/2026
Forum InCyber & RP : 5 tips pour survivre à une interview
Si rencontrer les journalistes fait aussi partie de tes objectifs, je te partage 5 tips…


