L’intelligence artificielle : ce nouveau collaborateur

Une tribune écrite par Sam Curry, Directeur de la sécurité de l’information chez Zscaler

L’intelligence artificielle (IA) progresse rapidement et devient plus qu’un simple outil. Elle s’impose comme un nouveau membre de l’équipe à part entière. L’IA n’est plus seulement un outil qui permet d’automatiser des tâches ou de rationaliser les opérations ; elle va jusqu’à représenter une entité fondamentalement différente au sein des organisations, capable de prise de décision et digne de confiance.

Aujourd’hui, ce nouveau type de « travailleur » entre en scène : il est composé de silicium plutôt que de carbone. En déployant l’intelligence artificielle agentique, les organisations transforment fondamentalement le monde du travail en y introduisant des systèmes capables d’agir de manière autonome, dotés d’une capacité à prendre des initiatives et ayant un  « état d’esprit » orienté résultats. Il ne s’agit pas simplement d’algorithmes statiques, mais d’agents de plus en plus autonomes, capables de prendre des décisions, d’interagir avec des systèmes et parfois d’agir en notre nom.

Mais tout progrès engendre un risque. Comment les organisations peuvent-elles, sans élargir leur propre surface d’attaque, intégrer ces nouveaux travailleurs en s’assurant que ces derniers utiliseront les données privées à bon escient uniquement, sans risque de conséquences judiciaires ?

Des agents classiques aux agents IA : une nouvelle catégorie de travailleurs numériques 

Contrairement à l’automatisation classique, qui suit simplement des instructions prédéfinies, les systèmes d’intelligence artificielle agentique sont capables de prendre des décisions, de s’adapter à des situations changeantes et d’exécuter des tâches pour le compte d’employés ou d’équipes entières. Cela permet aux organisations de déléguer des activités complexes et sensibles telles que l’interprétation de données, la priorisation des charges de travail ou le choix entre deux propositions concurrentes et ce, sans supervision humaine constante.

Concrètement, les organisations exploitent l’IA agentique pour rationaliser les opérations, améliorer la productivité et aider à la prise de décision. Par exemple, ces collègues numériques peuvent automatiser la gestion des plannings, surveiller et optimiser les flux de travail, ou encore gérer les interactions avec les clients, avec un niveau de personnalisation et d’initiative jusqu’alors inatteignable. À mesure que ces agents IA s’intègrent davantage, ils commencent aussi à jouer un rôle dans la gestion des risques, la surveillance de la conformité et la coordination de projets, tout en conservant des traces vérifiables de leurs actions afin de garantir responsabilité et confiance au sein de l’entreprise.

À mesure que l’IA agentique devient plus performante, il nous incombe de nous poser la question de sa sécurité, et pour cela, nous avons désormais besoin de systèmes d’identité adaptés aux agents IA.

Pour ce faire, les organisations doivent mettre en place des identités persistantes et uniques pour les agents IA, en s’assurant que ces identités soient complètes et robustes. De telles identités devraient être enrichies d’informations détaillées, incluant des détails clairs de l’origine des données d’apprentissage, des définitions explicites de leurs autorisations et domaines d’opération, des déclarations documentées de leurs objectifs visés, et des éléments établissant une responsabilité humaine ou organisationnelle pour chacune de leurs actions. En intégrant ces données dans leurs systèmes d’identité, les organisations peuvent ainsi créer une base de confiance et de traçabilité pour les agents IA opérant au sein de l’équipe. Avec le temps, les agents IA pourraient alors se créer une réputation, au même titre que les employés humains. Imaginez des systèmes où des scores de confiance sont gagnés grâce à la transparence, l’équité et l’alignement avec les objectifs humains, validés à la fois par des humains et d’autres agents IA.

Motiver l’IA et gérer les frontières juridiques

Intégrer l’IA au sein d’une équipe ne se limite pas à établir des règles. Cela implique aussi de créer des moyens de motiver ces systèmes. Le salaire est un moyen de motivation pour un employé humain, la reconnaissance, et le sentiment d’appartenance en sont deux autres. On peut alors imaginer que les systèmes IA puissent, eux, être motivés par la mise en place d’une bonne collaboration avec les humains.

Les organisations pourraient offrir à l’IA des récompenses uniques, comme l’accès à des robots, des jetons numériques spéciaux, ou une puissance de calcul supplémentaire en échange de bonnes performances. L’IA pourrait aussi obtenir des privilèges, tels que l’utilisation de modèles avancés ou de jeux de données spécifiques, selon sa fiabilité. Construire un système de réputation pour l’IA, où les systèmes dignes de confiance et utiles acquièrent davantage de poids dans les décisions, a de grandes chances d’encourager des comportements positifs.

Sur le plan juridique, de nouvelles questions émergent quant au rôle de l’IA. Tout comme les salariés humains et les entreprises disposent de certains droits et responsabilités, nous pourrions avoir besoin de règles similaires pour les IA très autonomes. Même si l’IA n’est pas consciente, le véritable défi consiste à construire des systèmes dans lesquels l’IA peut contribuer de manière significative, transparente et sûre, aux côtés des humains.

L’avenir est inclusif et artificiel 

Intégrer l’IA au sein de l’équipe ne consiste pas à remplacer l’humain ; mais à élargir les possibles. Si l’onboarding et la formation sont gérés avec discernement et dans un contexte digne de confiance, il est alors possible d’envisager l’intégration de nouveaux collègues d’une manière économiquement viable, éthiquement responsable et socialement inclusive. En favorisant une telle collaboration, nous renforçons non seulement la productivité et l’innovation, mais nous répondons également aux défis juridiques et éthiques émergents, en garantissant que l’IA reste une force de confiance et de progrès au sein de nos lieux de travail.

En fin de compte, l’avenir du travail ne repose pas sur une opposition entre humains et machines, mais sur un partenariat fondé sur des bénéfices mutuels. Alors que nous continuons à façonner l’intégration des systèmes d’IA agentique, l’accent doit être mis sur l’inclusivité, la responsabilité de chacun et la recherche partagée du progrès. Pour alors ouvrir la voie à un travail d’équipe plus dynamique et résilient.

Partager cet article

Nos billets d’humeur les plus lus

Comment réussir ton interview ?

Si un journaliste souhaite t'interviewer, découvre mes 3 tips pour t’y préparer.

Parler à un journaliste pour la première fois

Si tu n’as jamais parlé avec un journaliste, découvre ma check-list express pour t’y…

L’approche thématique : raconter la cyber autrement

Là où beaucoup empilent des sujets et communiquent sans véritablement s’intéresser au…