

Selon McKinsey (2024), les projets d’IA échouent principalement pour des raisons organisationnelles, pas techniques.
L’Agentic AI amplifie ces risques car elle :
Comprendre les erreurs = éviter les dégâts en production.
Beaucoup d’entreprises créent un agent “parce qu’il le faut”.
MIT Sloan (2023) : les agents sans objectifs explicites dérivent… ou deviennent inutilisables.
Dans un système d’Agentic AI, le pilotage humain est indispensable.
Sans mission owner :
NIST AI RMF (2023) : une supervision humaine continue est obligatoire dans tout système autonome.
Un agent ne comprend rien qui n’a pas été :
Les règles implicites (“on fait comme ça depuis toujours”) entraînent des comportements erronés.
OECD AI Principles (2023) : les systèmes autonomes exigent une logique métier explicite.
L’Agentic AI dépend des données.
Si elles sont :
→ l’agent prend de mauvaises décisions.
Deloitte (2024) : les silos de données sont l’obstacle n°1 au déploiement d’Agentic AI.
L’Agentic AI peut exécuter des actions à impact réel.
Sans garde-fous :
NIST AI RMF (2023) recommande :
Les agents doivent être testés dans des scénarios :
OpenAI (2024) : les agents doivent d’abord être testés dans des “sandboxes” avant usage réel.
En réalité, elle les transforme :
World Economic Forum (2024) : l’Agentic AI crée des rôles hybrides, pas une suppression de responsabilités.
Un agent doit être :
NIST (2023) : les systèmes autonomes dérivent si on ne les réévalue pas régulièrement (model drift + process drift).