L’IA générative, basée sur les grands modèles de langage tels que GPT-4 (OpenAI) ou Mistral (Mistral.ai), est désormais omniprésente dans notre quotidien. Nous l’utilisons pour nous assister dans des tâches de rédaction, de traduction ou de codage. Pour des tâches “simples”, elle fonctionne généralement bien. Mais, sa performance est moins satisfaisante pour des tâches complexes nécessitant un raisonnement en plusieurs étapes.
Les agents IA basés sur les modèles de langage offrent la capacité de traiter des tâches complexes par raisonnement pas-à-pas et réalisation d’actions. Ils ouvrent également la voie à des agents autonomes (ou semi-autonomes), capables de prendre des décisions et d’agir en conséquence pour atteindre un objectif donné.
Par exemple, un agent IA testeur pourra analyser les User Stories à tester, définir les scénarios de test et les exécuter de manière automatique et autonome sur l’environnement de test. Il s’assurera que les critères de couverture demandés sont respectés. L’agent testeur établira un rapport, en distinguant les faux positifs et en indiquant la criticité des anomalies détectées. Cet agent testeur représente la nouvelle frontière du testing, et l’état de l’art de la technologie montre déjà ce qu’il pourrait être.
Dans cette présentation, notre objectif est de clarifier le sujet, de présenter un exemple concret d’agent testeur, mais aussi d’en décrire les risques et les limites.