Tutoriels du 8 juin 2026
La veille de la JFTL, le CFTL organise une journée des tutoriels, où des spécialistes vous proposent des ateliers pratiques en comité restreint.
Lors de votre inscription à cette journée, vous devrez choisir un atelier en matinée, et un l’après-midi.
MATIN
Les tutoriels se déroulent de 10h00 à 13h00, avec une pause de 30 minutes
REX: comment assurer la qualité dans un contexte d’agile à l’échelle dans diverses organisations – Par Lionel Brat et Jean Marc Pires
Présentation de modèles organisationnel Test mises en place dans un contexte d’agile à l’échelle afin de répondre aux défis soulevés par cette nouvelle méthode de développement. Venez profiter du retour d’expérience de 2 grandes entreprises.
REX: comment assurer la qualité dans un contexte d’agile à l’échelle dans diverses organisations - Par Lionel Brat et Jean Marc Pires
Pitch :
Présentation de stratégies de test mises en place dans un contexte d’agile à l’échelle afin de répondre aux défis soulevés par cette nouvelle méthode de développement. Venez profiter du retour d’expérience de 2 grandes organisations.
Objectifs / take away:
- Voir les points communs entre les organisations présentées et son organisation pour identifier des axes possibles dans son contexte
- Chacun identifie les problématiques rencontrées et des actions possibles (proposer plusieurs solutions)
Sommaire :
- Rappels agile à l’échelle
- Quels sont les défis du test et de la qualité
- Présentation de la stratégie/politique de test
- REX des difficultés
- Evolution de l’organisation
- Tips / échanges
- Ouvrir sur des organisations moins importantes
Lionel Brat et Jean-Marc Pires - Axa & BNP Paribas
Fine-Tuning de petits modèles IA pour les tests – par antoine chevrot et fabrice bouquet
Le fine-tuning de petits modèles est un enjeu très important, autant pour l’impact carbone de l’IA que pour les questions de souveraineté et de sécurité de nos solutions d’IA.
Fine-Tuning de petits modèles IA pour les tests
L’IA se développe rapidement pour assister aux activités de test logiciel tout au long du processus de test. On trouve couramment des assistants pour améliorer les US et leurs critères d’acceptation, générer des cas de test et des données de test, exécuter par IA sur IHM ou assister l’automatisation, et analyser les résultats et les logs de test, par exemple.
Actuellement, ces assistants et agents IA s’appuient principalement sur les grands partenaires commerciaux des fournisseurs de technologies IA, tels que Google, OpenAI, Anthropic et Mistral.
Une alternative consiste à utiliser des modèles open source, de taille plus petite, en les spécialisant grâce à des techniques de fine-tuning. Le fine-tuning (et d’autres techniques que vous découvrirez lors du tutoriel) implique des phases d’entraînement additionnelles visant à améliorer les performances de ces petits modèles pour une tâche spécifique.
Le fine-tuning de petits modèles est un enjeu très important, autant pour l’impact carbone de l’IA que pour les questions de souveraineté et de sécurité de nos solutions d’IA.
Ce tutoriel va vous apporter les connaissances suivantes :
- Les objectifs et le panorama des technologies utilisables pour spécialiser / améliorer de petits modèles IA dans le contexte des activités de test
- Le détail d’une chaîne complète de fine-tuning, couvrant la définition d’objectifs réalistes, l’acquisition et de la préparation des données d’entraînement, au choix des techniques et des infrastructures de fine-tuning, jusqu’à l’évaluation des résultats et aux itérations nécessaires pour obtenir un modèle à un niveau de performance satisfaisant.
- Plusieurs retours d’expérience sur des études de cas liées aux tests logiciels
- Un bilan et les bonnes pratiques à mettre en place - votre guide de survie avant de se lancer dans l’aventure.
Ce tutoriel ne vise pas à réaliser techniquement des sessions concrètes de fine-tuning, Nous privilégions un partage à 360° du sujet, interactif et fondé sur l’expérience concrète des animateurs sur des cas d’usage liés aux tests logiciels.
Ce tutoriel s’adresse aux professionnels des tests logiciels et ne requiert aucune connaissance préalable en IA.
par antoine chevrot et fabrice bouquet - unviersité marie et louis pasteur
Du test augmenté à l’agent IA : explorer une nouvelle façon de tester – par le groupe de travail ia du cftl
Plongez dans l’univers des tests augmentés par l’IA. Après avoir exploré les cas d’usage et les techniques de prompting, cet atelier propose une étape supplémentaire : relier la stratégie de test à la conception d’un agent IA capable d’assister certaines activités du testeur
Du test augmenté à l’agent IA : explorer une nouvelle façon de tester
- par le groupe de travail ia du cftl
Plongez dans l’univers des tests augmentés par l’IA.
Après avoir exploré les cas d’usage et les techniques de prompting, cet atelier propose une étape supplémentaire : relier la stratégie de test à la conception d’un agent IA capable d’assister certaines activités du testeur.
À travers des exemples concrets et des mises en pratique, vous aurez la possibilité :
• de relier les objectifs
• de test à des usages pertinents de l’IA ;
• de comprendre les briques
• nécessaires à la création d’un agent IA orienté test ;
•d’expérimenter sur un scénario simple et d’évaluer les limites et apports de cette approche.
Cet atelier est organisé par le groupe de travail « Tester Avec l’IA générative » du CFTL, qui vise à construire collectivement des références et des ressources autour de l’IA appliquée au test logiciel.
par le groupe de travail ia du cftl
L’UX de A à Z – par olivier denoo
Vous avez développé un super produit. Génial! Il a été testé de fond en comble : fonctionnalité, performance, sécurité…rien n’a été laissé au hasard (ou presque). Alors pourquoi les utilisateurs ne l’aiment-ils pas? Pourquoi tant de haine sur les retours d’expérience et sur les réseaux sociaux? Ce tutoriel vous en fera découvrir les aspects majeurs et mettra en exergue les points d’attention et les mesures à mettre en place.
L’UX de A à Z – par olivier denoo
Vous avez développé un super produit. Génial! Il a été testé de fond en comble : fonctionnalité, performance, sécurité...rien n'a été laissé au hasard (ou presque). Alors pourquoi les utilisateurs ne l'aiment-ils pas? Pourquoi tant de haine sur les retours d'expérience et sur les réseaux sociaux? Peut-être faut-il chercher du côté de l'expérience utilisateur (Ux), qui, par-delà la simple utilisabilité, reprend l'usage du produit (ou du service), avant, pendant et après son utilisation. Plus qu'une simple livraison froide et mécanique, c'est l'image de la marque qui constitue l'enjeu. son engagement à délivrer un attendu de qualité, voire même à dépasser les attentes. Ce tutoriel vous en fera découvrir les aspects majeurs et mettra en exergue les points d'attention et les mesures à mettre en place.par olivier denoo
Comprendre et implémenter l’accessibilité numérique et le RGAA – par mathieu thomas et nathan tessier
Le RGAA et l’accessibilité vous semble inaccessible ?Pas de panique, Nathan et Mathieu sont là pour vous l’expliquer… Et vous aider à bien l’appréhender à travers des exemples concrets et une manipulation d’un outil didactique qui permet de couvrir et comprendre l’ensemble des critères du RGAA.
Comprendre et implémenter l’accessibilité numérique et le RGAA – par mathieu thomas et nathan tessieR
Le RGAA et l'accessibilité vous semble inaccessible ?
Pas de panique, Nathan et Mathieu sont là pour vous l'expliquer... Et vous aider à bien l'appréhender à travers des exemples concrets et une manipulation d'un outil didactique qui permet de couvrir et comprendre l'ensemble des critères du RGAA.
Objectifs / take away:
- comprendre l'accessibilité numérique
- bien appréhender le RGAA (structure et obligations)
- comprendre l'intérêt des critères d'accessibilité
- avoir une idée de comment implémenter l'accessibilité
Sommaire:
- intro accessibilité + présentation RGAA - 30 minutes
- Exemple
- sur le site "wallbase" avec un mauvais contraste => modifier et faire le bon contraste - 40 minutes
- Manipulation
- sur le site cftl.fr + un complémentaire pour couvrir plusieurs thèmes, pour prendre en main le RGAA - 75 minutes de pratiques
- chaque équipe travaille sur une page
- Conclusion - 10 minutes
par Mathieu Thomas et Nathan Tessier
3 h pour évaluer la maturité de l’organisation de vos tests avec TMMi – par eric riou du cosquer et frédéric levalet
Vous êtes DSI, responsable qualité, responsable d’une équipe de test ou manager d’une offre de type « Test as a Service » ? Ce tutoriel vous fera réaliser chacune des étapes d’un audit TMMi et produire une évaluation et un plan d’amélioration des activités de test de votre organisation.
Comprendre et implémenter l’accessibilité numérique et le RGAA – par mathieu thomas et nathan tessieR
Le RGAA et l'accessibilité vous semble inaccessible ?
Pas de panique, Nathan et Mathieu sont là pour vous l'expliquer... Et vous aider à bien l'appréhender à travers des exemples concrets et une manipulation d'un outil didactique qui permet de couvrir et comprendre l'ensemble des critères du RGAA.
Objectifs / take away:
- comprendre l'accessibilité numérique
- bien appréhender le RGAA (structure et obligations)
- comprendre l'intérêt des critères d'accessibilité
- avoir une idée de comment implémenter l'accessibilité
Sommaire:
- intro accessibilité + présentation RGAA - 30 minutes
- Exemple
- sur le site "wallbase" avec un mauvais contraste => modifier et faire le bon contraste - 40 minutes
- Manipulation
- sur le site cftl.fr + un complémentaire pour couvrir plusieurs thèmes, pour prendre en main le RGAA - 75 minutes de pratiques
- chaque équipe travaille sur une page
- Conclusion - 10 minutes
par Mathieu Thomas et Nathan Tessier
APrès-midi
Les tutoriels reprennet à 14h00 jusqu’à 17h00, avec une pause de 30 minutes
Limiter les erreurs IA – par nabil idhammou et florent parolini
Certaines solutions d’IA sont désormais intégrées aux produits, aux processus métier et aux outils de test. Pourtant, leur validation reste souvent réduite à la chasse aux hallucinations ce qui ne représente qu’une partie des erreurs et risques associés à l’usage de l’IA.
Stratégies de test de l’IA - par nabil idhammou et florent parolini
Certaines solutions d’IA sont désormais intégrées aux produits, aux processus métier et aux outils de test. Pourtant, leur validation reste souvent réduite à la chasse aux hallucinations, ce qui ne représente qu’une partie des erreurs et risques associés à l’usage de l’IA.
Ce tutoriel propose de changer de prisme : considérer l’IA comme un système logiciel à part entière.
À travers des cas pratiques concrets, les participants apprendront à identifier certaines de ces erreurs, à les qualifier, à les tester et à mettre en place des stratégies d’atténuation réalistes. Objectif : amorcer le passage d’une confiance aveugle ou d’un rejet instinctif à une meilleure maîtrise de la qualité des solutions IA.
Description : Proposer 2 ou 3 cas d’erreurs courants (hors hallucinations) les illustrer par des cas pratiques avec les participants. Fournir des explications / sensibiliser et proposer des solutions d’atténuation.
Chaque situation sera analysée sous l’angle du test logiciel : détection, qualification du risque et impact métier.
Des techniques de test adaptées aux systèmes IA seront présentées.
Des leviers d’atténuation concrets seront discutés : cadrage, prompts, données, contrôles, garde-fous.
L’objectif est de renforcer l’esprit critique et la maîtrise qualité pour les solutions IA.
par nabil idhammou et florent parolini - Onepoint
Architectures d’agent IA et leur intégration dans le processus et l’outillage de test – par bruno legeard et frédéric tamagnan
Ce tutoriel présente les architectures d’agents IA pertinentes pour les activités de test, ainsi que les bonnes pratiques et exemples d’intégration au sein du processus et de l’outillage de test.
Architectures d’agent IA et leur intégration dans le processus et l’outillage de test - par bruno legeard et frédéric tamagnan
Les agents IA sont des systèmes d’IA générative qui permettent de réaliser des tâches complexes à partir de consignes de l’utilisateur. Leur arrivée à maturité en 2026 facilite l’intégration de l’IA au sein des processus et des outillages de test existants (Jira, Xray, référentiels de test, automatisation). Ces agents IA se diffusent dans notre éco-système QA pour améliorer les US, générer les tests, leur exécution par IA des tests, ou l’aide à l’automatisation. Ce tutoriel présente les architectures d’agents IA pertinentes pour les activités de test, ainsi que les bonnes pratiques et exemples d’intégration au sein du processus et de l’outillage de test. Deux expérimentations pratiques seront réalisées :- Atelier Context Engineering (Analyse & Conception de tests) : vous expérimentez un agent RAG spécialisé pour connecter les données métier à des tâches d’analyse et de conception de tests assistés par l’IA.
- Atelier Exécution de tests par agent IA : vous expérimentez l'usage d'un agent d’exécution de tests capable de naviguer sur une IHM pour exécuter des tests fonctionnels, générer les preuves et rapporter les résultats, le tout sous le contrôle du testeur.
Par bruno legeard et frédéric tamagnan
Réduire la consommation de ressources de ses applicationS – par marc hage chahine et julien cahu
L’impact des activités humaines sur le climat et la biodiversité n’est plus à démontrer. L’industrie du numérique, tout particulièrement à l’heure de la généralisation des IAs se doit de faire attention à sa consommation de ressources.
Réduire la consommation de ressources de ses applicationS - par marc hage chahine et julien cahu
L’impact des activités humaines sur le climat et la biodiversité n’est plus à démontrer. L’industrie du numérique, tout particulièrement à l’heure de la généralisation des IAs se doit de faire attention à sa consommation de ressources. Les impacts concrets du numérique et plus particulièrement des LLMs sur les ressources se font déjà ressentir notamment avec le prix des cartes graphiques qui sont un maillon essentiel au fonctionnement de ces services.
Dans ce tutoriel nous parlerons de la situation actuelle à travers les impacts environnementaux et humains mais aussi les initiatives comme EROOM et Tiny11 et les cadres comme le RGESN qui existent pour nous aider à faire face à ces défis.
Nous verrons aussi quelques pistes d’optimisation qui peuvent permettre dans de nombreux cas de diminuer la consommation de ressources… Tout en améliorant la qualité (utilisabilité, maintenabilité, performances…).
Enfin nous vous proposerons un travail par groupe autour de 3 mini ateliers qui auront pour but d’optimiser la consommation de ressources qui auront pour but de rendre concret les pistes présentées. Ces ateliers tourneront autour de l’algorithmie (à travers un cas simple), le poids d’une fonctionnalité (à travers un besoin de log) et un autre cas lié à la gestion des images.
A l’issu de cet atelier vous aurez:
- Une vision l’impact actuel des services numériques
- Des outils pour mesurer la consommation de vos services et définir des objectifs de réduction de la consommation
- Des pistes concrètes d’amélioration de la consommation de vos produits
- Des pistes pour tester la consommation de vos logiciels
par Marc Hage Chahine & Julien Cahu - K-LAGAN
L’IA sous stress : Comment tester la robustesse et la cybersécurité des systèmes d’IA ? – par alain ribault
Alors que les systèmes d’IA s’imposent dans les applications et services du quotidien, les approches traditionnelles de validation et de test atteignent leurs limites ; les approches classiques de validation montrent leurs limites. Comment garantir qu’un modèle reste fiable lorsqu’il est confronté aux données réelles du terrain, à l’imprévu ou à des usages malveillants ?
L’IA sous stress : Comment tester la robustesse et la cybersécurité des systèmes d’IA ? - par alain ribault
Alors que les systèmes d’IA s’imposent dans les applications et services du quotidien, les approches traditionnelles de validation et de test atteignent leurs limites ; les approches classiques de validation montrent leurs limites. Comment garantir qu’un modèle reste fiable lorsqu’il est confronté aux données réelles du terrain, à l’imprévu ou à des usages malveillants ?
Cet atelier propose une présentation concrète dans les pratiques actuelles de test des modèles d’IA, avec un focus sur l’évaluation de leur robustesse à travers des travaux pratiques de tests métamorphiques, ainsi que sur les enjeux de cybersécurité abordés via les tests adversariaux.
Et parce que réfléchir au test de systèmes IA demande des forces, une pause gourmande bretonne sera proposée au cours de la session.
par alain ribault
Quand l’ambiguïté des exigences casse les tests — et comment l’éviter ? – par le groupe de travail ingénierie des exigences
Comment éviter que des exigences mal formulées génèrent des tests erronés et des incompréhensions coûteuses ? Cet atelier immersif guide les participants dans la construction d’un référentiel d’exigences clair, structuré et traçable. En partant volontairement de situations ambiguës pour mieux en mesurer les effets, ils apprennent à réintroduire le contexte métier, hiérarchiser les exigences et produire des tests pertinents. L’objectif : sécuriser la chaîne exigences-validation et améliorer la qualité globale des projets
Quand l’ambiguïté des exigences casse les tests — et comment l’éviter ? – par le groupe de travail ingénierie des exigences
Comment éviter que des exigences mal formulées génèrent des tests erronés et des incompréhensions coûteuses ? Cet atelier immersif guide les participants dans la construction d’un référentiel d’exigences clair, structuré et traçable. En partant volontairement de situations ambiguës pour mieux en mesurer les effets, ils apprennent à réintroduire le contexte métier, hiérarchiser les exigences et produire des tests pertinents. L’objectif : sécuriser la chaîne exigences-validation et améliorer la qualité globale des projets.