20140410 - Choisir et implanter un outil de test

Auteurs:
Choisir et implanter un outil de test
Club Qualité Logicielle – 10/04/2014
Safi Virginius (svirginius@henix.fr)
SOMMAIRE
2Choisir et implanter un outil de de test 10/04/2014
• Etat des lieux du marché
• La démarche de choix et d’implantation
• La matrice d’évaluation
• Le dossier de choix d’outillage
• L’étude d’implantation
ETAT DES LIEUX DU MARCHÉ
• L’offre d’outillage de gestion des patrimoines de test est en pleine expansion et
propose de plus en plus de solutions : propriétaire ou open source, client lourd ou
léger, en mode client-serveur ou SaaS, avec un bugtracker natif ou interfacé, etc..
3
• Face à cette multiplication de l’offre, comment s’assurer que l’outil choisi permet une
gestion des exigences, des cas et pas de test, des exécutions et des anomalies et
répond à ses besoins spécifiques ?
Choisir et implanter un outil de de test
LA DÉMARCHE DE CHOIX ET D’IMPLANTATION
• OBJECTIFS :
– Présenter une méthodologie de choix et d’implantation d’outillage structurée,
factuelle, transposable.
• DÉMARCHE
– Identifier les besoins
– Choisir l’outillage adapté au moyen du dossier de choix
– Cadrer l’implantation de l’outil cible en réalisant une étude préalable
• LIVRABLES
– Matrice d’évaluation
– Dossier de choix d’outillage
– Check-list de l’étude d’implantation
410/04/2014
Identification
des besoins
Etude de
choix
d’outillage
Etude
d’implantation
d’outillage
POC POCPas de POC
Choisir et implanter un outil de de test
LES LIVRABLES EN MARQUE BLANCHE
• Trois livrables principaux sont donc proposés en marque blanche : une matrice
d’évaluation, un dossier de choix d’outillage et une check-list d’implantation.
5Choisir et implanter un outil de de test
Matrice
d’évaluation
Dossier de
choix
d’outillage
Etude
d’implantation
CHOIXDEL’OUTIL
IMPLEMENTATION
DUCHOIXDEL’OUTIL
La version 2014-1 de ces livrables sera
disponible en téléchargement libre sur le site
du Club Qualité Logicielle et à terme sur le
site du projet Squash au format .xls pour la
matrice d’évaluation et .ppt pour le dossier de
choix et la check-list d’implantation.
LA MATRICE D’ÉVALUATION
610/04/2014Choisir et implanter un outil de de test
LES AXES D’ÉVALUATION
L’évaluation réalisée pour chaque outil se base sur cinq axes répondant aux besoins
identifiés pour un gestionnaire de patrimoine de test:
I. Adéquation fonctionnelle :
– 10 critères :
II. Ergonomie et prise en main :
– L’outil est-il facile à utiliser ? A appréhender ?
– Le workflow de travail est-il efficace ? Favorise-t-il la productivité ?
III. Qualité technique :
– L’outil est-il facile à déployer ? A exploiter ?
– Est-il performant ? Stable ?
– Est-il facilement interfaçable avec des systèmes tiers ?
IV. Pérennité :
– La communauté des développeurs ou l’éditeur est-il actif ? Réactif ?
– L’outil est-il populaire ? La communauté des utilisateurs est-elle importante ? Active ?
– Quel est le mode gouvernance ?
V. Coûts :
– Quel coût de licence ? De support/maintenance ?
– Quelle stratégies d’accès aux versions majeures ?
7
1.Exigences 2.Cas de test 3.Pas de Test 4.Scénarios 5.Campagnes
6.Exécutions 7.Anomalies 8.Transverse 9.Administration 10.Automatisat°
10/04/2014Choisir et implanter un outil de de test
FOCUS : LA MATRICE D’ÉVALUATION
8
Fonctionnalité / Exigence Poids
Note
SquashTM
1.4.0
Note
TestLink
1.9.3
Note
Zephyr4.0
Note
Refertest
1.0.9.g
01 - Adéquation fonctionnelle 3.49 2.94 3.02 3.71
01 - Exigence 3.85 3.11 3.08 3.67
Les attributs de base d'une Exigence sont-ils bien disponibles : Référence, Nom, Description,
Auteur
64 4 4 4 3
Existe-t-il un attribut 'Criticité' sur l'objet Exigence ? 16 4 1 3 4
Existe-t-il un attribut 'Statut' (workflow) sur l'objet Exigence ? (eg : en cours, à valider, validée,
obsolète)
16 4 4 2 4
06- Exécution 3.86 3.27 3.39 4.00
Le statut et l'horodatage sont-ils bien enregistrés pour chaque étape de l'exécution ? 16 4 0 4 4
Les attributs de base sont-ils bien disponibles : Résultat constaté, Statut (à exécuter, obsolète…),
Date, Utilisateur
64 4 4 4 4
Existe-t-il des champs (timestamp de début et de fin) permettant de tracer le temps passé par les
testeurs à l'exécution des tests ?
1 1 0 0 4
02 - Ergonomie et Prise en main 3.80 2.48 2.52 3.53
01- Facilité d'utilisation 3.73 2.76 2.80 3.73
L'outil propose t-il une ergonomie efficace (copier/coller, glisser/déposer, limitation du nombre de
clics, écrans facilement lisibles) ?
64 4 2 4 3
L'outil dispose t-il d'un éditeur de texte riche permettant la mise en forme avancée des textes saisis
(puces, liens hypertexte, polices, couleurs, images…) ?
4 4 4 1 4
02- Facilité d'appropriation 3.96 1.83 1.87 3.06
La réalisation des actions de base est-elle suffisamment intuitive pour qu'un nouvel utilisateur puisse
se débrouiller seul ? (les actions de base sont : créer /consulter une exigence, créer/consulter un cas
de test / Exécuter des tests)
64 4 2 2 3
Un guide utilisateur complet est-il disponible en français ? 16 4 0 0 4
03 - Qualité technique 3.77 3.64 2.87 1.97
01- Implantation et portabilité 3.81 3.63 2.45 1.02
La configuration minimum pour le poste serveur est-elle faible ? 4 4 4 3 2
Les systèmes d'exploitations sur lesquels tournent le logiciel sont-il compatibles avec les prérequis
du client ? (préciser en commentaires les OS et leurs version)
16 4 3 3 1
Quel degré de compatibilité l'outil a-t-il avec les bases de données ? 16 4 1 1 1
La configuration minimum pour le poste client est-elle faible ? 16 4 4 3 3
L'outil supporte t-il les navigateurs les plus courants (IE, Firefox, Chrome). Si non, préciser les
restrictions
64 4 4 4 0
Pondération des questions
Notes des différents outils
Moyenne pondérée par sous-critère
Moyenne pondérée par critère
10/04/2014Choisir et implanter un outil de de test
LE MÉCANISME DE CONTRIBUTION
910/04/2014
• BÉNÉFICES :
– Mise à disposition de grilles vierges d’évaluation
– Accès à l’ensemble des évaluations réalisées (panels d’outils, versions d’outils)
– Accès aux résultats intermédiaires consolidés
Ouverture d’un
compte Google
Docs
Evaluation Soumission Relecture
Consolidation
Choisir et implanter un outil de de test
LA NOTATION ET LES PONDÉRATIONS
• Chaque question est évaluée selon une note de 0 à 4 :
–   la fonctionnalité / l’exigence n’est pas du tout satisfaite
Exemple : pas de fonctionnalité d’export
–   la fonctionnalité proposée fait le « minimum »
Exemple : l’intégralité des champs « critiques » ne sont pas disponibles dans l’export.
–   la fonctionnalité répond partiellement au besoin
Exemple : tous les champs n’apparaissent pas dans l’export.
–   la fonctionnalité répond au besoin mais pourrait-être améliorée
Exemple : export possible et complet, mais l’export prend beaucoup de temps (1 à 2 minutes).
–   la fonctionnalité est pleinement satisfaite, de façon optimale
Exemple : fonctionnalité d’export de tout ou partie de la bibliothèque, avec l’exhaustivité des champs et dans différents formats
cibles.
• Chaque question est pondérée :
– Pondération en base 4 :
● 64  Exigences critiques/bloquantes
● 16  Exigences importantes
● 4  Exigences mineures, de confort
● 1  Exigences mineures
– Pondération discriminante = notes globales plus
éclatées et mieux représentatives des exigences.
– Pondérations à faire varier en fonction de ses besoins.
1010/04/2014Choisir et implanter un outil de de test
DOSSIER DE CHOIX
D’OUTILLAGE
1110/04/2014Choisir et implanter un outil de de test
PRÉSENTATION DU DOSSIER DE CHOIX
1210/04/2014
• OBJECTIFS :
– Rappeler les besoins
– Evaluer de manière objective les outils short-listés par rapport aux besoins
– Le cas échéant, cadre le POC pour vérifier l’adéquation de l’outil
– Identifier l’outil de test répondant aux besoins
– Arriver à un GO/ NO GO pour l’étude d’implantation
• OUTILS:
– Matrice des évaluations du CQL(et jeux de pondération associés)
• DÉMARCHE
– Adapter la grille d’évaluation aux besoins identifiés via le jeu des pondérations
– Ajuster, valider l’évaluation des outils des tests.
– Synthétiser et restituer les résultats adaptés à votre contexte
Choisir et implanter un outil de de test
LES ÉVALUATIONS D’HENIX
• DOCUMENTS DE RÉFÉRENCE :
– Matrice de synthèse des résultats des outils évalués par Henix pour le Club
Qualité Logicielle.
– Résultats bruts des évaluations (disponibles sur le Google Docs)
• OUTILS ÉVALUÉS
1310/04/2014
Outils open source
LA référence
open source
Outils propriétaires
ENTERPRISE EDITION (*)Outil utilisé
par l’un de nos
clients
Outil cité sur
notre forum
Leader marché
Choisir et implanter un outil de de test
ANNÉE DE CRÉATION
MODÈLE
VERSION
EDITEUR
COMMERCIALISATION
COÛTS D’ACHAT
SUPPORT / MAINTENANCE
DÉPLOIEMENT
ROADMAP
RÉFÉRENCES
PLATEFORMES EN PRODUCTION
Informations
GESTION DU PATRIMOINE Exigences Cas de test Campagnes
GESTION DES ANOMALIES Intégré Interfacé
GESTION DE L’AUTOMATISATION Intégré Interfacé
PLUGINS / EXTENSIONS
Périmètre
1410/04/2014
1989 (Mercury Interactive)
Propriétaire
ALM 11 (HP ALM 12 sortie en mars 2014)
HP
On-Premise ou SaaS
8k€ par an par utilisateur
18 à 20% du coût d’achat
Client semi-léger (Active X)
Pas de visibilité publique
FICHE D’OUTIL : HP ALM 11
De nombreuses extensions vers (produits HP (PPM, Sprinter), SAP..)
QTP / UFT





 
Une majorité de Grands Comptes (Banque, Assurances…)
Jusqu’à 2000 utilisateurs simultanés en Europe, 20 000 nommés
Choisir et implanter un outil de de test
LES RÉSULTATS : HP ALM 11
1510/04/2014
Un outil complet et
modulable
Un outil stable et performant
mais au déploiement
contraignant
Un outil intuitif mais
demandant un effort
initial à la prise en main
Un outil populaire,
mature et pérenne
Choisir et implanter un outil de de test
LES RÉSULTATS : HP ALM 11
POINTS FORTS :
 Richesse fonctionnelle, outil le plus complet
 Leader historique
 Reporting riche et personnalisable
LIMITES :
 Pas de gestion inter projets
 Gestion multi projets non native
 Coûts importants (licences et maintenance)
 « Faux » client léger (ActiveX)
 Socle technique vieillissant
 Faible qualité de service du support
POINTS DE VIGILANCE :
 Outil complexe avec un coût d’administration
1610/04/2014Choisir et implanter un outil de de test
ANNÉE DE CRÉATION
MODÈLE
VERSION
EDITEUR
COMMERCIALISATION
COÛTS D’ACHAT
SUPPORT / MAINTENANCE
DÉPLOIEMENT
ROADMAP
RÉFÉRENCES
PLATEFORMES EN PRODUCTION
Informations
GESTION DU PATRIMOINE Exigences Cas de test Campagnes
GESTION DES ANOMALIES Intégré Interfacé
GESTION DE L’AUTOMATISATION Intégré Interfacé
PLUGINS / EXTENSIONS
Périmètre
1710/04/2014
?
Propriétaire
1.0.9.g
Referty
On-Premise
17 430 € pour 10 utilisateurs (avec plugins)
20% du coût d’achat
Client lourd
Pas de visibilité publique
FICHE D’OUTIL : REFERTEST 1.0.G
Plugins vers des BBD commerciales
TestComplete, QTP, Sélénium…
JIRA, Mantis, Bugzilla





 
SSII
?
Choisir et implanter un outil de de test
LES RÉSULTATS : REFERTEST 1.0.G
1810/04/2014
Un outil complet et
avancé
Un outil de type ‘client lourd’,
contraignant dans son
déploiement
Un outil ergonomique
et intuitif
Un outil peu connu,
opaque et dont la
pérennité est sujette à
caution
Choisir et implanter un outil de de test
LES RÉSULTATS : REFERTEST 1.0.G
POINTS FORTS :
 Fonctionnel riche
 Bonne ergonomie
LIMITES :
 Technologie client lourd
 Pas de communauté utilisateur (pas de forum)
 Coûts élevés
POINTS DE VIGILANCE :
 Pérennité (développé par une petite structure (2p)
1910/04/2014Choisir et implanter un outil de de test
ANNÉE DE CRÉATION
MODÈLE
VERSION
EDITEUR
COMMERCIALISATION
COÛTS D’ACHAT
SUPPORT / MAINTENANCE
DÉPLOIEMENT
ROADMAP
RÉFÉRENCES
PLATEFORMES EN PRODUCTION
Informations
GESTION DU PATRIMOINE Exigences Cas de test Campagnes
GESTION DES ANOMALIES Intégré Interfacé
GESTION DE L’AUTOMATISATION Intégré Interfacé
PLUGINS / EXTENSIONS
Périmètre
2010/04/2014
2007
Propriétaire
4.0 (version 4.5 sortie en juillet 2013)
Zephyr
On-Premise (SaaS annoncé)
960 $/an/utilisateur
Inclus
Client léger
Pas de visibilité
FICHE D’OUTIL : ZÉPHYR 4.0
QTP, Jenkins, Sélénium…
JIRA, Bugzilla





 
AOL, Barnes & Nobles, Dell
?
Choisir et implanter un outil de de test
LES RÉSULTATS : ZÉPHYR 4.0
2110/04/2014
Un outil incomplet sur
les fonctionnalités
critiques
Un outil full web, facilement
déployable et stable
Un outil demandant un
effort d’appropriation
conséquent (workflow
de travail peu intuitif)
Un outil mature, actif
mais encore peu connu
Choisir et implanter un outil de de test
LES RÉSULTATS : ZÉPHYR 4.0
POINTS FORTS :
 Module de reporting très riche
 Adapté aux méthodes agiles (gestion des sprints)
 Intégration native avec JIRA
LIMITES :
 IHM trop riche et confuse
 Technologie Flash©
POINTS DE VIGILANCE :
 Contrainte d’organisation du patrimoine de test autour de la
notion de version applicative
2210/04/2014Choisir et implanter un outil de de test
ANNÉE DE CRÉATION
MODÈLE
VERSION
EDITEUR
COMMERCIALISATION
COÛTS D’ACHAT
SUPPORT / MAINTENANCE
DÉPLOIEMENT
ROADMAP
RÉFÉRENCES
PLATEFORMES EN PRODUCTION
Informations
GESTION DU PATRIMOINE Exigences Cas de test Campagnes
GESTION DES ANOMALIES Intégré Interfacé
GESTION DE L’AUTOMATISATION Intégré Interfacé
PLUGINS / EXTENSIONS
Périmètre
2310/04/2014
2005
Open Source
1.9.6 (version 1.9.9 sortie en novembre 2013)
Communauté
On-Premise
Gratuit
Pas de support / maintenance professionnel
Client léger
Pas de visibilité publique
FICHE D’OUTIL: TESTLINK 1.9.6
Jenkins (réalisé pour Testlink)
JIRA, Mantis, Bugzilla, Trac





 
Grands Comptes (Ministères, Banque, Assurance)
Quelques dizaines d’utilisateurs concurrents
Choisir et implanter un outil de de test
LES RÉSULTATS : TESTLINK 1.9.6
24
Des manques sur la
gestion transverse, des
exigences, des anomalies
et de l’automatisation
Un outil full web, facilement
déployable mais incertain sur
les perfs
Un outil peu intuitif,
avec quelques principes
ergonomiques mais peu
de doc.
Un outil populaire,
mature mais au mode
de gouvernance opaque
10/04/2014Choisir et implanter un outil de de test
LES RÉSULTATS : TESTLINK 1.9.6
POINTS FORTS :
 Communauté d’utilisateur importante (la plus active des
outils open source)
 Technologie full web
LIMITES :
 Workflow de travail déroutant, peu intuitif
 Projet peu actif (une release majeure tous les ~18 mois)
 Pas de support professionnel
POINTS DE VIGILANCE :
 Performance ? (modèle de données concentré sur une
table principale, mélange de code objet et non objet)
 Commiters sont peu nombreux et peu ouverts à
l’intégration de développements issus de sociétés tierces.
2510/04/2014Choisir et implanter un outil de de test
ANNÉE DE CRÉATION
MODÈLE
VERSION
EDITEUR
COMMERCIALISATION
COÛTS D’ACHAT
SUPPORT / MAINTENANCE
DÉPLOIEMENT
ROADMAP
RÉFÉRENCES
PLATEFORMES EN PRODUCTION
Informations
GESTION DU PATRIMOINE Exigences Cas de test Campagnes
GESTION DES ANOMALIES Intégré Interfacé
GESTION DE L’AUTOMATISATION Intégré Interfacé
PLUGINS / EXTENSIONS
Périmètre
2610/04/2014
2011
Open source
1.9.0
Henix
On-Premise (version open source ou commerciale) ou SaaS
Gratuit sur open source ou 6 000 €/an (licence) ou 15 000€/an (SaaS)
Inclus avec licence et SaaS
Client léger
Visibilité jusqu’à fin 2014
FICHE D’OUTIL : SQUASH TM 1.9.0
Reporting (et LDAP, Wizard avec licence commerciale)
Natif avec Squash TA
JIRA, Mantis





 
Grands Comptes (Ministères, Banque, Assurances, Aviation…)
Une centaine d’utilisateurs concurrents
Choisir et implanter un outil de de test
LES RÉSULTATS : SQUASH TM 1.9.0
2710/04/2014
Des fonctionnalités
complètes et matures à
améliorer sur la gestion
transverse
Un outil full web, facilement
déployable et stable
Un outil intuitif, facile à
prendre en main et bien
documenté
Un outil actif, mature,
transparent mais plus
récent et moins
populaire
Choisir et implanter un outil de de test
LES RÉSULTATS : SQUASH TM 1.9.0
POINTS FORTS :
 Bonne couverture fonctionnelle
 Nativement multi et inter projets
 Technologie full web
 Ergonomique et intuitif
LIMITES :
 Peu d’API à ce jour
 Options basiques de reporting
POINTS DE VIGILANCE :
 Outil relativement récent (depuis septembre 2011)
2810/04/2014Choisir et implanter un outil de de test
LA SYNTHÈSE
2910/04/2014
Avoir des fonctionnalités riches,
matures, et complètes...
Permettre un déploiement facile, rapide
et sans contraintes, notamment à des
utilisateurs externes à l’organisation...
Faciliter l’appropriation par les
futurs utilisateurs...
Réduire mes coûts, avec une
garantie de support/maintenance...
Pouvoir faire évoluer l’outil pour
couvrir mes besoins spécifiques...
Choisir et implanter un outil de de test
LA CHECK-LIST
D’IMPLANTATION
3010/04/2014Choisir et implanter un outil de de test
LA DÉMARCHE
• OBJECTIFS :
– Cadrer les modalités de la mise en œuvre : Quelle architecture technique cible?
Quelle stratégie de migration ? Quel accompagnement du changement
• OUTILS:
– Check-lists d’implantation du choix d’outil
• DÉMARCHE
– Identifier, valider la faisabilité technique et (faire) chiffrer des éventuelles
évolutions fonctionnelles.
– Définir la stratégie de migration.
– Cadrer et chiffrer la phase d’accompagnement au déploiement.
3110/04/2014Choisir et implanter un outil de de test
LA CHECK-LIST D’IMPLANTATION
1/ STRATÉGIE DE DÉPLOIEMENT
– Quelle est l’architecture cible ?
– Quels sont les outils à intégrer dans la plateforme de recette (?
 Quels sont les flux entre les différents outils ? (référentiel de tests, de jeux de données, d’anomalies)
 Un lien avec la plateforme d’intégration continue doit-il être implémenté ? Un lien avec le gestionnaire
de configuration ?
– Quel dimensionnement des machines pour quelle utilisation cible ?
– Quelle architecture de déploiement ?
– Quelle procédures d’exploitation ? (monitoring, backup, reprise sur incident)
– Quel positionnement de l’outil par rapport aux projets ?
2/ STRATÉGIE DE MIGRATION
– Quelles sont les données à reprendre ? (exigences, cas de test, campagnes,
anomalies, utilisateurs, projets, paramétrages, etc...).
– Quel est le patrimoine existant ? (homogénéité, structuration, volumétrie)
– Quelles sont les contraintes? (planning, volumétrie, risques techniques)
– Quelles sont les modalités de récupération des données ? (migrateurs, import)
– Un support/maintenance a-t-il été mis à la disposition des utilisateurs ?
3210/04/2014Choisir et implanter un outil de de test
LA CHECK-LIST D’IMPLANTATION (SUITE)
3/ ACCOMPAGNEMENT DU CHANGEMENT
– Quelles sont les conventions d’utilisation de l’outil ?
– Quels sont les process cibles ?
– Quelles sont les normes et bonnes pratiques ?
– Des formations pour les utilisateurs ont-elles été planifiées ?
– Une assistance d’expertise fonctionnelle a-t-elle été mise à disposition des
utilisateurs ?
– Un accompagnement à la prise en main de l’outil a-t-il été mis en place ?
– Une cellule d’administration technique a-t-elle été mise à disposition ? Un
support (gestion des rôles et des droits) ?
– Quel process de mise à disposition de l’outil pour les projets ?
3310/04/2014Choisir et implanter un outil de de test
1 of 33

Recommended

Automatisation des tests by
Automatisation des testsAutomatisation des tests
Automatisation des testsZhu Wei QI
8.5K views22 slides
Pipeline Devops - Intégration continue : ansible, jenkins, docker, jmeter... by
Pipeline Devops - Intégration continue : ansible, jenkins, docker, jmeter...Pipeline Devops - Intégration continue : ansible, jenkins, docker, jmeter...
Pipeline Devops - Intégration continue : ansible, jenkins, docker, jmeter...XavierPestel
805 views178 slides
CI-Jenkins.pptx by
CI-Jenkins.pptxCI-Jenkins.pptx
CI-Jenkins.pptxMEDOBEST1
67 views25 slides
Automatisation des tests - objectifs et concepts - partie 2 by
Automatisation des tests  - objectifs et concepts - partie 2Automatisation des tests  - objectifs et concepts - partie 2
Automatisation des tests - objectifs et concepts - partie 2Christophe Rochefolle
2.4K views48 slides
Selenium Tutorial Java by
Selenium Tutorial  JavaSelenium Tutorial  Java
Selenium Tutorial JavaAhmed HARRAK
414 views36 slides
Introduction à l’intégration continue avec Jenkins by
Introduction à l’intégration continue avec JenkinsIntroduction à l’intégration continue avec Jenkins
Introduction à l’intégration continue avec JenkinsEric Hogue
9.1K views94 slides

More Related Content

What's hot

Xporter for Jira - Overview by
Xporter for Jira - OverviewXporter for Jira - Overview
Xporter for Jira - OverviewXpand IT
1.4K views31 slides
Scub Foundation, usine logicielle Java libre by
Scub Foundation, usine logicielle Java libreScub Foundation, usine logicielle Java libre
Scub Foundation, usine logicielle Java libreStéphane Traumat
9.3K views78 slides
Robot Framework Introduction & Sauce Labs Integration by
Robot Framework Introduction & Sauce Labs IntegrationRobot Framework Introduction & Sauce Labs Integration
Robot Framework Introduction & Sauce Labs IntegrationSauce Labs
10.9K views19 slides
Introduction à la qualité logicielle (1/5) by
Introduction à la qualité logicielle (1/5)Introduction à la qualité logicielle (1/5)
Introduction à la qualité logicielle (1/5)Sylvain Leroy
1.7K views14 slides
Test logiciel by
Test logicielTest logiciel
Test logicielYouness Boukouchi
11.1K views68 slides
Behavior Driven Development and Automation Testing Using Cucumber by
Behavior Driven Development and Automation Testing Using CucumberBehavior Driven Development and Automation Testing Using Cucumber
Behavior Driven Development and Automation Testing Using CucumberKMS Technology
34.8K views45 slides

What's hot(20)

Xporter for Jira - Overview by Xpand IT
Xporter for Jira - OverviewXporter for Jira - Overview
Xporter for Jira - Overview
Xpand IT1.4K views
Scub Foundation, usine logicielle Java libre by Stéphane Traumat
Scub Foundation, usine logicielle Java libreScub Foundation, usine logicielle Java libre
Scub Foundation, usine logicielle Java libre
Stéphane Traumat9.3K views
Robot Framework Introduction & Sauce Labs Integration by Sauce Labs
Robot Framework Introduction & Sauce Labs IntegrationRobot Framework Introduction & Sauce Labs Integration
Robot Framework Introduction & Sauce Labs Integration
Sauce Labs10.9K views
Introduction à la qualité logicielle (1/5) by Sylvain Leroy
Introduction à la qualité logicielle (1/5)Introduction à la qualité logicielle (1/5)
Introduction à la qualité logicielle (1/5)
Sylvain Leroy1.7K views
Behavior Driven Development and Automation Testing Using Cucumber by KMS Technology
Behavior Driven Development and Automation Testing Using CucumberBehavior Driven Development and Automation Testing Using Cucumber
Behavior Driven Development and Automation Testing Using Cucumber
KMS Technology34.8K views
Intégration continue by Klee Group
Intégration continueIntégration continue
Intégration continue
Klee Group5.4K views
Intégration continue et déploiement continue avec Jenkins by Kokou Gaglo
Intégration continue et déploiement continue avec JenkinsIntégration continue et déploiement continue avec Jenkins
Intégration continue et déploiement continue avec Jenkins
Kokou Gaglo1.3K views
Cycles de vie d'un logiciel by Rabia AZIZA
Cycles de vie d'un logicielCycles de vie d'un logiciel
Cycles de vie d'un logiciel
Rabia AZIZA33.4K views
Une (simple) présentation de Apache Maven 2 by teejug
Une (simple) présentation de Apache Maven 2Une (simple) présentation de Apache Maven 2
Une (simple) présentation de Apache Maven 2
teejug1.5K views
[AWSKRUG 컨테이너 소모임] Rancher 기본 입문 by Hyunmin Kim
[AWSKRUG 컨테이너 소모임] Rancher 기본 입문[AWSKRUG 컨테이너 소모임] Rancher 기본 입문
[AWSKRUG 컨테이너 소모임] Rancher 기본 입문
Hyunmin Kim2.8K views
Chp6 - Développement iOS by Lilia Sfaxi
Chp6 - Développement iOSChp6 - Développement iOS
Chp6 - Développement iOS
Lilia Sfaxi4.6K views
Selenium WebDriver avec Java by Ahmed HARRAK
Selenium WebDriver avec Java Selenium WebDriver avec Java
Selenium WebDriver avec Java
Ahmed HARRAK246 views
Développement mobile multi-plateforme avec Flutter by erick G
Développement mobile multi-plateforme avec FlutterDéveloppement mobile multi-plateforme avec Flutter
Développement mobile multi-plateforme avec Flutter
erick G265 views
Xray for Jira 3.0 - What's New? by Xpand IT
Xray for Jira 3.0 - What's New?Xray for Jira 3.0 - What's New?
Xray for Jira 3.0 - What's New?
Xpand IT1.6K views

Similar to 20140410 - Choisir et implanter un outil de test

20130523 04 - Grille d'évaluation - Gestion du patrimoine de test by
20130523 04 - Grille d'évaluation - Gestion du patrimoine de test20130523 04 - Grille d'évaluation - Gestion du patrimoine de test
20130523 04 - Grille d'évaluation - Gestion du patrimoine de testLeClubQualiteLogicielle
967 views11 slides
JFTL 2015 : Choix et déploiement d’un outil de test : Retours d’expérience su... by
JFTL 2015 : Choix et déploiement d’un outil de test : Retours d’expérience su...JFTL 2015 : Choix et déploiement d’un outil de test : Retours d’expérience su...
JFTL 2015 : Choix et déploiement d’un outil de test : Retours d’expérience su...Squash Test
1.6K views34 slides
qualimétrie logiciel - Entreprise Software Analytic - nov 2015 by
qualimétrie logiciel -  Entreprise Software Analytic - nov 2015qualimétrie logiciel -  Entreprise Software Analytic - nov 2015
qualimétrie logiciel - Entreprise Software Analytic - nov 2015Julien Vq
1.4K views59 slides
[Scrum Day 2011] Outillage Agile dans un environnement Microsoft by
[Scrum Day 2011] Outillage Agile dans un environnement Microsoft[Scrum Day 2011] Outillage Agile dans un environnement Microsoft
[Scrum Day 2011] Outillage Agile dans un environnement MicrosoftChristophe HERAL
2.8K views36 slides
Tests utilisateurs mon amour (a11y) by
Tests utilisateurs mon amour (a11y)Tests utilisateurs mon amour (a11y)
Tests utilisateurs mon amour (a11y)vincent aniort
1.1K views29 slides
20111004 05 - Présentation Squash by
20111004 05 - Présentation Squash20111004 05 - Présentation Squash
20111004 05 - Présentation SquashLeClubQualiteLogicielle
489 views12 slides

Similar to 20140410 - Choisir et implanter un outil de test(20)

20130523 04 - Grille d'évaluation - Gestion du patrimoine de test by LeClubQualiteLogicielle
20130523 04 - Grille d'évaluation - Gestion du patrimoine de test20130523 04 - Grille d'évaluation - Gestion du patrimoine de test
20130523 04 - Grille d'évaluation - Gestion du patrimoine de test
JFTL 2015 : Choix et déploiement d’un outil de test : Retours d’expérience su... by Squash Test
JFTL 2015 : Choix et déploiement d’un outil de test : Retours d’expérience su...JFTL 2015 : Choix et déploiement d’un outil de test : Retours d’expérience su...
JFTL 2015 : Choix et déploiement d’un outil de test : Retours d’expérience su...
Squash Test1.6K views
qualimétrie logiciel - Entreprise Software Analytic - nov 2015 by Julien Vq
qualimétrie logiciel -  Entreprise Software Analytic - nov 2015qualimétrie logiciel -  Entreprise Software Analytic - nov 2015
qualimétrie logiciel - Entreprise Software Analytic - nov 2015
Julien Vq1.4K views
[Scrum Day 2011] Outillage Agile dans un environnement Microsoft by Christophe HERAL
[Scrum Day 2011] Outillage Agile dans un environnement Microsoft[Scrum Day 2011] Outillage Agile dans un environnement Microsoft
[Scrum Day 2011] Outillage Agile dans un environnement Microsoft
Christophe HERAL2.8K views
Tests utilisateurs mon amour (a11y) by vincent aniort
Tests utilisateurs mon amour (a11y)Tests utilisateurs mon amour (a11y)
Tests utilisateurs mon amour (a11y)
vincent aniort1.1K views
Accessibilité numérique et Industrialisation @Orange by vincent aniort
Accessibilité numérique et Industrialisation @Orange Accessibilité numérique et Industrialisation @Orange
Accessibilité numérique et Industrialisation @Orange
vincent aniort1.2K views
SharePoint Days Casablanca 2016 - Migration vers SharePoint 2016 et office 365 by Benoit Jester
SharePoint Days Casablanca 2016 - Migration vers SharePoint 2016 et office 365SharePoint Days Casablanca 2016 - Migration vers SharePoint 2016 et office 365
SharePoint Days Casablanca 2016 - Migration vers SharePoint 2016 et office 365
Benoit Jester1.1K views
Boostez le ROI de vos dispositifs digitaux by Idean France
Boostez le ROI de vos dispositifs digitauxBoostez le ROI de vos dispositifs digitaux
Boostez le ROI de vos dispositifs digitaux
Idean France1.3K views
NightClazz Build Tools & Continuous Delivery by Zenika
NightClazz Build Tools & Continuous DeliveryNightClazz Build Tools & Continuous Delivery
NightClazz Build Tools & Continuous Delivery
Zenika5K views
Field research and interaction design: course #6 by nicolas nova
Field research and interaction design: course #6Field research and interaction design: course #6
Field research and interaction design: course #6
nicolas nova1.1K views

More from LeClubQualiteLogicielle

20171122 03 - Les tests de performance en environnement DevOps by
20171122 03 - Les tests de performance en environnement DevOps20171122 03 - Les tests de performance en environnement DevOps
20171122 03 - Les tests de performance en environnement DevOpsLeClubQualiteLogicielle
2.3K views30 slides
20171122 04 - Automatisation - formation et certifications by
20171122 04 - Automatisation - formation et certifications20171122 04 - Automatisation - formation et certifications
20171122 04 - Automatisation - formation et certificationsLeClubQualiteLogicielle
764 views37 slides
20171122 01 - REX : Intégration et déploiement continu chez Engie by
20171122 01 - REX : Intégration et déploiement continu chez Engie20171122 01 - REX : Intégration et déploiement continu chez Engie
20171122 01 - REX : Intégration et déploiement continu chez EngieLeClubQualiteLogicielle
1.1K views30 slides
20171122 02 - Engage developers to use better coding practices by
20171122 02 - Engage developers to use better coding practices20171122 02 - Engage developers to use better coding practices
20171122 02 - Engage developers to use better coding practicesLeClubQualiteLogicielle
269 views21 slides
20171122 - Accueil Club Qualité Logicielle by
20171122 - Accueil Club Qualité Logicielle 20171122 - Accueil Club Qualité Logicielle
20171122 - Accueil Club Qualité Logicielle LeClubQualiteLogicielle
415 views12 slides
20151013 - Crédit Mutuel ARKEA : mise en place d'une traçabilité outillée des... by
20151013 - Crédit Mutuel ARKEA : mise en place d'une traçabilité outillée des...20151013 - Crédit Mutuel ARKEA : mise en place d'une traçabilité outillée des...
20151013 - Crédit Mutuel ARKEA : mise en place d'une traçabilité outillée des...LeClubQualiteLogicielle
460 views23 slides

More from LeClubQualiteLogicielle(20)

20171122 03 - Les tests de performance en environnement DevOps by LeClubQualiteLogicielle
20171122 03 - Les tests de performance en environnement DevOps20171122 03 - Les tests de performance en environnement DevOps
20171122 03 - Les tests de performance en environnement DevOps
20171122 01 - REX : Intégration et déploiement continu chez Engie by LeClubQualiteLogicielle
20171122 01 - REX : Intégration et déploiement continu chez Engie20171122 01 - REX : Intégration et déploiement continu chez Engie
20171122 01 - REX : Intégration et déploiement continu chez Engie
20151013 - Crédit Mutuel ARKEA : mise en place d'une traçabilité outillée des... by LeClubQualiteLogicielle
20151013 - Crédit Mutuel ARKEA : mise en place d'une traçabilité outillée des...20151013 - Crédit Mutuel ARKEA : mise en place d'une traçabilité outillée des...
20151013 - Crédit Mutuel ARKEA : mise en place d'une traçabilité outillée des...
20140410 - Cartographie applicative multi-technologies et analyse d'impact by LeClubQualiteLogicielle
20140410 - Cartographie applicative multi-technologies et analyse d'impact20140410 - Cartographie applicative multi-technologies et analyse d'impact
20140410 - Cartographie applicative multi-technologies et analyse d'impact
20140410 - Implémentation de squash TM-TA - Architecture et méthodologie by LeClubQualiteLogicielle
20140410 - Implémentation de squash TM-TA - Architecture et méthodologie20140410 - Implémentation de squash TM-TA - Architecture et méthodologie
20140410 - Implémentation de squash TM-TA - Architecture et méthodologie
20140410 - Gestion des identités, traçabilité des accés - Analogie avec la qu... by LeClubQualiteLogicielle
20140410 - Gestion des identités, traçabilité des accés - Analogie avec la qu...20140410 - Gestion des identités, traçabilité des accés - Analogie avec la qu...
20140410 - Gestion des identités, traçabilité des accés - Analogie avec la qu...
20130113 02 - TMMI, un modèle pour rentabiliser une organisation de test et a... by LeClubQualiteLogicielle
20130113 02 - TMMI, un modèle pour rentabiliser une organisation de test et a...20130113 02 - TMMI, un modèle pour rentabiliser une organisation de test et a...
20130113 02 - TMMI, un modèle pour rentabiliser une organisation de test et a...
20130113 06 - Travaux de recherche sur la corrélation entre qualité du code e... by LeClubQualiteLogicielle
20130113 06 - Travaux de recherche sur la corrélation entre qualité du code e...20130113 06 - Travaux de recherche sur la corrélation entre qualité du code e...
20130113 06 - Travaux de recherche sur la corrélation entre qualité du code e...
20130113 04 - Tests d'integration et virtualisation - La vision IBM by LeClubQualiteLogicielle
20130113 04 - Tests d'integration et virtualisation - La vision IBM20130113 04 - Tests d'integration et virtualisation - La vision IBM
20130113 04 - Tests d'integration et virtualisation - La vision IBM
20130523 06 - The mathematics the way algorithms think / the mathematics the ... by LeClubQualiteLogicielle
20130523 06 - The mathematics the way algorithms think / the mathematics the ...20130523 06 - The mathematics the way algorithms think / the mathematics the ...
20130523 06 - The mathematics the way algorithms think / the mathematics the ...

20140410 - Choisir et implanter un outil de test

  • 1. Auteurs: Choisir et implanter un outil de test Club Qualité Logicielle – 10/04/2014 Safi Virginius (svirginius@henix.fr)
  • 2. SOMMAIRE 2Choisir et implanter un outil de de test 10/04/2014 • Etat des lieux du marché • La démarche de choix et d’implantation • La matrice d’évaluation • Le dossier de choix d’outillage • L’étude d’implantation
  • 3. ETAT DES LIEUX DU MARCHÉ • L’offre d’outillage de gestion des patrimoines de test est en pleine expansion et propose de plus en plus de solutions : propriétaire ou open source, client lourd ou léger, en mode client-serveur ou SaaS, avec un bugtracker natif ou interfacé, etc.. 3 • Face à cette multiplication de l’offre, comment s’assurer que l’outil choisi permet une gestion des exigences, des cas et pas de test, des exécutions et des anomalies et répond à ses besoins spécifiques ? Choisir et implanter un outil de de test
  • 4. LA DÉMARCHE DE CHOIX ET D’IMPLANTATION • OBJECTIFS : – Présenter une méthodologie de choix et d’implantation d’outillage structurée, factuelle, transposable. • DÉMARCHE – Identifier les besoins – Choisir l’outillage adapté au moyen du dossier de choix – Cadrer l’implantation de l’outil cible en réalisant une étude préalable • LIVRABLES – Matrice d’évaluation – Dossier de choix d’outillage – Check-list de l’étude d’implantation 410/04/2014 Identification des besoins Etude de choix d’outillage Etude d’implantation d’outillage POC POCPas de POC Choisir et implanter un outil de de test
  • 5. LES LIVRABLES EN MARQUE BLANCHE • Trois livrables principaux sont donc proposés en marque blanche : une matrice d’évaluation, un dossier de choix d’outillage et une check-list d’implantation. 5Choisir et implanter un outil de de test Matrice d’évaluation Dossier de choix d’outillage Etude d’implantation CHOIXDEL’OUTIL IMPLEMENTATION DUCHOIXDEL’OUTIL La version 2014-1 de ces livrables sera disponible en téléchargement libre sur le site du Club Qualité Logicielle et à terme sur le site du projet Squash au format .xls pour la matrice d’évaluation et .ppt pour le dossier de choix et la check-list d’implantation.
  • 6. LA MATRICE D’ÉVALUATION 610/04/2014Choisir et implanter un outil de de test
  • 7. LES AXES D’ÉVALUATION L’évaluation réalisée pour chaque outil se base sur cinq axes répondant aux besoins identifiés pour un gestionnaire de patrimoine de test: I. Adéquation fonctionnelle : – 10 critères : II. Ergonomie et prise en main : – L’outil est-il facile à utiliser ? A appréhender ? – Le workflow de travail est-il efficace ? Favorise-t-il la productivité ? III. Qualité technique : – L’outil est-il facile à déployer ? A exploiter ? – Est-il performant ? Stable ? – Est-il facilement interfaçable avec des systèmes tiers ? IV. Pérennité : – La communauté des développeurs ou l’éditeur est-il actif ? Réactif ? – L’outil est-il populaire ? La communauté des utilisateurs est-elle importante ? Active ? – Quel est le mode gouvernance ? V. Coûts : – Quel coût de licence ? De support/maintenance ? – Quelle stratégies d’accès aux versions majeures ? 7 1.Exigences 2.Cas de test 3.Pas de Test 4.Scénarios 5.Campagnes 6.Exécutions 7.Anomalies 8.Transverse 9.Administration 10.Automatisat° 10/04/2014Choisir et implanter un outil de de test
  • 8. FOCUS : LA MATRICE D’ÉVALUATION 8 Fonctionnalité / Exigence Poids Note SquashTM 1.4.0 Note TestLink 1.9.3 Note Zephyr4.0 Note Refertest 1.0.9.g 01 - Adéquation fonctionnelle 3.49 2.94 3.02 3.71 01 - Exigence 3.85 3.11 3.08 3.67 Les attributs de base d'une Exigence sont-ils bien disponibles : Référence, Nom, Description, Auteur 64 4 4 4 3 Existe-t-il un attribut 'Criticité' sur l'objet Exigence ? 16 4 1 3 4 Existe-t-il un attribut 'Statut' (workflow) sur l'objet Exigence ? (eg : en cours, à valider, validée, obsolète) 16 4 4 2 4 06- Exécution 3.86 3.27 3.39 4.00 Le statut et l'horodatage sont-ils bien enregistrés pour chaque étape de l'exécution ? 16 4 0 4 4 Les attributs de base sont-ils bien disponibles : Résultat constaté, Statut (à exécuter, obsolète…), Date, Utilisateur 64 4 4 4 4 Existe-t-il des champs (timestamp de début et de fin) permettant de tracer le temps passé par les testeurs à l'exécution des tests ? 1 1 0 0 4 02 - Ergonomie et Prise en main 3.80 2.48 2.52 3.53 01- Facilité d'utilisation 3.73 2.76 2.80 3.73 L'outil propose t-il une ergonomie efficace (copier/coller, glisser/déposer, limitation du nombre de clics, écrans facilement lisibles) ? 64 4 2 4 3 L'outil dispose t-il d'un éditeur de texte riche permettant la mise en forme avancée des textes saisis (puces, liens hypertexte, polices, couleurs, images…) ? 4 4 4 1 4 02- Facilité d'appropriation 3.96 1.83 1.87 3.06 La réalisation des actions de base est-elle suffisamment intuitive pour qu'un nouvel utilisateur puisse se débrouiller seul ? (les actions de base sont : créer /consulter une exigence, créer/consulter un cas de test / Exécuter des tests) 64 4 2 2 3 Un guide utilisateur complet est-il disponible en français ? 16 4 0 0 4 03 - Qualité technique 3.77 3.64 2.87 1.97 01- Implantation et portabilité 3.81 3.63 2.45 1.02 La configuration minimum pour le poste serveur est-elle faible ? 4 4 4 3 2 Les systèmes d'exploitations sur lesquels tournent le logiciel sont-il compatibles avec les prérequis du client ? (préciser en commentaires les OS et leurs version) 16 4 3 3 1 Quel degré de compatibilité l'outil a-t-il avec les bases de données ? 16 4 1 1 1 La configuration minimum pour le poste client est-elle faible ? 16 4 4 3 3 L'outil supporte t-il les navigateurs les plus courants (IE, Firefox, Chrome). Si non, préciser les restrictions 64 4 4 4 0 Pondération des questions Notes des différents outils Moyenne pondérée par sous-critère Moyenne pondérée par critère 10/04/2014Choisir et implanter un outil de de test
  • 9. LE MÉCANISME DE CONTRIBUTION 910/04/2014 • BÉNÉFICES : – Mise à disposition de grilles vierges d’évaluation – Accès à l’ensemble des évaluations réalisées (panels d’outils, versions d’outils) – Accès aux résultats intermédiaires consolidés Ouverture d’un compte Google Docs Evaluation Soumission Relecture Consolidation Choisir et implanter un outil de de test
  • 10. LA NOTATION ET LES PONDÉRATIONS • Chaque question est évaluée selon une note de 0 à 4 : –   la fonctionnalité / l’exigence n’est pas du tout satisfaite Exemple : pas de fonctionnalité d’export –   la fonctionnalité proposée fait le « minimum » Exemple : l’intégralité des champs « critiques » ne sont pas disponibles dans l’export. –   la fonctionnalité répond partiellement au besoin Exemple : tous les champs n’apparaissent pas dans l’export. –   la fonctionnalité répond au besoin mais pourrait-être améliorée Exemple : export possible et complet, mais l’export prend beaucoup de temps (1 à 2 minutes). –   la fonctionnalité est pleinement satisfaite, de façon optimale Exemple : fonctionnalité d’export de tout ou partie de la bibliothèque, avec l’exhaustivité des champs et dans différents formats cibles. • Chaque question est pondérée : – Pondération en base 4 : ● 64  Exigences critiques/bloquantes ● 16  Exigences importantes ● 4  Exigences mineures, de confort ● 1  Exigences mineures – Pondération discriminante = notes globales plus éclatées et mieux représentatives des exigences. – Pondérations à faire varier en fonction de ses besoins. 1010/04/2014Choisir et implanter un outil de de test
  • 11. DOSSIER DE CHOIX D’OUTILLAGE 1110/04/2014Choisir et implanter un outil de de test
  • 12. PRÉSENTATION DU DOSSIER DE CHOIX 1210/04/2014 • OBJECTIFS : – Rappeler les besoins – Evaluer de manière objective les outils short-listés par rapport aux besoins – Le cas échéant, cadre le POC pour vérifier l’adéquation de l’outil – Identifier l’outil de test répondant aux besoins – Arriver à un GO/ NO GO pour l’étude d’implantation • OUTILS: – Matrice des évaluations du CQL(et jeux de pondération associés) • DÉMARCHE – Adapter la grille d’évaluation aux besoins identifiés via le jeu des pondérations – Ajuster, valider l’évaluation des outils des tests. – Synthétiser et restituer les résultats adaptés à votre contexte Choisir et implanter un outil de de test
  • 13. LES ÉVALUATIONS D’HENIX • DOCUMENTS DE RÉFÉRENCE : – Matrice de synthèse des résultats des outils évalués par Henix pour le Club Qualité Logicielle. – Résultats bruts des évaluations (disponibles sur le Google Docs) • OUTILS ÉVALUÉS 1310/04/2014 Outils open source LA référence open source Outils propriétaires ENTERPRISE EDITION (*)Outil utilisé par l’un de nos clients Outil cité sur notre forum Leader marché Choisir et implanter un outil de de test
  • 14. ANNÉE DE CRÉATION MODÈLE VERSION EDITEUR COMMERCIALISATION COÛTS D’ACHAT SUPPORT / MAINTENANCE DÉPLOIEMENT ROADMAP RÉFÉRENCES PLATEFORMES EN PRODUCTION Informations GESTION DU PATRIMOINE Exigences Cas de test Campagnes GESTION DES ANOMALIES Intégré Interfacé GESTION DE L’AUTOMATISATION Intégré Interfacé PLUGINS / EXTENSIONS Périmètre 1410/04/2014 1989 (Mercury Interactive) Propriétaire ALM 11 (HP ALM 12 sortie en mars 2014) HP On-Premise ou SaaS 8k€ par an par utilisateur 18 à 20% du coût d’achat Client semi-léger (Active X) Pas de visibilité publique FICHE D’OUTIL : HP ALM 11 De nombreuses extensions vers (produits HP (PPM, Sprinter), SAP..) QTP / UFT        Une majorité de Grands Comptes (Banque, Assurances…) Jusqu’à 2000 utilisateurs simultanés en Europe, 20 000 nommés Choisir et implanter un outil de de test
  • 15. LES RÉSULTATS : HP ALM 11 1510/04/2014 Un outil complet et modulable Un outil stable et performant mais au déploiement contraignant Un outil intuitif mais demandant un effort initial à la prise en main Un outil populaire, mature et pérenne Choisir et implanter un outil de de test
  • 16. LES RÉSULTATS : HP ALM 11 POINTS FORTS :  Richesse fonctionnelle, outil le plus complet  Leader historique  Reporting riche et personnalisable LIMITES :  Pas de gestion inter projets  Gestion multi projets non native  Coûts importants (licences et maintenance)  « Faux » client léger (ActiveX)  Socle technique vieillissant  Faible qualité de service du support POINTS DE VIGILANCE :  Outil complexe avec un coût d’administration 1610/04/2014Choisir et implanter un outil de de test
  • 17. ANNÉE DE CRÉATION MODÈLE VERSION EDITEUR COMMERCIALISATION COÛTS D’ACHAT SUPPORT / MAINTENANCE DÉPLOIEMENT ROADMAP RÉFÉRENCES PLATEFORMES EN PRODUCTION Informations GESTION DU PATRIMOINE Exigences Cas de test Campagnes GESTION DES ANOMALIES Intégré Interfacé GESTION DE L’AUTOMATISATION Intégré Interfacé PLUGINS / EXTENSIONS Périmètre 1710/04/2014 ? Propriétaire 1.0.9.g Referty On-Premise 17 430 € pour 10 utilisateurs (avec plugins) 20% du coût d’achat Client lourd Pas de visibilité publique FICHE D’OUTIL : REFERTEST 1.0.G Plugins vers des BBD commerciales TestComplete, QTP, Sélénium… JIRA, Mantis, Bugzilla        SSII ? Choisir et implanter un outil de de test
  • 18. LES RÉSULTATS : REFERTEST 1.0.G 1810/04/2014 Un outil complet et avancé Un outil de type ‘client lourd’, contraignant dans son déploiement Un outil ergonomique et intuitif Un outil peu connu, opaque et dont la pérennité est sujette à caution Choisir et implanter un outil de de test
  • 19. LES RÉSULTATS : REFERTEST 1.0.G POINTS FORTS :  Fonctionnel riche  Bonne ergonomie LIMITES :  Technologie client lourd  Pas de communauté utilisateur (pas de forum)  Coûts élevés POINTS DE VIGILANCE :  Pérennité (développé par une petite structure (2p) 1910/04/2014Choisir et implanter un outil de de test
  • 20. ANNÉE DE CRÉATION MODÈLE VERSION EDITEUR COMMERCIALISATION COÛTS D’ACHAT SUPPORT / MAINTENANCE DÉPLOIEMENT ROADMAP RÉFÉRENCES PLATEFORMES EN PRODUCTION Informations GESTION DU PATRIMOINE Exigences Cas de test Campagnes GESTION DES ANOMALIES Intégré Interfacé GESTION DE L’AUTOMATISATION Intégré Interfacé PLUGINS / EXTENSIONS Périmètre 2010/04/2014 2007 Propriétaire 4.0 (version 4.5 sortie en juillet 2013) Zephyr On-Premise (SaaS annoncé) 960 $/an/utilisateur Inclus Client léger Pas de visibilité FICHE D’OUTIL : ZÉPHYR 4.0 QTP, Jenkins, Sélénium… JIRA, Bugzilla        AOL, Barnes & Nobles, Dell ? Choisir et implanter un outil de de test
  • 21. LES RÉSULTATS : ZÉPHYR 4.0 2110/04/2014 Un outil incomplet sur les fonctionnalités critiques Un outil full web, facilement déployable et stable Un outil demandant un effort d’appropriation conséquent (workflow de travail peu intuitif) Un outil mature, actif mais encore peu connu Choisir et implanter un outil de de test
  • 22. LES RÉSULTATS : ZÉPHYR 4.0 POINTS FORTS :  Module de reporting très riche  Adapté aux méthodes agiles (gestion des sprints)  Intégration native avec JIRA LIMITES :  IHM trop riche et confuse  Technologie Flash© POINTS DE VIGILANCE :  Contrainte d’organisation du patrimoine de test autour de la notion de version applicative 2210/04/2014Choisir et implanter un outil de de test
  • 23. ANNÉE DE CRÉATION MODÈLE VERSION EDITEUR COMMERCIALISATION COÛTS D’ACHAT SUPPORT / MAINTENANCE DÉPLOIEMENT ROADMAP RÉFÉRENCES PLATEFORMES EN PRODUCTION Informations GESTION DU PATRIMOINE Exigences Cas de test Campagnes GESTION DES ANOMALIES Intégré Interfacé GESTION DE L’AUTOMATISATION Intégré Interfacé PLUGINS / EXTENSIONS Périmètre 2310/04/2014 2005 Open Source 1.9.6 (version 1.9.9 sortie en novembre 2013) Communauté On-Premise Gratuit Pas de support / maintenance professionnel Client léger Pas de visibilité publique FICHE D’OUTIL: TESTLINK 1.9.6 Jenkins (réalisé pour Testlink) JIRA, Mantis, Bugzilla, Trac        Grands Comptes (Ministères, Banque, Assurance) Quelques dizaines d’utilisateurs concurrents Choisir et implanter un outil de de test
  • 24. LES RÉSULTATS : TESTLINK 1.9.6 24 Des manques sur la gestion transverse, des exigences, des anomalies et de l’automatisation Un outil full web, facilement déployable mais incertain sur les perfs Un outil peu intuitif, avec quelques principes ergonomiques mais peu de doc. Un outil populaire, mature mais au mode de gouvernance opaque 10/04/2014Choisir et implanter un outil de de test
  • 25. LES RÉSULTATS : TESTLINK 1.9.6 POINTS FORTS :  Communauté d’utilisateur importante (la plus active des outils open source)  Technologie full web LIMITES :  Workflow de travail déroutant, peu intuitif  Projet peu actif (une release majeure tous les ~18 mois)  Pas de support professionnel POINTS DE VIGILANCE :  Performance ? (modèle de données concentré sur une table principale, mélange de code objet et non objet)  Commiters sont peu nombreux et peu ouverts à l’intégration de développements issus de sociétés tierces. 2510/04/2014Choisir et implanter un outil de de test
  • 26. ANNÉE DE CRÉATION MODÈLE VERSION EDITEUR COMMERCIALISATION COÛTS D’ACHAT SUPPORT / MAINTENANCE DÉPLOIEMENT ROADMAP RÉFÉRENCES PLATEFORMES EN PRODUCTION Informations GESTION DU PATRIMOINE Exigences Cas de test Campagnes GESTION DES ANOMALIES Intégré Interfacé GESTION DE L’AUTOMATISATION Intégré Interfacé PLUGINS / EXTENSIONS Périmètre 2610/04/2014 2011 Open source 1.9.0 Henix On-Premise (version open source ou commerciale) ou SaaS Gratuit sur open source ou 6 000 €/an (licence) ou 15 000€/an (SaaS) Inclus avec licence et SaaS Client léger Visibilité jusqu’à fin 2014 FICHE D’OUTIL : SQUASH TM 1.9.0 Reporting (et LDAP, Wizard avec licence commerciale) Natif avec Squash TA JIRA, Mantis        Grands Comptes (Ministères, Banque, Assurances, Aviation…) Une centaine d’utilisateurs concurrents Choisir et implanter un outil de de test
  • 27. LES RÉSULTATS : SQUASH TM 1.9.0 2710/04/2014 Des fonctionnalités complètes et matures à améliorer sur la gestion transverse Un outil full web, facilement déployable et stable Un outil intuitif, facile à prendre en main et bien documenté Un outil actif, mature, transparent mais plus récent et moins populaire Choisir et implanter un outil de de test
  • 28. LES RÉSULTATS : SQUASH TM 1.9.0 POINTS FORTS :  Bonne couverture fonctionnelle  Nativement multi et inter projets  Technologie full web  Ergonomique et intuitif LIMITES :  Peu d’API à ce jour  Options basiques de reporting POINTS DE VIGILANCE :  Outil relativement récent (depuis septembre 2011) 2810/04/2014Choisir et implanter un outil de de test
  • 29. LA SYNTHÈSE 2910/04/2014 Avoir des fonctionnalités riches, matures, et complètes... Permettre un déploiement facile, rapide et sans contraintes, notamment à des utilisateurs externes à l’organisation... Faciliter l’appropriation par les futurs utilisateurs... Réduire mes coûts, avec une garantie de support/maintenance... Pouvoir faire évoluer l’outil pour couvrir mes besoins spécifiques... Choisir et implanter un outil de de test
  • 31. LA DÉMARCHE • OBJECTIFS : – Cadrer les modalités de la mise en œuvre : Quelle architecture technique cible? Quelle stratégie de migration ? Quel accompagnement du changement • OUTILS: – Check-lists d’implantation du choix d’outil • DÉMARCHE – Identifier, valider la faisabilité technique et (faire) chiffrer des éventuelles évolutions fonctionnelles. – Définir la stratégie de migration. – Cadrer et chiffrer la phase d’accompagnement au déploiement. 3110/04/2014Choisir et implanter un outil de de test
  • 32. LA CHECK-LIST D’IMPLANTATION 1/ STRATÉGIE DE DÉPLOIEMENT – Quelle est l’architecture cible ? – Quels sont les outils à intégrer dans la plateforme de recette (?  Quels sont les flux entre les différents outils ? (référentiel de tests, de jeux de données, d’anomalies)  Un lien avec la plateforme d’intégration continue doit-il être implémenté ? Un lien avec le gestionnaire de configuration ? – Quel dimensionnement des machines pour quelle utilisation cible ? – Quelle architecture de déploiement ? – Quelle procédures d’exploitation ? (monitoring, backup, reprise sur incident) – Quel positionnement de l’outil par rapport aux projets ? 2/ STRATÉGIE DE MIGRATION – Quelles sont les données à reprendre ? (exigences, cas de test, campagnes, anomalies, utilisateurs, projets, paramétrages, etc...). – Quel est le patrimoine existant ? (homogénéité, structuration, volumétrie) – Quelles sont les contraintes? (planning, volumétrie, risques techniques) – Quelles sont les modalités de récupération des données ? (migrateurs, import) – Un support/maintenance a-t-il été mis à la disposition des utilisateurs ? 3210/04/2014Choisir et implanter un outil de de test
  • 33. LA CHECK-LIST D’IMPLANTATION (SUITE) 3/ ACCOMPAGNEMENT DU CHANGEMENT – Quelles sont les conventions d’utilisation de l’outil ? – Quels sont les process cibles ? – Quelles sont les normes et bonnes pratiques ? – Des formations pour les utilisateurs ont-elles été planifiées ? – Une assistance d’expertise fonctionnelle a-t-elle été mise à disposition des utilisateurs ? – Un accompagnement à la prise en main de l’outil a-t-il été mis en place ? – Une cellule d’administration technique a-t-elle été mise à disposition ? Un support (gestion des rôles et des droits) ? – Quel process de mise à disposition de l’outil pour les projets ? 3310/04/2014Choisir et implanter un outil de de test