Gfi Informatique entend jouer un rôle majeur auprès de toutes les entreprises qui opèrent leur transformation numérique. Dans cette perspective le Groupe met à disposition des DSI son nouvel ouvrage « Paroles d’experts ». Ce livre est l’aboutissement d’une stratégie de création de contenus digitaux à valeur ajoutée engagée il y a un an et offre 70 conseils d’experts pour accompagner au mieux les entreprises dans tous leurs projets informatiques, quel que soit leur secteur d’activité.
Pour commander le livre : http://www.gfi.fr/fr/groupe/paroles-experts.php
Catalogue de stages et d'alternances - Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
1.
2.
3.
4. Ont contribué à cet ouvrage :
Cyril Carretero, Sylvie Rebaudo, Céline Simon, Murielle Loirat, Antoine Paugam,
Jean-Pierre de Araujo, Marine Nascimento, Guillemette Larivière, Charlène Kienda,
Alice Tricomi, Romain Dorenlot, Sabine de Leissègues.
9. 9
P
ourquoi reprendre dans un livre tous les avis d’experts
publiés sur notre blog ? Pour vous donner envie de
le découvrir ! Que ce soit dans le Digital, la Business
Intelligence, le Testing, le PLM ou le Cloud, nos experts
partagent leurs recommandations pour garantir la réussite
de vos projets. Tous ces avis d’experts vous donneront
probablement des idées et pourquoi pas, vous mettront en
garde contre d’éventuels faux pas.
Le blog de Gfi Informatique parle de ce qui nous tient à cœur,
de ce qui fait l’ADN de notre entreprise : toujours mieux
vous accompagner dans la réussite de vos grands projets
de transformation. Il formalise ce que nous voulons être :
une intelligence collective. Bien plus qu’une entreprise, Gfi
Informatique est véritablement une communauté d’experts
qui échangent des idées pour vous proposer des solutions
toujours plus innovantes et créatrices de valeur.
Ce blog donne plus de valeur à nos (vos) métiers. Choisir
Gfi Informatique, ce n’est plus seulement disposer d’une
combinaison unique de solutions et services informatiques,
c’est aussi accéder à des experts capables de vous accompagner
pour toujours mieux répondre à vos besoins métier.
Bonne lecture et rendez-vous sur notre blog www.enews.gfi.fr.
Vincent Rouaix
Président-directeur général
Gfi Informatique
13. 13
A
ux oubliettes les grands blablas marketing qui vous
expliquent qu’on est les plus forts. Seuls l’authenticité
et le parler-vrai comptent. Nos experts sauront, nous
l’espérons, au travers de leurs conseils et compétences, vous
convaincre de nous faire confiance pour vous accompagner
dans vos grands projets de transformation, et ce quel que soit
votre secteur d’activité.
Cet ouvrage rassemble les retranscriptions des vidéos « 2 mn
pour comprendre » réalisées sur le vif avec nos experts et
publiées en 2014 sur notre blog Gfi Informatique e-news.
Les sujets mis en avant sont, selon nos experts, emblématiques
des préoccupations actuelles de la plupart de nos clients.
Leurs prises de paroles sont assez courtes pour coller à la
durée de l’interview vidéo. Le ton est direct, informel, sans
prétention aucune. Certaines réponses pourraient même vous
surprendre… Normal, leurs prises de position sont totalement
subjectives, mais toujours justifiées par un vécu terrain et des
retours d’expérience indiscutables.
N’hésitez pas à les interpeler directement par mail ou sur les
réseaux sociaux : ils seront ravis de pouvoir échanger avec vous
sur le sujet qui les anime.
Et rendez-vous tout au long de l’année sur notre blog e-news :
www.enews.gfi.fr.
Cyril Carretero
Directeur Marketing & Communication
Gfi Informatique
15. 15
Le rôle du Big Data dans l’expérience utilisateur p.23
Mobile Testing : n’ayez crainte ! p.26
De la BI analytique au BIG analytics p.29
Migrer de Notes vers Office 365 : les pièges à éviter p.31
Centralisation de la production informatique : jusqu’où faut-il
aller ? p.33
Migration vers Office 365 : pourquoi, comment ? p.35
Pourquoi refondre votre plateforme eCommerce ? p.36
Big Data : mi-figue, mi-raisin ? p.38
Comment communiquer de manière innovante avec vos citoyens ?
p.40
Big Data versus BI : y a-t-il match ? p.43
Comment faciliter le dialogue entre direction métier et production
informatique ? p.45
Lutte anti-blanchiment : les banques françaises sont-elles prêtes ?
p.47
Les Tests de Non-Régression (TNR) : je t’aime… moi non plus ?
p.51
ALM & Ingénierie Système : nouveaux défis des industriels dans le
monde du PLM ? p.53
SOMMAIRE
—
16. 16
Solutions Cloud pour les collectivités locales : qu’avez-vous à y
gagner ? p.55
Les « bons indicateurs » de Gestion des Services : comment les
choisir ? p.57
Performance utilisateurs : pourquoi est-ce un sujet d’actualité ? p.60
Les conseils clés pour préparer le lancement de votre plateforme
eCommerce :
1re
partie : d’abord, la stratégie business ! p.63
2e
partie : les métiers, c’est très tôt que vous devez les impliquer p.66
3e
partie : les « IT » à la fin ? Pas tout à fait p.68
Supervision de la sécurité de votre SI : pourquoi privilégier une
solution « made in France » ? p.70
PLM : si c’est bien cadré, c’est bien joué ! p.72
Pourquoi faut-il penser collaboratif au sein d’une Digitale
Workplace ? p.74
Je suis satisfait par ma plateforme BI. Pourquoi migrer ? p.76
Comment faut-il aborder un projet Big Data ? p.78
Tous les tests ne sont pas utiles. Pour viser juste, pensez métier ! p.80
Intégration d’un PLM : quels sont les chantiers à mettre en place
pour réussir un projet PLM ? p.82
Comment va-t-on remplacer les TIP ? p.84
GBCP : quel est l’intérêt du double budget en AE et CP ? p.86
Être un élu connecté en 2014, qu’est-ce que c’est ? p.88
17. 17
Comment améliorer la performance commerciale de votre portail
clients ? p.90
Rationalisation, optimisation, migration de votre SI décisionnel :
pourquoi, comment ? p.92
Optimiser ses pratiques de test d’accord, mais pour quel résultat ?
p.95
Migration PLM : attention, danger ! p.97
BI agile, pourquoi, comment ? p.99
Mobilité : comment sécuriser vos données en cas de perte d’un
device ? p.102
SEPAmail ou comment supprimer la fraude à la signature du
contrat ? p.104
eCommerce : tout ce qu’il ne faut pas faire ! p.105
GBCP : les impacts de la mise en œuvre du décret p.106
L’ANI, un levier social à prise rapide p.108
Améliorer la performance de votre site web : pourquoi, comment ?
p.112
Accès privilèges : talon d’Achille du Système d’Information des
entreprises ? p.114
Tests applicatifs automatisés : oui. Mais comment et à quel prix ?
p.116
Comment modéliser les besoins métiers lors d’un cadrage PLM ?
p.119
18. 18
International : comment le digital passe les frontières ? p.121
Outillage de test : effet de mode ou vraie nécessité ? p.124
Windows Phone est-il adapté au monde de l’entreprise ? p.126
Contrôle des comptabilités informatisées : comment se prémunir
face aux risques fiscaux ? p.128
Comment tirer un maximum de bénéfices du réseau social
d’entreprise Yammer ? p.130
La Marketplace est-elle le nouvel Eldorado du canal de vente ? p.132
Comment aller au-delà de la GRC avec Microsoft Dynamics
CRM ? p.134
Comment adresser efficacement des com’ internes à vos
collaborateurs équipés de Windows Phone ? p.136
Toxicité : comment passer de l’exploit au résultat prévisible ? p.138
Sécurité Cloud : ne pas perdre le contrôle ! p.140
C’est quoi une DRH digitale ? p.143
Comment rendre mon datawarehouse évolutif et pérenne à
moindre coût ? p.145
Comment intégrer une architecture Big Data dans mon
décisionnel ? p.147
Magento Enterprise vs Magento Community : y a-t-il match ? p.149
Comment réussir une expérience utilisateur omnicanal ? p.151
En quoi le Responsive Design améliore-t-il le ROI de vos projets
eCommerce Magento ? p.153
19. 19
Symphony 2 : alternative crédible aux solutions Open Source
eCommerce ? p.154
eCommerce : pensez votre site en fonction de votre cible ! p.155
Supervision : 3 points clés pour être plus proactif p.157
Les gains obtenus par la mise en œuvre d’un Cloud privé dans un
Datacenter p.158
Cloud Migration p.160
Le rôle du Big Data dans l’expérience utilisateur p.162
La facture électronique : une solution win-win entre le secteur
public et ses fournisseurs ! p.165
Comment migrer sa plateforme BI sans y laisser trop de plumes ?
p.168
Comment intégrer efficacement un site eCommerce au sein d’un
Système d’Information ? p.170
En 2015, c’est quoi un bon portail client ? p.171
23. 23
Qu’apporte le Big Data dans le domaine de l’expérience
utilisateur ?
C’est avant tout un sujet qui ne cesse de progresser ! Pour
s’en donner un aperçu, on peut remonter en 1999 et citer
ComScore, un des leaders mondiaux du Digital Marketing qui
offrait un service de comptage des pages Web en mode SaaS.
Le marketing à l’époque essayait de connaître l’évolution du
ranking de son site et d’une vision de son trafic page par page
agrégé à la journée pour mesurer les résultats de ses actions
de push marketing. C’était la « préhistoire » de l’expérience
utilisateur. A la même période, le marketing construisait sa
connaissance client sur les implémentations de produits de
MDM type CEM (Customer Experience Management).
15 ans plus tard, nous disposons d’espaces digitaux d’inves-
tigation beaucoup plus riches et nous avons la possibilité
d’interagir avec le client pour passer du mode monolithique
Web passif de collecte d’informations a posteriori à un
monde interactif multimédia géolocalisé où l’on glisse vers le
client-centrique.
Résumé comme tel, il apparaît évident à tout un chacun
de s’orienter vers des moyens de capter les patterns de
comportement, d’identifier les affinités des clients à un
produit ou à des groupes de produits, d’anticiper l’appétence
à de nouvelles tendances d’achat. Se pose alors la question de
comment accéder à ce nouveau monde. C’est là que le Big
Data intervient.
Alvin Ramgobeen
—
Le rôle du Big Data dans
l’expérience utilisateur
2 janvier 2014
—
24. 24
Quels sont, dans ce cas précis, les enjeux technologiques du
Big Data ?
On peut citer quatre enjeux forts portés par le Big Data :
• Sa capacité à collecter et relier entre autres, des sources
multiples de données issues des canaux Web, réseaux
sociaux, données internes aux ventes, mais également lieux
et contexte d’usage d’un service et de les rendre ingérables
pour des actions spécifiques d’un métier du marketing qui se
spécialise notamment sur le Digital Marketing, la Customer
Experience Management et le Social Collaboration. Nous
sommes sur une fonction support autour du concept de la
DMP ou Data Management Plateforme qui généralement se
base sur un moteur Hadoop ou de plus en plus sur des bases
NoSQL temps réel de type Storm.
• L’apport sur l’analytique (approche machine learning)
est très apprécié en ce sens qu’il apporte des moyens de
détection, d’anticipation et dans certains cas de prévision
en rapprochant des informations et événements non usuel-
lement traités par les mêmes entités dans l’entreprise. Par
exemple, il est aujourd’hui possible de détecter qu’un pour-
centage non négligeable de clients va appeler pour se plaindre
de dysfonctionnents de leur Box TV et ainsi prévoir une prise
en charge adaptée, mais aussi de suivre la dérive d’incidents
concomitant à l’introduction de nouvelles tablettes.
• La prise en compte du décodage du sentiment humain via
le texte et maintenant la voix et qui, depuis les procédés de
lemmatisation ou d’algorithmes en linguistique plus aboutis,
permettent de positionner une réponse, elle aussi, adaptée à
des situations de tension, comme par exemple la redirection
d’un appel vers le bon conseiller ou bien la détection de pré-
férence sur un produit nouveau.
• Enfin, le rôle des objets connectés qui s’immiscent dans
nos vies nous conduisent à revisiter le champ des possibles
en termes de support à notre vie au quotidien et donc une
25. 25
nouvelle fois à notre façon d’interagir dans des contextes
digitalement augmentés.
Quelle démarche adopter face à toutes ces opportunités ?
Nous pouvons constater que l’on peut se doter de son
Home Made ou souscrire à un service SaaS et bien souvent,
la réponse est hybride. Les expérimentations en mode SaaS
se multiplient avec l’apparition de nouveaux services que
les start-up françaises apportent, comme par exemple la
restitution en cartes de chaleur des clics de souris sur les pages
d’un site Web qui permet d’améliorer son ergonomie et ses
ventes, ou encore le design automatique de la Home Page
selon le profil et les préférences de l’utilisateur favorisant la
promotion des services qui sont sensés le concerner, tout en
évitant les effets de saturation/pollution.
Cependant, cela reste avant tout une question de stratégie
plus que d’appariement technologique. La question ne
doit pas rester uniquement sur des attentes opérationnelles
du marketing ou une capacité à l’IT à fournir des briques
applicatives NoSQL intégrées et sécurisées. Les enseigne-
ments des pures players, à l’image d’un Criteo, ou des sociétés
comme les 3 Suisses montrent et démontrent que les questions
doivent se poser en termes d’opportunité à opérer une trans-
formation digitale et surtout à la positionner vis-à-vis de son
cœur de métier. Les changements de rythme business sont
tellement violents qu’il est frappant de voir comment certains
acteurs reprennent de la croissance en se réinventant par l’ap-
plication d’une stratégie de transformation digitale.
***
26. 26
La mobilité aujourd’hui explose. Quel est l’impact sur le
testing ?
Le principal impact de la mobilité concerne la multipli-
cation des tests à réaliser. Il est en effet nécessaire de tester
chacun des terminaux sur lesquels une application est utilisée.
Dans la pratique, on regroupe les tests en fonction des
technologies : Windows Phone, Android, comme tout ce qui
vient du monde Apple.
Quelles que soient les technologies, les tailles des écrans varient
considérablement. Il faut donc intervenir de façon spécifique
pour vérifier que les différents formats de présentation
s’adaptent parfaitement aux différentes tailles d’écrans : c’est
ce que l’on appelle le Responsive Design.
Quels sont les éléments à prendre en compte autour du
mobile testing ?
Tout ce qui traite de la présentation en priorité. Les facteurs
à prendre en compte sont nombreux : format des écrans,
affichage correct, perception, expérience et ressenti de
l’utilisateur.
Tous les sujets d’ordre technologique sont également à
considérer, à commencer par les moyens de communication
entre les terminaux et les applications. Evidemment il existe
les protocoles internet assez simples avec des dérivés Wi-Fi.
Ensuite tous les protocoles de type télécommunications,
comme GPRS, EDGE sont à prendre en compte également.
Enfin, on trouve des protocoles plus spécialisés autour de la
Vidéo On Demand, ou encore des liaisons vers une messagerie
instantanée ou de communication de type mail.
N’oublions pas les tests applicatifs qui concernent l’interaction
François Darphin
—
Mobile Testing : n’ayez crainte !
6 janvier 2014
—
27. 27
entre les applications stockées sur le terminal pour faire
communiquer une application avec la partie GPS (géoloca-
lisation du terminal) par exemple, ou pour avoir de la recon-
naissance H code au sein même des applications.
Par ailleurs, il existe des tests extrêmement techniques de type
reconnaissance et influence des différentes cartes SIM ou des
paramètres intégrés. Les tests liés à l’impact des applications
sur la consommation énergétique (usage de la batterie) ne
sont pas aisés à réaliser non plus, mais bien évidemment
nécessaires.
Enfin dans un contexte multilingue, il faut multiplier les pré-
sentations par le nombre de langues existantes. Cela tient à
la longueur des textes qui varie une fois traduits, mais aussi à
d’éventuels changements d’ordre culturel pour certains pays.
Finalement on constate que le champ des tests à réaliser est
vaste !
Comment peut-on accompagner nos clients dans une
démarche mobile testing ?
A tout moment nous pouvons accompagner nos clients,
soit en amont des projets autour du conseil, soit pendant les
projets pour la réalisation de tests, ou encore durant l’exploi-
tation des applications.
Il existe deux grands domaines de conseil :
Le premier concerne le choix des environnements et des
outils. Les questions à se poser sont les suivantes : doit-on
travailler avec des simulateurs ou avec des outils de prise en
main automatiques ? Doit-on travailler avec des parcs de
terminaux? Doit-on mettre en œuvre des acteurs externes qui
offrent des services intégrés sur ces sujets ?
Le deuxième domaine relève de la stratégie de test : Quels
types de tests dois-je avoir ? Lesquels dois-je choisir ? Pour
quelles raisons ? Comment dois-je assurer ma couverture ?
Comment finalement j’optimise mon effort de tests ?
28. 28
Concernant les projets de test, nos experts sont évidemment
spécialisés à la fois en testing et en mobile. Ils sont particu-
lièrement efficaces en termes de conception ou d’exécution
de test, que ce soit en mode délégation de ressources ou en
Centre de Services, avec ou sans outillage, en fonction de la
demande et des besoins du client.
En mode exploitation « run », c’est la mise en œuvre d’appli-
cations qui surveillent ces applications mobiles.
On compte deux niveaux : un premier niveau appelé analytics
existe déjà dans le monde Web et dans celui des mobiles.
L’analytics permet de recueillir des statistiques sur les usages
des applications en fonction de la typologie des terminaux
et de mieux cibler les tests en fonction des usages les plus
fréquents. Dans un deuxième temps, on peut aller un petit
peu plus loin avec des applications de type APM (Application
de Performance Management) qui permettent des analyses
extrêmement détaillées, par zone géographique ou par
typologie de transactions utilisées dans l’application. Enfin,
elles permettent de donner une information extrêmement
pertinente en termes d’escalade en cas de problèmes
d’exploitation.
***
29. 29
Qu’est-ce que la BI analytique et le BIG analytics ?
Tous nos clients sont désormais dotés d’entrepôts de données
et de solutions de business intelligence. Pour dépasser les
services rendus par la BI dite traditionnelle, l’approche par les
statistiques permettent d’améliorer le diagnostic, la prédiction
et la prescription. Nous sommes dans le monde de la BI
analytique.
Prenons l’exemple d’un site eCommerce. La phase de
diagnostic va permettre d’identifier, de segmenter les com-
portements « profils » des clients appétents à une offre. La
phase de prédiction va permettre de quantifier cette appétence
à l’aide de score datamining et la phase de prescription va
permettre de proposer directement à un client qui se connecte,
l’offre à laquelle il sera le plus appétent. Dans cet exemple
les contraintes fortes, comme la volumétrie et la nécessité
d’un temps de réponse court, imposent l’implémentation de
solution du monde Big Data. On parle alors d’environnement
Big Data et par extension de Big Analytics.
Quelles sont les solutions sur le marché du BIG analytics ?
Il en existe deux sortes, selon que l’on souhaite un support
éditeur avec une prise en main assistée et ergonomique, ou
bien de type Open Source pour des besoins de haute précision
des modèles, ou des raisons de contraintes de coût.
La plupart des solutions proposées par les éditeurs comportent
des solutions de data visualisation compatibles avec des envi-
ronnements Big Data.
Les solutions de Big Analytics s’évaluent sur trois critères : le
niveau d’ergonomie de la data visualisation, les fonctionnalités
Sébastien Dupuis
—
De la BI analytique au
BIG analytics
8 janvier 2014
—
30. 30
d’analytique embarquées permettant l’implémentation du
diagnostic, de la prédiction et de la prescription et sa capacité
à fonctionner en environnement Big Data. Aujourd’hui
certaines solutions éditeurs comme par exemple SAS Visual
Analytics ou bien encore la suite Infinit Insight de SAP,
proposent un bon compromis à ces trois critères. A cela, il
faut ajouter l’avancée de projet Open Source comme Pyhton
ou D3JS pour la data visualisation, ou bien R et Yarn pour la
partie analytics sur les framework Hadoop.
Quelle est l’approche de Gfi Informatique sur la BI
analytics et sur le Big Data ?
Que l’on soit dans un environnement Big Data ou pas, un
projet analytique est guidé par les données et l’adéquation des
données avec le cas d’usage que l’on souhaite traiter. Afin de
répondre à cette problématique, Gfi Informatique démarre
ses projets Big Data par une étude orientée « data driven »
qui permet de faire le point sur les données disponibles et
l’adéquation avec le cas métier à investiguer.
Que propose Gfi Informatique pour accompagner ses
clients dans leur transition vers le Big Data ?
Gfi Informatique vous propose d’échanger lors d’un atelier
d’une demi-journée sur les données et les cas d’usage à traiter.
A titre d’exemple, un grand nom de l’aéronautique français
fait confiance à Gfi Informatique depuis 2010 dans le cadre
d’un projet de maintenance prédictive afin de limiter les
immobilisations au sol de ses avions, soit le facteur le plus
important de coût pour les compagnies aériennes.
***
31. 31
Est-ce compliqué de migrer de Notes vers Office 365 ?
Non. En revanche, Il ne faut pas considérer comme mineur
un projet de migration dans le Cloud, mais bien comme
un projet à part entière. Il est important de bien planifier
et d’avoir une gouvernance forte autour du projet. Car bien
souvent les projets qui se déroulent mal le sont à cause de
défaillances de gouvernance.
Lotus Notes comprend une partie messagerie et une partie
applicative. Il est alors important de traiter ces parties comme
deux projets distants, à savoir un projet de migration de la
messagerie d’une part, et un projet de migration des applicatifs
d’autre part.
Quels conseils donneriez-vous à un DSI qui envisage de
migrer vers Office 365 ?
Il est fondamental de bien préparer la migration. Ensuite
former et informer les utilisateurs des avantages et des impacts
de la migration est essentiel. Leur faire savoir ce qu’il va se
passer pendant les phases de migration leur permet de ne pas
ressentir ce projet comme négatif.
Faut-il prévoir un pilote ?
Effectivement une phase pilote est fortement recommandée
pour tester les différents processus de migration et pour
s’assurer que l’impact sur les utilisateurs sera le plus restreint
possible.
Frédéric Cardoso
—
Migrer de Notes vers Office 365 :
les pièges à éviter
10 janvier 2014
—
32. 32
Pourquoi faire appel à Gfi Informatique plutôt que de
s’engager seul dans sa migration ?
Outre une entière maîtrise dans la mise en œuvre de ces
méthodologies, nous disposons de partenariats forts avec
Microsoft, l’éditeur de la solution, mais aussi avec Refresh IT,
Quest ou encore AvePoint qui ont des outils de migration de
Notes vers SharePoint.
***
33. 33
Est-ce une bonne idée de centraliser sa production
informatique ?
Oui tout à fait. On préconise en effet de centraliser les in-
frastructures informatiques dans des datacenters sécurisés ou
en mode Cloud. Certaines fonctions ont également intérêt à
être centralisées, comme la gestion des incidents ou le pilotage
de la production. Ainsi on assure une homogénéité des outils
et une meilleure qualité du service offert aux utilisateurs.
D’accord, mais faut-il pour autant tout centraliser ?
La stratégie doit être globale. En revanche, il n’est pas
obligatoire de rassembler toutes les équipes sur un même site.
Le datacenter peut être basé à Lyon et l’équipe de pilotage à
Lille.
Il est cependant nécessaire de garder un minimum de
compétences dans les établissements, notamment pour les
opérations de brassage. Le provisionning des postes de travail
peut également être réalisé partiellement en local. Il est éven-
tuellement plus efficace d’avoir un stock de postes de travail
en local et d’assurer sur site la masterisation et le déploiement
des applications sur les postes.
Quel est l’impact de la centralisation sur les équipes ?
On se dirige vers une diminution des équipes informatiques
sur les sites des utilisateurs, à raison d’un ETP minimum pour
200 utilisateurs. Leur métier va également changer puisque
l’on réduit progressivement la technicité des agents sur les
sites de façon à les orienter vers du service et de la qualité pour
les utilisateurs.
Antoine Delahousse
—
Centralisation de la production
informatique : jusqu’où faut-il aller ?
13 janvier 2014
—
34. 34
Ces évolutions nécessitent forcément une conduite du
changement adaptée pour former les agents informatiques,
voire les reconvertir à de nouveaux métiers.
Pourconclure,sait-on,nousGfiInformatique,accompagner
nos clients sur ce type de projet ?
Ouitoutàfait.Nousavonsuneoffreappelée« Gouvernancede
la production informatique » qui vise à aligner l’organisation
de la production informatique avec les besoins des métiers.
Cela peut s’accompagner de projets de transformation des
infrastructures ou d’externalisation.
***
35. 35
Office 365, qu’est-ce que c’est ?
Office 365 est l’offre bureautique de Microsoft située dans
le Cloud. Elle comprend des outils comme Word, Excel et
PowerPoint, disponibles aussi en client lourd pour les postes
de travail. On y trouve également un client Lync, un client
Exchange et des applications SharePoint online.
Pourquoi migrer vers Office 365 ?
Pour trois raisons.
La première, pour une plus grande flexibilité. Microsoft
garantit contractuellement à 99.90 %. la disponibilité de ses
applications
La deuxième raison touche à l’innovation. Microsoft fait
évoluer sa plateforme en toute transparence pour le client et
maintient ses applications à jour.
Enfin la troisième raison se rapporte aux coûts. Migrer permet
de diminuer son TCO au niveau de ses plateformes internes,
puisque l’on se libère de la partie Gestion et Administration
de tout ce qui est hébergé dans le Cloud, que ce soit chez
Microsoft ou chez un partenaire.
Comment faut-il procéder pour migrer vers Office 365 ?
Il suffit de s’adresser à un expert Gfi ! Nous disposons d’offres
packagées prêtes à l’emploi, avec possibilité de personna-
lisation selon l’environnement du client pour faciliter une
transition en toute transparence vers le Cloud.
***
Frédéric Cardoso
—
Migration vers Office 365 :
pourquoi, comment ?
15 janvier 2014
—
36. 36
Le eCommerce est un secteur très dynamique. Qu’est-ce qui
a changé ces dernières années ?
Beaucoup de choses. On a tout d’abord assisté à la montée
en puissance de la mobilité avec ce que l’on appelle le
m-Commerce. On a aussi vu les habitudes des consomma-
teurs changer. Nés avec internet, ils sont aujourd’hui naturel-
lement enclins à privilégier le canal virtuel au détriment du
canal physique. Cela entraîne chez les eCommerçants et chez
les commerçants traditionnels des changements nécessaires en
termes d’organisation, tant sur la logistique que sur la partie
technologique.
Lorsque l’entreprise possède déjà une plateforme, quels sont
les critères à prendre en compte pour la faire évoluer ?
Quasiment tous les commerçants possèdent aujourd’hui une
plateforme eCommerce. La question qu’ils doivent d’abord
se poser est la suivante : suis-je prêt à affronter un univers
concurrentiel de plus en plus tourné vers le cross-canal ?
Le cross-canal, c’est la capacité des commerçants à combiner
tous les canaux de vente, à mélanger les opérations et à tirer
les bénéfices de chaque information accumulée dans l’un ou
l’autre des canaux de vente afin de générer une expérience
d’achat unique vis-à-vis de l’internaute.
Deuxième critère d’évolution : la montée en puissance des
outils de merchandising. Le merchandising, c’est la capacité
d’une plateforme à proposer des produits complémentaires à
la vente afin d’augmenter le chiffre d’affaires et les marges.
Il faut aussi prendre en compte l’aspect mobilité, c’est-à-dire
être capable de traiter avec l’ensemble des plateformes
Olivier Ravel
—
Pourquoi refondre votre
plateforme eCommerce ?
17 janvier 2014
—
37. 37
mobiles, tablettes et smartphones, sur Android, Windows
Phone ou iOS.
Enfin, une plateforme se doit d’offrir une très grande agilité
pour mener à bien des opérations marketing et commerciales.
Elle doit proposer des systèmes de contribution riches et avoir
une intégration très fine avec tous les outils de back-office,
comme la supply-chain.
Quels sont les risques à ne rien faire ?
Le risque est considérable. Aujourd’hui les compétiteurs
Pures Players comme Amazon ou eBay sont devenus des
mastodontes. Face à eux, les commerçants traditionnels
doivent impérativement se doter des mêmes outils. Les
commerçants traditionnels doivent élargir leur catalogue
d’offres en termes de produits, vis-à-vis des internautes, en
s’appuyant sur des réseaux de partenaires. C’est ce que l’on
appelle les Marketplace. La Marketplace va devenir un enjeu
extrêmement crucial pour les eCommerçants dans les années
à venir.
***
38. 38
C’est quoi le Big Data?
Dans Big Data il y a deux termes, et le plus important c’est
Data, car porteur de sens. Le monde du Big Data fait prendre
conscience que des éléments de sens sont contenus dans les
données internes de l’entreprise. Ces données peuvent aussi
être exploitées en les croisant avec des sources externes,
qu’elles soient payantes ou non, afin d’apporter du contexte
qualitatif et quantitatif pour mieux comprendre sur quoi
repose son activité, tirer parti des signaux faibles et s’en servir
pour développer de nouveaux services, améliorer l’efficacité
opérationnelle, voire mieux prévoir/prédire des comporte-
ments. S’il s’avère que des contraintes sur un ou plusieurs des
3V paraissent importantes, alors il sera nécessaire de « faire
parler les données » via une approche technologique de type
Big Data.
Le Big Data, ça marche en France ?
Cela progresse malgré un départ plus que difficile. En France,
le Big Data a été essentiellement pris sous l’angle technolo-
gique, ce qui est un véritable problème. Les éditeurs américains
ont assuré la promotion de solutions miraculeuses face au
« déluge » de données sans prendre le temps de considérer
les besoins réels des clients français qui étaient et demeurent
différents.
En effet, les américains valident un concept business en
investissant si nécessaire sur une plateforme Big Data gérée
par des équipes internes technophiles. Le déclencheur est
donc business avec un sponsoring venant du plus haut.
En France, on a eu beaucoup d’interrogations face aux cas
d’usages outre atlantique, pas si simples à transposer en raison
Alvin Ramgobeen
—
Big Data : mi-figue, mi-raisin ?
23 janvier 2014
—
39. 39
d’une volumétrie moindre et de contraintes légales bien plus
fortes. Enfin, ce qui ne facilite en rien la tâche, la logique d’in-
vestissement est souvent inverse à celle des États Unis.
Quels conseils donneriez-vous à une entreprise qui souhaite
s’engager dans une démarche Big Data ?
Qu’il n’est nul besoin de commencer par investir sur une
solution technologique de type Big Data pour se pencher sur
ce que la donnée peut apporter en termes de sens business.
Qu’il est tout à fait possible d’initier des démarches d’explo-
ration à partir notamment des données de détails contenues
dans son Système d’Information décisionnel. Qu’enfin, il
est plus que nécessaire de co-construire au préalable avec
les métiers une liste prioritaire de cas d’usages éligibles à ces
approches et d’autres part de sensibiliser sa direction générale
sur les raccourcis à éviter en la matière, à savoir de croire
qu’Hadoop sait gommer tous problèmes liés à la performance
par exemple !
***
40. 40
Aujourd’hui les collectivités utilisent de nombreux moyens
pour communiquer avec leurs usagers, comme l’affichage,
les bulletins municipaux, les sites internet… mais existe-t-il
des outils innovants pour communiquer avec les citoyens ?
Se rendre en mairie reste le moyen privilégié par les citoyens
pour solliciter un service auprès de leur commune, avec les
contraintes que l’on connaît d’horaires d’ouverture et parfois
de file d’attente.
Vous le rappeliez à juste titre, les collectivités sont équipées
de sites internet. C’est le niveau 2 de la communication,
c’est-à-dire le niveau web. Aujourd’hui nous avons l’ambition
de proposer un bouquet de services innovants pour enrichir
les services en ligne.
Il y a ensuite le troisième niveau de communication qui
concerne la mobilité. La plupart des administrés sont équipés
de terminaux mobiles et nous souhaitons mettre à leur
disposition des services disponibles à tout moment et en tout
lieu depuis des tablettes ou smartphones. C’est le moyen le
plus efficace pour adresser le plus grand nombre de citoyens.
Vous parlez de services en mobilité, mais à quoi pensez-
vous ?
D’abord au push SMS. En 1 clic, une collectivité peut
envoyer un message SMS à l’ensemble de ses administrés.
Les utilisations sont multiples : prévenir les parents d’élèves
que les transports scolaires ne sont pas assurés, informer les
citoyens par un simple SMS qu’une réunion va se tenir en
mairie ou encore prévenir les usagers d’une coupure d’eau.
Sylvie Thiroine
—
Comment communiquer de
manière innovante avec vos
citoyens ?
3 février 2014
—
41. 41
Ensuite, l’audio Web Conférence. Les collectivités peuvent
organiser des réunions auxquelles les participants assistent, soit
en présentiel dans les locaux de la mairie, soit à distance depuis
leur smartphone ou tablette. Dans ce cas, les participants à
distance peuvent voir et entendre ce qui se dit en réunion. Ils
peuvent aussi prendre la parole, être vus et entendus par les
autres participants.
Les cas d’application sont multiples. Je pense notamment
aux réunions scolaires qui commencent souvent à 17h00.
Les parents n’étant pas toujours disponibles, ils peuvent alors
participer à distance. Je pense aussi aux personnes à mobilité
réduite qui peuvent participer à des réunions organisées par la
mairie depuis leur domicile, devant leur ordinateur.
On a parlé de push SMS, d’audio Web Conférence. D’autres
outils innovants ?
Nous proposons d’enrichir les services disponibles en ligne.
A savoir, les citoyens pourront réaliser des démarches admi-
nistratives, suivre leur avancement, s’inscrire à des activités
sportives ou encore déposer un CV ou une demande de stage.
De plus, depuis le portail, le citoyen pourra demander à être
rappelé dans une plage horaire qui lui convient. C’est ce que
l’on appelle le système « clic-to-call ». Il pourra aussi prendre
rendez-vous avec un agent ou un élu en ligne depuis son
ordinateur. Cela revient à dire que la mairie est pratiquement
ouverte 24h/7j.
Tous ces outils sont largement diffusés dans le secteur
privé. Est-ce que c’est simple à mettre en place dans une
collectivité ?
La solution ConnectiCité de Gfi Informatique est très simple
à mettre en œuvre. Les services sont disponibles en un clic.
Rien n’est installé sur les ordinateurs de la collectivité. Tout
est hébergé dans le Cloud d’Orange, notre partenaire, sur
42. 42
des datacenters installés en France. Nous avons développé un
système d’abonnements mensuels qui permet à toute les tailles
de collectivités d’accéder à ces services innovants, de la plus
petite commune rurale à la très grande agglomération.
***
43. 43
On entend de moins en moins parler de BI mais surtout de
Big Data. Est-ce que l’un est en train de remplacer l’autre ?
C’est vrai, le Big Data a aujourd’hui pris le relais sur le
marché de la BI. Depuis 2011 le Big Data s’est concrétisé sur
le marché français, notamment au travers de la constitution
de « uses cases » et de projets qui s’implémentent autour de
solutions technologiques émergentes, souvent orientées Open
Source. Les éditeurs de BI traditionnels, depuis l’intégration
de données jusqu’aux solutions de Geo BI ou de restitution
avancée, se sont lancés dans le rafraîchissement de leur ligne
produit sur des concepts empruntés au Big Data, ce qui
engendre un certain flou pour les clients.
Quels sont les plus du Big Data par rapport à la BI ?
La BI sert des enjeux de pilotage des lignes métiers en
agrégeant les données opérationnelles. Dès lors, ce qui
est observé est souvent représentatif du signal fort. Si l’on
souhaite comprendre et donner du sens, il devient plus
difficile de trouver les éléments d’explications sous-jacents. La
BI traditionnelle est limitée pour apporter des réponses à ces
nouveaux besoins métiers.
Le Big Data travaille par l’approche basée sur des signaux
faibles et ce, au plus près du détail que les données opération-
nelles quasi brutes peuvent nous livrer. En ce sens, l’approche
Big Data est complémentaire à la démarche BI.
Comment faut-il procéder pour lancer un projet Big Data ?
Le point de départ d’un projet Big Data peut prendre appui
sur les données issues de la BI. En effet, la BI représente
généralement l’une des concentrations des données internes à
Alvin Ramgobeen
—
Big Data versus BI : y a-t-il match ?
11 février 2014
—
44. 44
l’entreprise parmi les plus certifiées, tant sur la qualité que sur
les référentiels qui les décrivent.
Cependant il est nécessaire de toujours rattacher un projet
Big Data à un cas d’usage qui aura été au préalable décrit a
minima en termes métier au risque de se retrouver avec un lac
de données sans réel sponsor et qui ne vit pas.
***
45. 45
Pourquoi les Directions Métier ont-elles parfois des
difficultés à dialoguer avec la Production Informatique ?
Les délais peuvent en être la cause car souvent les métiers
sont pressés de voir leurs demandes satisfaites, soit sur la mise
en œuvre d’une nouvelle fonctionnalité, soit sur la mise en
production d’une nouvelle application.
Les technologies peuvent être en cause également. La
productioninformatiquegèrecorrectementuncertainnombre
de technologies. Cependant, si les métiers demandent aux
équipes Production de faire fonctionner une base de données
inhabituelle, elles peuvent alors rencontrer des difficultés.
La qualité de service peut aussi être un sujet de mésentente.
Le métier peut éprouver une difficulté à formaliser la qualité
de service attendue ; de son côté la production informatique
hésite sur le niveau de l’infrastructure à mettre en œuvre.
On peut aussi avoir des surdimensionnements ou des
sous-dimensionnements.
Parlons du catalogue de services. Est-ce la solution et quelle
définition donneriez-vous au catalogue de services ?
La Direction Informatique produit le catalogue de services
des offres accessibles par les métiers. Ce catalogue de services
précise pour chaque offre le niveau de service proposé, le
coût, et le délai de mise en œuvre. On y trouve des offres
techniques, comme l’approvisionnement d’un serveur, d’un
volume de stockage, ou d’un studio de visioconférence ;
ou encore des offres plus globales, comme le MCO d’une
nouvelle application ou une solution d’archivage. On peut
Antoine Delahousse
—
Comment faciliter le dialogue entre
direction métier et production
informatique ?
18 février 2014
—
46. 46
également avoir un catalogue de services bureautiques orienté
vers les utilisateurs.
L’intérêt du catalogue de services est de permettre aux métiers
de formaliser leurs demandes et simplifier leurs expressions.
En conséquence, la Direction Informatique va pouvoir in-
dustrialiser la réponse à ces demandes et avoir une meilleure
adéquation entre ce qui est mis en œuvre et les besoins des
métiers. Par-là même, la Direction Informatique réalise des
économies sur le fonctionnement.
Que se passe-t-il lorsqu’une Direction Métier a une
demande qui ne figure pas dans le catalogue de services ?
Dans ce cas, la Production Informatique propose une offre sur
mesure qui implique sans doute des coûts et des délais plus
importants pour le Métier. Dans certains cas, la Direction
Informatique peut s’adresser à un opérateur de Cloud public
pour bénéficier d’une offre basique d’hébergement.
Pour conclure, est-ce que nous Gfi Informatique, sommes
capables d’accompagner un client dans la construction de
son catalogue de services ?
Tout à fait, notre offre « Gouvernance de la Production
Informatique » intègre l’ensemble de ces prestations.
***
47. 47
La lutte anti-blanchiment, de quoi s’agit-il ?
1 500 milliards à 2 000 milliards de chiffre d’affaires annuel !
C’est formidable, n’est-ce pas ? C’est malheureusement le
produit estimé chaque année du blanchiment d’argent. Il faut
donc essayer de réduire ce montant.
Le blanchiment d’argent, c’est quoi concrètement ? Cela
consiste à introduire dans le système légal de l’argent issu
d’activités illégales et de trafics en tout genre : trafics d’armes,
de drogue, extorsions de fonds, criminalité, vols, abus de
biens sociaux et corruption.
Tous ces sujets sont traqués. Le régulateur exige une mise
sous surveillance par les intermédiaires financiers tels que les
banques, les assurances, les conseils en patrimoine, les notaires
pour les successions, les avocats, les casinos, etc.
Le blanchiment lui-même prend des formes diverses et variées.
Un exemple à petite échelle : il suffit d’ouvrir un restaurant
qui ne servirait que 3 repas par an mais qui enregistrerait en
cash l’équivalent de plusieurs milliers de repas. Un exemple
plus compliqué va passer par des scénarios de sociétés écrans
ou fantômes, de facturations croisées, un peu de paradis fiscal,
un banquier peu regardant au passage, et le tour est joué.
En France, les sociétés chargées de suivre la lutte contre le
blanchiment doivent émettre des déclarations de soupçons à
un organisme central, TRACFIN, qui dépend du Ministère
des Finances.
Quel impact pour les banques ?
Les premières lois sur le blanchiment datent de 1996. Les
premiers impacts importants se sont fait sentir à partir de
Norbert Hensgen
—
Lutte anti-blanchiment : les
banques françaises sont-elles prêtes ?
25 février 2014
—
48. 48
2005. Depuis cette date, les intermédiaires chargés de faire les
déclarations sont obligés de déclarer tous les comportements
suspects pouvant générer, pour leur auteur, une peine d’em-
prisonnement d’au moins un an.
Compte-tenu des réglementations existantes, cela représente
une nombre considérable de clients et de mouvements à
surveiller, ce qui oblige de fait les banques et les assurances à
surveiller l’ensemble de leurs clients et de leurs mouvements.
Cela les oblige à constituer des bases de données centrales
qui vont être alimentées quotidiennement avec des schémas
techniques de type datawarehouse, ainsi que d’analyser les
données avec différents outils de type analyse statistique,
moteur de règles ou comparaison à des listes noires. Les
banques ont plutôt choisi de mettre en place des progiciels
et non des solutions maison puisque la réglementation est la
même pour tous et que l’évolution sera facilitée lorsque la rè-
glementation aura changé.
Quels sont les principaux challenges pour une banque ?
La Quatrième Directive Européenne relative à la « prévention
de l’utilisation du système financier aux fins du blanchiment
de capitaux et du financement du terrorisme » a été votée par le
Parlement Européen en mars 2014. Elle devra être transposée
dans le droit national de chaque état dans les deux ans à venir.
Ce paquet réglementaire comporte 3 types de dispositifs :
• Un premier dispositif au niveau de l’extension du type
d’organismes concernés. Par exemple, toutes les sociétés de
jeux devront désormais déclarer leurs soupçons, y compris les
sociétés de jeux en ligne. Seront également suivies les transac-
tions opérées au niveau des grands groupes transnationaux
ou internationaux. Mais aussi de manière plus spécifique les
personnes politiquement exposées, à savoir nos élus, nos gou-
vernants, les hauts fonctionnaires, dans la mesure où ils sont
49. 49
en relation avec des organismes étrangers ou des personnalités
étrangères qui pourraient présenter des cas de sollicitation.
• Le deuxième aspect de ce nouveau paquet réglementaire
concerne l’identification des clients, et la tenue de registres
publics des sociétés et des propriétaires. Il est maintenant
introduit la notion de bénéficiaire effectif, autrement dit, la
personne physique « qui tire les ficelles ». En d’autres termes,
pour une société, il s’agit de l’actionnaire ou des actionnaires
physiques principaux. Et lorsqu’ il s’agit d’une cascade de
sociétés, il y a maintenant obligation de remonter la chaîne
en tenant un registre de tous les propriétaires réels et des
acteurs qui effectuent les transferts de fonds, qui peuvent se
cacher derrière des personnes morales. C’est donc quelque
chose de très important qui ne va pas être simple à gérer pour
les banques.
• Le troisième volet concerne l’approche graduée par les
risques. Elle était jugée un peu simpliste dans la version
précédente mais qui se complique à présent. En effet, il est
demandé aux banques non seulement de différencier l’ap-
proche selon les clients, mais également selon les produits
vendus, les services exécutés et les canaux de distribution
utilisés. Cela signifie que si je suis client d’une banque privée
avec un patrimoine diversifié et de multiples compartiments
(produits, placements, investissements, mouvements divers
et variés), je vais avoir droit à une surveillance plus serrée
que celle qu’aura un salarié possédant un compte courant
ordinaire. Ceci se traduira en matière de SI par des mo-
difications importantes. En effet, ces nouvelles règles de
gestion nécessiteront des nouvelles données et de nouvelles
règles d’analyses. Très probablement se mettront en place de
nouvelles versions de progiciels de lutte contre le blanchi-
ment utilisés avec le lot habituel de tests : tests fonctionnels,
tests de non régression, tests de performance et probable-
ment une durée relativement longue avec un investissement
50. 50
qui sera loin d’être négligeable.
Les banques françaises sont-elles au rendez-vous ?
De manière globale l’Europe est une très bonne élève dans ce
dispositif mondial et la France est un élève encore meilleur
que la moyenne européenne. Dès 2012, la France a un mis
en place un certain nombre de dispositions réglementaires
déjà en cours d’implémentation dans les banques, couvertes
a priori par la nouvelle Quatrième Directive. Cela dit le gros
du chantier qui consiste à mettre en place l’approche par les
risques différenciés causés par les clients, produits, services
et canaux de distribution n’est pas encore prévue et devra
être mise en œuvre. Le travail reste donc important. Mais
je suis confiant dans la capacité de nos banques à mettre ces
dispositions en place dans les deux ou trois années à venir.
Et Gfi Informatique dans tout ça ?
Gfi Informatique accompagne les principales banques
françaises depuis 2006 dans la mise en œuvre et le déploiement
de progiciels sur des bases mondiales. Nous avons développé
un savoir-faire, des compétences et une expertise que nous
saurons encore mettre à disposition de nos clients pour leur
assurer la réussite dans cette nouvelle étape.
***
51. 51
Les TNR, c’est quoi ?
Obligatoires, les Tests de Non-Régression ne touchent qu’une
partie d’une application ou d’un Système d’Information.
Cette activité consiste à vérifier que « ce que l’on ne voulait
pas changer fonctionne toujours comme avant ». Cela
représente en pratique 30 % des volumes de tests réalisés sur
ces applications. Les Tests de non régression sont importants
en termes de délai et de time-to-market. Ils ne peuvent être
conduits qu’une fois l’application livrée et sont donc sur le
chemin critique du projet. Souvent mal aimés, les TNR sont
perçus comme ayant peu de valeur ajoutée.
Quand peut-on optimiser les TNR ?
On peut optimiser lesTests de Non-Régression à trois niveaux :
« en amont » au moment où on les conçoit, « pendant »
lorsqu’on les exécute, et enfin, on peut encore les optimiser
« après ».
En amont, la première des optimisations vise une gestion
d’exigences qui soit de bon niveau et qui permette d’optimiser
les analyses d’impacts. En effet, lorsque l’on a une mauvaise
analyse d’impacts, on crée des problèmes de non-régression
en ayant des anomalies qui vont se produire sur des zones
que l’on ne devait pas toucher. La deuxième source d’optimi-
sation concerne la structuration du patrimoine de tests, dans
lequel on cherche à avoir des attributs de tri qui permettent
de sélectionner les scénarios en fonction des risques que l’on
prend vis-à-vis des évolutions et de la non-régression. Par
exemple, on utilise une structuration des scénarios en disant :
« j’ai des scénarios très détaillés de type Règles de gestion, des
François Darphin
—
Les Tests de Non-Régression (TNR) :
je t’aime… moi non plus ?
3 mars 2014
—
52. 52
scénarios de type Processus bout-en-bout et enfin des scénarios
de type Procédures ». Durant le projet, les tests se font dans
cet ordre-là : en premier, les règles de gestion, les processus
ensuite, et enfin les procédures. Lorsque je suis en non-ré-
gression, je peux inverser l’ordre et commencer par tester
les procédures. Si elles sont conformes, il n’y a plus besoin
d’accéder aux niveaux processus et règles de gestion. Une fois
les procédures testées, les utilisateurs finaux sont véritable-
ment rassurés. Il est important de se donner des critères de
choix et de sélections qui permettent d’optimiser la quantité
de scénarios que l’on va exécuter.
Deux sources d’optimisation sont possibles « pendant »
l’exécution des Tests de Non-Régression. La première, l’auto-
matisation permettant d’aller beaucoup plus vite qu’en mode
manuel. Cependant quelques prérequis sont nécessaires en
termes de faisabilité technique et de stabilité pour éviter trop
de maintenance.
« En amont » de l’exécution, il est nécessaire de positionner
le contexte de l’exécution, a minima les données de tests, afin
que les tests puissent tourner tout seuls, puis se donner les
moyens d’automatiser l’analyse des résultats.
Enfin, il est encore possible d’optimiser « après » les tests de
non régression en capitalisant sur deux points : d’une part faire
que la maintenance des scénarios suive l’évolution de l’appli-
cation et, d’autre part, en préparant des éléments statistiques
pour identifier les tests qui ont produit les meilleurs résultats.
***
53. 53
L’ALM est l’acronyme de Application Lifecycle Management que l’on peut
traduire par gestion du cycle de vie des applications. Historiquement le
PLM a été mis en place pour gérer des données mécaniques, notamment
liées à la Conception Assistée par Ordinateur (CAO). Puis progressivement
le PLM s’est déployé sur l’ensemble du cycle de vie tout en restant associé
au produit, à l’organique. Aujourd’hui, les industriels et les solutions du
marché sont suffisamment matures pour déployer réellement l’ingénierie
système et l’ingénierie système logiciel
Quels sont les défis relevés par l’ALM ?
Comme pour le PLM, le premier défi de l’ALM est la mise
en place d’un référentiel permettant un partage facile de
l’ensemble des informations liées à la définition, la conception,
la production et la mise en service des systèmes embarqués.
On couvre la gestion des exigences et ce, jusqu’à ce que la
vérification de ces exigences soient bien répandues dans le
système industrialisé.
Le deuxième défi, côté utilisateurs, est la mise en place d’une
collaboration directe entre l’ensemble des intervenants dans la
définition du système.
Le troisième challenge est la traçabilité au travers la création
de tableaux de bord permettant de bien suivre l’avancement
dans le cycle de vie du système.
Le quatrième défi est l’optimisation de la campagne de
tests et une amélioration de l’assurance qualité du système
industrialisé.
Enfin, le dernier est la mise en place de la ligne de produits
pour faire de la conception modulaire par système, sur toute
Thierry Durand
—
ALM & Ingénierie Système :
nouveaux défis des industriels dans
le monde du PLM ?
5 mars 2014
—
54. 54
une gamme de produits de l’industriel.
Concrètement, sur quels types de chantiers les industriels
peuvent-ils déployer de l’ALM ?
Je privilégierais deux axes. Le premier, c’est remonter dans
le cycle de vie du PLM, c’est-à-dire au niveau de la gestion
des exigences jusqu’au dernier point du cycle en V de la
conception produit, à savoir la vérification des tests. Cela
permet d’assurer une cohérence de la gestion des exigences
jusqu’aux tests.
Le deuxième axe est la gestion logicielle des systèmes
embarqués. Cela s’applique aux exigences bien sûr, mais aussi
aux sources, aux codes et aux tests qui ont été mis en place
pour valider le système logiciel embarqué.
Et Gfi Informatique dans tout cela ?
Sur la base de son expertise aéronautique et défense, Gfi
Informatique a investi sur ce sujet de l’ALM et l’Ingénierie
Système. De par la maturité des industriels et la maturité des
solutions, Gfi Informatique a mis en place des offres et des
méthodologies qui permettent d’accompagner les industriels
dans cette démarche.
***
55. 55
On entend souvent parler de Cloud dans les collectivités,
mais qui dit changement, dit crainte… alors, qu’en est-il
dans la réalité ?
Pour peu que vous ayez choisi le bon opérateur, l’ensemble
des informations que vous mettez dans le Cloud aujourd’hui
sera pratiquement accessible et disponible à 100 %, avec une
étanchéité complète de vos informations. Autrement dit, un
client ne peut pas avoir accès aux données d’un autre client s’il
ne le souhaite pas.
La sécurité, l’accessibilité des données sont-elles des idées
reçues. Dans ce contexte, quels sont les intérêts pour les
collectivités d’adopter des solutions Cloud ?
Une collectivité a intérêt à rester centrée sur sa mission
de service public. Cela permet aux acteurs publics de se
reconcentrer sur leur métier de base et sur les tâches à valeur
ajoutée, comme mandater les fournisseurs, encaisser les
recettes, payer les agents. Les acteurs publics s’affranchissent
ainsi de tout ce qui est technique ou technologique, de la
sauvegarde de la veille qui n’a pas fonctionnée ou du réseau
qui n’est pas disponible.
D’autres exemples d’usages du Cloud ?
Aujourd’hui les petites collectivités ont des agents multi-em-
ployeurs. Un secrétaire de mairie peut être appelé à travailler
pour trois ou quatre collectivités différentes. Ainsi, quelle que
soit sa situation géographique, ce secrétaire de mairie peut
facilement répondre à ses élus ou à ses administrés sans se
Guillaume de Bruc
—
Solutions Cloud pour les
collectivités locales : qu’avez-vous à
y gagner ?
11 mars 2014
—
56. 56
poser de questions dans la mesure où il dispose d’un accès à
l’ensemble des collectivités qu’il gère.
Le Cloud pour une collectivité, c’est compliqué à mettre en
place ?
Le Cloud, c’est très simple à mettre en place. Avec la reprise
des données et la formation des agents, vous pouvez être
opérationnel en quelques semaines !
C’est cher ?
Le coût dépend bien évidemment de la taille de la collectivité,
du nombre d’agents connectés et du nombre de fonctionnali-
tés. Gfi Informatique commercialise des solutions à moins de
200 euros par mois, tout inclus.
***
57. 57
Pour la communauté ITSM : quels sont les « bons indicateurs » de Gestion
des Services ? Quels sont les indicateurs à déployer en priorité ? Quels sont
les conseils et les pièges à éviter ?
La priorité est de se concentrer sur la satisfaction client
Les référentiels de bonnes pratiques listent pas moins de 130
indicateurs (appelés aussi KPI – Key Performance Indicators)
différents pour mesurer la performance de la Gestion des
Services, il y a de quoi avoir le vertige. Surtout si la satisfaction
du client n’est pas au rendez-vous après leurs déploiements.
« If you cannot measure it, you cannot improve it », Lord Kelvin.
Une chose est sûre, la mise en place d’indicateurs (ou KPI)
est indispensable pour améliorer la manière de délivrer ses
services IT aux clients. Cela permet de mesurer l’atteinte d’un
objectif et disposer d’informations factuelles pour prendre les
décisions. Sans indicateur défini, pas de système de mesure,
donc pas d’amélioration possible.
La clé réside dans la définition de l’indicateur. En plus
d’être SMART (Significatif, Mesurable, Acceptable, avec un
Responsable, Temporellement défini), les experts ITSM Gfi
du Centre d’Intégration et Transformation estiment qu’un
bon indicateur ne doit pas être cher à produire (par rapport à
son apport), doit être automatisé et surtout doit être le reflet
positif de la perception du client.
Priorité aux indicateurs de disponibilité, de satisfaction
client et de suivi des coûts
Il est toujours délicat pour une DSI d’être informée par
Jérémy Brunet
—
Les « bons indicateurs » de Gestion
des Services : comment les choisir ?
13 mars 2014
—
58. 58
ses clients des indisponibilités de Service. Ceci montre un
manque de maîtrise dans sa gestion et un fort risque de
dépréciation de ses services. Il est donc prioritaire de mettre
en place des indicateurs de suivi de la disponibilité afin d’être
le plus réactif et le plus communicatif possible en cas d’indis-
ponibilité avérée ou planifiée.
La deuxième priorité est de mesurer la satisfaction client.
Aujourd’hui, pour qu’une DSI perdure, elle doit compter sur
ses clients. Seuls les clients satisfaits et fidèles continueront à
utiliser (voire payer) ses Services. L’enjeu est donc de définir
des indicateurs qualitatifs pour mesurer la satisfaction et
le degré de fidélité des clients de la DSI. Des enquêtes de
satisfaction régulières et ciblées couplées à des indicateurs,
comme le taux de réengagement à des services de la DSI,
permettent de mesurer cela.
La troisième priorité porte sur le suivi des coûts d’un service.
Une transparence dans le suivi des coûts IT est la garantie
d’une bonne gestion aux yeux du CIO et des clients.
Aujourd’hui, les DSI sont jugées sur leurs capacités à gérer
le S.I dans le respect du budget alloué. Par conséquent, la
mise en place d’indicateurs de suivi de coût des Services est
prioritaire et facilite la justification et/ou la reconduction des
budgets. De plus, il s’agit des indicateurs les plus regardés des
autres directions, car compréhensibles et comparables.
Certains indicateurs sont à proscrire
Certains indicateurs systématiquement implémentés, bien que
spécifiques, sont à proscrire. Le suivi du nombre de relances
effectuées dans un ticket d’incident en est un bon exemple.
Les experts ITSM Gfi jugent la définition (relance VS simple
mise à jour) et la mesure trop aléatoire à mettre en œuvre par
rapport au bénéfice à en tirer. Autre indicateur de Centre de
59. 59
Services souvent demandé et jugé peu performant : le suivi du
ratio appels téléphoniques/tickets ouverts. La mise en œuvre
de cet indicateur consiste à relever les écarts entre les appels
reçus au Centre de Services et le nombre de tickets saisis par le
Centre de Services dans l’outil de ticketing. Ceci dans le but
de s’assurer que tous les appels sont tracés. Gfi met en garde
sur cet indicateur car la justification des écarts est lourde et
souvent infructueuse. En effet, les écarts sont souvent liés à
des erreurs d’appels, faux numéros, appels internes…
Réviser les indicateurs dès qu’ils ne reflètent plus la
perception du client
De manière générale, si il y a désaccord entre le ressenti du
client et la valeur remontée par l’indicateur, Gfi préconise
de revoir l’indicateur. Sortir du « Reporting pastèque » qui
consiste à monter des indicateurs au vert alors que quand on
interroge les clients sur le Service, ils voient rouge.
Une révision ou adaptation des indicateurs doivent aussi être
effectuées lors d’évolutions métiers notables, des revues de
processus ou de changements d’objectifs.
Des indicateurs orientés amélioration et non justification
Pour conclure, Gfi préconise d’avoir une approche progressive
sans vouloir répondre à trop d’exigences à la fois. De ne pas
suivre à la lettre les préconisations des référentiels de bonnes
pratiques. De construire les indicateurs directement avec
les clients et de les orienter « amélioration des services » et
non pas « justification d’activité ». Aucun indicateur ne se
suffisant à lui-même, un certain nombre devra être déployé de
manière cohérente, certains pouvant être utilisés temporaire-
ment pour identifier une cause précise de dysfonctionnement.
Cependant, pour une gestion efficace, les experts ITSM Gfi
du Centre de Conseil et d’Expertise de Nantes préconisent de
ne pas excéder cinquante indicateurs.
60. 60
Performance utilisateurs : pourquoi est-ce un sujet
d’actualité ?
Qui dit performance, dit architecture !
Et les architectures aujourd’hui sont compliquées, mondiales
et interconnectées. On les trouve de plus en plus dans le Cloud
avec des éléments difficilement maîtrisables. Les architectures
font intervenir des partenaires qui sont les fournisseurs de ces
Clouds. Et pour finir, avec la mobilité, les utilisateurs utilisent
de nouveaux équipements, de nouveaux devices, parfois
même les leurs qui ne sont forcément labellisés par la DSI. En
conséquence, la mesure de la performance dans ces architec-
tures est devenue extrêmement complexe.
Par ailleurs les utilisateurs qui subissent les performances
souhaitent forcément en avoir de meilleures. Ils ont une vue
perçue de la qualité de service qui dépend surtout de leurs
multiples usages.
Pour résumer, la performance est compliquée à mesurer à la
fois pour des raisons d’architecture, mais aussi car les mesures
de performances globales ne permettent plus de déduire celle
d’un utilisateur donné, pour ses propres usages.
Dans ce contexte, quel est l’apport de l’APM ?
Premièrement, l’APM permet d’objectiver la performance
entre la perception de la qualité de service de l’usage d’un
individu en train de réaliser une transaction quelque part dans
le monde, par rapport à la réalité concrète de la mesure de
performance.
Autrement dit, la performance instantanée du système peut
être excellente et parfaitement en phase avec les conventions de
François Darphin
—
Performance utilisateurs : pourquoi
est-ce un sujet d’actualité ?
24 mars 2014
—
61. 61
service, alors même que les utilisateurs en ont une appréciation
modeste. L’objectivation de cette mesure permet d’ouvrir une
discussion entre l’utilisateur final et les pourvoyeurs des in-
frastructures pour s’assurer qu’ils sont bien alignés.
Deuxièmement, l’APM permet de suivre ces mesures en
temps réel. Des tableaux de bord retranscrivent en continu
l’évolution de cette mesure pour suivre la tendance qu’elle soit
positive ou négative. Ainsi les outils d’APM vont permettre
dans un mode actif, notamment en cas des difficultés, de
récolter énormément d’informations sur ce qu’il se passe.
Troisièmement, des outils permettent de savoir s’il s’agit du
serveur, de la base de données, de la transaction faite par l’uti-
lisateur ou du terminal qui pose problème.
Quatrièmement, ces outils permettent d’instrumenter les
escalades quand vraiment plus rien ne va dans l’infrastruc-
ture. Une cellule de crise est montée et les outils d’APM
abondent alors d’informations pour savoir comment résoudre
les problèmes.
L’APM : comment cela se met en œuvre ?
Il faut trois conditions pour mettre en œuvre une solution
d’APM.
Avant tout, des compétences. Dans notre monde technolo-
gique, il nous faut compter sur des experts qui comprennent
ces technologies et qui savent mettre en œuvre les outils.
Ensuite, des outils de mesure, des injecteurs, des sondes, des
simulateurs de protocole. On trouve également des outils qui
réalisent de la mesure de consommation de ressources sur les
réseaux, sur les serveurs, sur les postes de travail, autrement dit
de la métrologie.
Puis enfin, on trouve des outils en charge de la consommation
de cet ensemble de ressources, c’est ce qu’on appelle du
Capacity Planning. C’est particulièrement vrai dans les
Clouds dans lesquels on souhaite avoir une infrastructure
62. 62
scalable, et où, en fonction de la performance que l’on veut
obtenir pour l’utilisateur, on va mettre en ligne plus ou moins
d’énergie informatique.
A-t-on une préférence pour certaines solutions ?
Oui, une préférence pour celles qui sont faciles à mettre en
œuvre afin de limiter les effets de compétence et celles qui ont
un large spectre de couverture des protocoles et des outils. Par
exemple, pour traiter simultanément du HTML ou du Citrix,
il faut être capable de prendre en compte ces deux protocoles.
Et pour traiter du SAP, il faut être en mesure de bien connaître
les applications spécifiques, mais aussi les applications en
Cobol.
À ne pas négliger, le niveau d’analyse qui nous permet de
donner des préconisations d’optimisation à la fois rapides et
pertinentes.
Pour conclure, Dynatrace de Compuware est l’outil qui
répond le mieux au besoin de performance, notamment avec
ses outils d’injection Gomez ou Dcrum.
***
63. 63
Première partie
La mise en place d’une plateforme eCommerce n’est pas qu’une « simple »
affaire IT. La stratégie business prime. Il est nécessaire de se poser, bien en
amont, une série de questions de fond qui touchent autant à la stratégie
business qu’aux métiers. Après, seulement, viennent les problématiques
IT. Olivier Ravel, Digital Pratice Manager chez Gfi Informatique donne ses
conseils clés.
Remodeler sa stratégie commerciale
Commencez par vous interroger sur votre modèle de business
et sur vos objectifs notamment en termes de chiffre d’affaires.
Dans ¾ des cas, je me suis aperçu que les experts métiers se
posent la question du CA trop tard ! La plateforme ne sera pas
la solution à tout, et il ne faut pas hésiter à profiter d’un projet
de refonte pour remodeler la stratégie commerciale.
Le modèle économique de l’entreprise sera peut-être différent
surleweb:lasupplychain,leCRMetlanotiondemarketplace
seront des points importants qui détermineront les solutions
à choisir. De même, le changement des usages de consomma-
teurs façonnera le modèle économique de distribution. Cette
phase amont est l’occasion d’une réflexion sur les moyens
d’augmenter le CA online (politique commerciale spécifique,
affiliation, déploiement géographique plus important…).
Votre business model sera aussi fonction du type d’enseigne.
J’ai eu à traiter du cas des franchises : comment faire en sorte
Olivier Ravel
—
Les conseils clés pour préparer
le lancement de votre plateforme
eCommerce : d’abord, la stratégie
business !
31 mars 2014
—
64. 64
que le canal digital n’entre pas en concurrence avec le réseau
mais soit au contraire un outil de plus pour les membres ?
Le modèle de cofinancement peut permettre de rémunérer
les franchisés sur un pourcentage des ventes eCommerce,
et le « clic and collect » (génération de leads) pourra aussi
bénéficier aux franchisés.
Tout cela aura bien évidemment un impact sur la stratégie
plateforme et sur les choix métiers et IT.
Placer le client au centre
Il faut ensuite prendre en compte LE grand driver du moment :
le multiplexage des canaux. Site web, centre d’appel, réseaux
sociaux, mobile, point de vente… on doit casser la notion
encore trop courante de « silo » isolés les uns des autres, mixer
les informations en provenance de ces différents canaux pour
placer le client au cœur du système de vente, et bâtir ce dernier
autour d’une base CRM//Client.
Choisir la solution plateforme adaptée
Enfin, vient le choix du type de solutions : « make » or
« buy » ? Plateforme en développement spécifique ou solution
du marché (ERP Commerce) ? J’aurais tendance à privilégier
l’option « buy » car les solutions ERP Commerce ont rattrapé
ce qui se fait de mieux en spécifique, en tout cas pour les
pure players. L’option « make », développement spécifique,
conviendra pour des systèmes très complexes avec un
historique important, les services financiers ou la banque, les
telcos…
Il existe plusieurs stratégies « buy », de l’acquisition d’une
solution d’un éditeur ERP, qui a un coût mais se justifie en
fonction de l’ambition de croissance, au pay per use en mode
Saas. Le choix, là aussi, dépendra du modèle économique.
65. 65
N’oubliez pas de faire intervenir les métiers dès ces phases de
choix liées au modèle, et la DSI lors du choix de plateforme.
***
66. 66
Deuxième partie
Dans la mise en place d’une plateforme eCommerce, après la phase
stratégique (lire « Bien penser sa stratégie business en amont ») où le
modèle économique et la stratégie commerciale online sont (re)modelés,
vient la phase métier. Attention toutefois : les métiers devront être
impliqués très tôt, dès la définition de la stratégie. Olivier Ravel, Digital
Pratice Manager Chez Gfi Informatique avance quelques conseils essentiels.
1 – Faire intervenir les métiers dans les bons processus et
aux bons moments
Les métiers, que ce soit les ventes, le marketing, la production,
la supply chain… devront être impliqués dès la phase de
définition de la stratégie de mise en place d’une plateforme
eCommerce qui peut bouleverser ces organisations du fait
d’un accroissement de l’activité.
La question du chiffre d’affaires online cible avec leviers de
croissance doit ainsi être posée avec l’implication des métiers.
L’autre question des moyens organisationnels et marketing
en rapport avec les objectifs de croissance nécessite très tôt,
également, leur intervention. Ainsi le modèle de distribution
les concerne directement avec la notion de « cross-canalité »,
de même que le modèle de promotion (comment envoyer
le client en magasin avec des bons d’achat sur le Net, par
exemple, ou quel modèle promotionnel généralisable ou
au contraire spécifique au online). Idem pour le pricing des
produits.
31 mars 2014
—
Olivier Ravel
—
Les conseils clés pour préparer
le lancement de votre plateforme
eCommerce : les métiers, c’est très
tôt que vous devez les impliquer
67. 67
Dès le départ je recommande que les équipes métiers se
concentrent sur les pratiques commerciales qui rapportent le
plus (ROI important) afin de pouvoir gérer les contraintes de
Time To Market au moment de la construction de la solution
et focaliser les efforts de mise en œuvre.
2 – Le cas particulier de l’international
L’international, qui nécessite une approche globale, met parti-
culièrement en lumière le rôle clé des métiers. Ce n’est pas au
moment du projet (plateforme et IT) que l’on doit y penser,
mais bien avant !
À partir d’une production centrale, le modèle de vente peut
être différent selon les pays. Les métiers doivent essayer de
rassembler le maximum de fonctions dans un « core model »
afin, ensuite, de le déployer pays par pays. Ils vont définir les
processus qui peuvent être regroupés et répétés : un catalogue
central décliné ? Ou un catalogue différent par pays ?
Modèles de distribution, de paiement, de livraison, de pricing
et de promotion : tout cela impacte les acteurs côté métiers
mais aussi les opérateurs. Avec, pour certains pays ou certains
services, des conditions très spécifiques : je connais bien la
distribution en Chine par exemple, qui présente des particu-
larités sur le plan légal, et j’ai eu affaire à des services de vente
en ligne devant adapter leur modèle de paiement aux pays et
à leur monnaie…
***
68. 68
Troisième partie
Héritage technique, testing, design, hérbergement…. Dans la mise en place
d’une plateforme eCommerce, la phase IT intervient théoriquement après
les phases stratégiques et métiers (lire « Bien penser sa stratégie business
en amont » et « Impliquer les métiers très tôt ») quand le modèle de CA
online et les différents modèles de distribution ont été élaborés, et la
plateforme ERP choisie. Mais la DSI a aussi un rôle en amont en lien avec la
DG et les métiers : formation, intégration des équipes, etc. Le tout avec une
bonne maîtrise d’œuvre ensemblière. Olivier Ravel, Digital Pratice Manager
Chez Gfi Informatique résume ici les conseils à suivre.
1 – Bien conseiller la DG dans le choix de la plateforme
ERP
La DSI va intervenir en amont lors du choix stratégique
du type de plateforme ERP. La tendance du marché est à la
migration vers les ERP commerce, les solutions dites « buy »
par opposition aux solutions spécifiques qui offrent un Go To
Market plus rapide et industriel. Le choix se fera en dialogue
entre la DG et la DSI, en fonction du modèle économique
de l’entreprise : entre l’acquisition d’une solution éditeur,
une solution prête à l’emploi plugée ou une solution à la
transaction (pay per use) en mode SaaS.
2 – Bien gérer le « legacy »
Il est rare qu’une entreprise fasse totalement table rase du
passé. Dans la phase IT, on se heurte alors d’abord à des
31 mars 2014
—
Olivier Ravel
—
Les conseils clés pour préparer
le lancement de votre plateforme
eCommerce : les « IT » à la fin ? Pas
tout à fait.
69. 69
problèmes liés au « Legacy », c’est-à-dire à l’héritage des
solutions techniques adoptées par le passé. En effet, le système
eCommerce repose forcément sur ce « legacy » : ERP, back
office, chaine de supply… J’insiste : le problème de l’inter-
façage du Legacy avec le nouveau SI Commerce sera crucial,
les impacts sur ce dernier, de même que la localisation des
référentiels seront décisifs et devront être anticipés.
3 – Testing et hébergement : former en amont
De même, les équipes de tests et métiers devront être formées
en amont à la solution afin de pouvoir dérouler les opérations
de recette dans de bonnes conditions. L’hébergement devra
aussi être anticipé avec un prestataire maîtrisant la solution
qui impose en général des spécificités en termes d’exploitation
et niveaux de SLA.
4 – Maîtriser l’ensemble du projet
Enfin, au moment de la mise en place de la plateforme,
j’estime que nous ne sommes pas dans une logique d’inté-
gration d’une solution eCommerce. A l’inverse, ce sont les
nombreux et différents intervenants, comme par exemple
l’agence de design, qui devront être intégrés en amont et bien
connaître la solution avant la phase technique, il est préférable
que les équipes agence et IT puissent fonctionner de manière
intégrée afin d’accélérer les opérations.
***
70. 70
Pourquoi est-il préférable pour une entreprise française
de privilégier des solutions de supervision de sécurité de SI
« made in France » ?
Les principales solutions sont américaines. Suite à l’affaire
Prism et aux révélations autour des écoutes de la NSA, on sait
que nos données circulent jusqu’aux Etats-Unis. En France,
le niveau de sécurité a été relevé et certaines entreprises et
institutions se voient imposées de mettre en place des moyens
de protection supplémentaires.
Au regard de ces différents points, il est effectivement pertinent
d’opter pour une solution française.
La plupart des solutions sont américaines. Existe-t-il des
solutions françaises ?
Il existe très peu de solutions françaises sur ce marché.
Néanmois, il en existe une, VigieSI développée par Gfi
Informatique.
VigieSI est un logiciel de SIEM (Security Information and
Event Management). Il gère de manière globale la sécurité du
Système d’Information. A la fois décisionnel et opérationnel,
il s’adresse aux DSI, RSSI et SOC (Centres Opérationnels de
Sécurité). Véritable tour de contrôle, VigieSI est au cœur de
l’organisation de la sécurité de l’entreprise. VigieSI permet
de surveiller les activités du SI, de détecter en temps réel
les attaques et de réduire ainsi le niveau de risque associé au
Système d’Information.
Mathieu Bertrand
—
Supervision de la sécurité de votre
SI : pourquoi privilégier une
solution « made in France » ?
2 avril 2014
—
71. 71
Pour conclure, donnez-nous deux bonnes raisons pour
qu’un RSSI s’intéresse à l’offre VigieSI développée par Gfi
Informatique ?
Tout d’abord VigieSI est un logiciel dont les développements
sont maîtrisés par notre Groupe Gfi Informatique. Ensuite,
à la différence du SIEM traditionnel, il fournit une capacité
à réagir aux incidents informatiques. Cette réaction se fait à
travers l’ajout de modules complémentaires développés par un
de nos partenaires.
***
72. 72
Le « Product Lifecycle Management » sert à piloter le cycle de vie d’un
produit. Enjeu majeur, un projet PLM doit faire l’objet d’un cadrage réussi :
stratégiquement, mais aussi en termes de métiers, qu’est-ce que cela
va apporter à l’entreprise ? Les conseils d’Yves Salahun, consultant Gfi
Informatique, pour réussir cette étape indispensable au succès d’un PLM.
PLM : un enjeu majeur pour la compétitivité
Le PLM est une initiative à la fois technique et stratégique
visant à optimiser la gestion de l’ensemble des informations
et des données créées puis modifiées tout au long de la vie
d’un produit, depuis l’idée jusqu’à l’obsolescence. À la
clé : innovation, amélioration de la rentabilité, transfor-
mation des processus de travail, etc. Un atout dans un
contexte économique de plus en plus compétitif, ouvert et
interconnecté.
Avant de mettre en œuvre un PLM, qui s’appuiera ensuite sur
un Système d’Information constitué de progiciels du marché
ou d’applications existantes, il faut une phase de cadrage.
Il s’agit d’une étude permettant de définir ce que pourrait
être un projet PLM adapté et surtout ce qu’il apportera à
l’entreprise. Quels processus ? Pourquoi ? Avec qui ? Combien
va rapporter une meilleure intégration ? Les entreprises
ont besoin de répondre à ces questions avant de se lancer.
Comment les aider ?
Apporter de la valeur métier
Premier point : je recommande de focaliser le cadrage sur
les enjeux métiers. Le PLM est une réponse globale et or-
ganisationnelle à des attentes métiers : productivité, gestion
Yves Salahun
—
PLM : si c’est bien cadré,
c’est bien joué !
7 avril 2014
—
73. 73
et traçabilité des données, nouveaux process à déployer…
Pour réussir un cadrage, il nous faut donc, en tant que
conseil, partager avec l’entreprise les bonnes pratiques et la
connaissance acquise lors de nos multiples expériences. Par
exemple la gestion de configuration dans l’aéronautique, la
gestion de la diversité dans l’automobile, la traçabilité dans le
génie logiciel pour ne citer qu’eux.
Proposer une démarche de cadrage PLM lisible
Ensuite, dans tous les projets que j’ai menés, j’ai pu voir à quel
point la démarche de cadrage doit permettre à l’entreprise
d’exprimer et de valoriser ses intentions. Méthode, partage
de contributions réciproques, prise en compte des enjeux
stratégiques à atteindre… les étapes doivent être claires et
compréhensibles, tout doit être lisible !
J’essaye aussi chaque fois d’aider l’entreprise à s’approprier la
situation, à définir la cible, à valoriser les différents scénarios.
Et ce, grâce à une palette de méthodes dites « PLM Roadmap »
ou « schéma directeur PLM ».
Partager nos convictions pour faire progresser
Enfin, la confiance est essentielle. En tant que conseil, il nous
faut afficher notre conviction et nos valeurs afin de mobiliser
les équipes de l’entreprise autour d’un projet de transforma-
tion commun. Les processus d’un PLM étant par définition
transverses aux filières métiers, leur définition et leur mise en
œuvre requièrent une vigilance particulière pour expliquer aux
opérationnels et à leurs managers les bénéfices, les impacts, ce
qui va changer.
On le voit donc, bien cadrer c’est communiquer, mobiliser,
motiver et guider !
***
74. 74
On entend beaucoup parler de collaboratif au sein des
entreprises, mais cela marche-t-il dans la réalité ?
Aujourd’hui le collaboratif fonctionne bien à condition de
respecter certaines règles. Il est en effet nécessaire que les
outils soient parfaitement intégrés au poste de travail pour
que l’utilisateur puisse en tirer les bénéfices. Cela passe par
des « Digital Workplace » qui favorisent le travail en équipe
autour de ce que l’on appelle « l’entreprise des savoirs ».
Quels sont les éléments qui composent une Digital
Workplace ?
Certains clients ont une approche de communication « top
down » typiquement orientée « gestion de contenus ».
D’autres clients ont une approche davantage collaborative au
travers d’espaces documentaires, d’autres encore font le choix
d’une offre orientée réseau social d’entreprise.
Le concept d’une Digital Workplace permet d’offrir à votre
intranaute un espace dans lequel il peut accéder à un certain
nombre d’éléments, à savoir la gestion de contenu « top
down », l’outil de réseau social de l’entreprise, les outils de
travail collaboratifs, les applications métier… Au sein d’une
Digital Workplace, les accès à ces outils sont ouverts en
fonction du profil de l’utilisateur.
Une Digitale Workplace, c’est compliqué à mettre en œuvre ?
Non,cen’estpascompliqué.Dansunmarchéarrivéàmaturité,
quelques grands leaders ont émergé. Gfi Informatique a fait
le choix de travailler avec Liferay pour déployer des solutions
collaboratives Digital Workplace. Les cycles de mise en place
Olivier Ravel
—
Pourquoi faut-il penser collaboratif
au sein d’une Digitale Workplace ?
14 avril 2014
—
76. 76
Nos clients sont aujourd’hui très sollicités par les éditeurs
pour migrer leur plateforme BI. Pourquoi devraient-ils
engager une migration lorsque la solution en place convient
parfaitement ?
Effectivement les éditeurs mettent actuellement une certaine
pression sur nos clients pour migrer. Certes il y a un intérêt
financier plus qu’évident pour les éditeurs, mais on oublie
souvent qu’il existe aussi dans cette démarche de migration de
véritables bénéfices pour les utilisateurs.
Un système BI doit avant tout être considéré comme un
système vivant qui ne cesse d’évoluer, tant sur le plan des
outils et des fonctionnalités que des usages. Côté outils, les
éditeurs proposent actuellement des outils de Rapid BI et de
mobilité de nouvelle génération. Côté usages, une migration
permet de répondre à l’émergence de nouveaux métiers et des
besoins d’analyses de données encore plus approfondies.
D’accord, mais pour autant faut-il obligatoirement migrer ?
Certains de nos clients prennent le risque de ne pas migrer
pour des raisons principalement économiques. Ils mettent fin
à leur contrat de maintenance et économisent le coût de la
maintenance qui représente entre 22 et 25 % du prix d’achat
des licences. Le gain semble évident, mais il s’agit d’un calcul
à très court terme.
Y a-t-il un risque à ne pas migrer ?
Oui bien évidemment. Je confirme qu’il y a des risques
à ne pas migrer. Lorsque nos clients arrêtent le support de
Emmanuel Péant
—
Je suis satisfait par ma plateforme
BI. Pourquoi migrer ?
17 avril 2014
—
77. 77
maintenance, ils perdent la possibilité de faire évoluer leur
plateforme avec les nouvelles versions des outils des éditeurs.
Ne pas migrer, c’est se priver de toutes les évolutions en termes
de technologies, d’usages, de fonctionnalités et de nombreux
avantages.
Ne pas migrer, est-ce un bon calcul ?
A court terme, oui. Le gain financier est rapide. En revanche
à moyen et long terme, c’est un mauvais calcul. Nos clients
seront à un moment donné dans l’obligation de faire évoluer
leur plateforme BI. Le fait d’avoir repoussé la migration va
inévitablement engendrer un surcoût à l’ensemble du projet
de migration. Un surcoût technique parce qu’il va falloir faire
l’acquisition de nouveaux outils. Mais surtout un surcoût
fonctionnel parce que la plateforme cible a évolué : nous
aurons une complexité fonctionnelle plus importante à gérer
au moment de la migration.
Au final, quelle serait votre recommandation ?
C’est de maîtriser et de planifier régulièrement les migrations
des plateformes BI. Cela permet de bénéficier pleinement
des avancées technologiques et des nouveaux usages, tout en
maîtrisant les coûts de migration.
***
78. 78
Sous quel angle faut-il aborder un projet Big Data ? sous
l’angle techno ou enjeux métier ?
On observe que les entreprises françaises ont essentiellement
abordé le Big Data sous l’angle technologique, parce que bien
souvent elles avaient du mal à produire les « business cases »
permettant de convaincre leur hiérarchie et leurs acteurs
métier, alors qu’il est impératif de l’aborder sous l’angle
métier et ce de façon itérative et non équivoque !
Ceux qui ont pu avancer de façon concrète sont répartis en
deux segments :
• Les acteurs du eCommerce ou des télécoms. D’évidence ils
travaillent les problématiques de Big Data sous l’angle de la
donnée, parce que c’est leur cœur de métier.
• La fonction marketing qui s’attache depuis longtemps à
analyser le comportement des utilisateurs dans un contexte
où le monde se digitalise à grand pas.
De façon plus discrète certaines industries et acteurs du ren-
seignement ont rapidement adopté ces nouvelles technologies
comme seul point de salut du fait de leurs contraintes
volumétrie/coût/contraintes légales.
L’angle technologique serait-il plus accessible ?
Il est vrai que l’angle technologique a vécu deux moments
forts. Le premier avec l’avènement du Big Data en France, il
y a peu près trois ans. Les solutions restaient encore payantes :
on avait des solutions type « appliance » qui promettaient
de stocker l’information avec de l’analytique embarquée
pour traiter les comportements utilisateurs. Il fallait donc
débourser de l’argent. Le marché français n’a pas trop décollé.
Alvin Ramgobeen
—
Comment faut-il aborder
un projet Big Data ?
28 avril 2014
—
79. 79
Aujourd’hui, avec la maturité des offres Open Source comme
Hadoop, les gens s’essayent à travailler sur des sujets Big
Data parce que cela leur demande beaucoup moins d’inves-
tissement. Il leur suffit de télécharger la solution et peuvent
avec l’aide d’un accompagnement minime, commencer à
s’approprier les technologies Big Data.
Peut-on faire autrement ?
Oui tout à fait. Dans cette problématique de « comment
initier un projet Big Data », on parle des enjeux métier, des
« business cases », de la technologie Open Source notamment,
et on en oublie le maître mot qui est la Data.
Plus on rapproche le métier de la Data avec des prestations
de conseil qui mettent en avant l’analyse des données de
l’entreprise, à l’aide des solutions qui tournent sur les PC
de nos consultants, plus on met en lumière les tenants et les
aboutissant de ce qui se trame dans l’entreprise, à savoir les
proportions, les comportements utilisateurs, les meilleurs
clients, l’hyper segmentation…
Au final les métiers réalisent combien l’aspect quantitatif peut
avoir un impact fort sur la compréhension de leur activité et
agir pour transformer le quantitatif en levier d’action. Dès
lors, un prototypage et une réflexion sur le bon niveau tech-
nologique se mettent en place pour porter dans l’entreprise le
levier d’action sur un sujet de Big Data, pour monétiser ou
optimiser une chaîne de production par exemple.
***
80. 80
Pourquoi faut-il travailler avec les métiers pour concevoir
les référentiels de tests ?
De par notre expérience sur les métiers de qualification des SI,
nous constatons que les phases de qualification peuvent peser
jusqu’à 30 % des charges d’un projet, ce qui est relativement
important. Cela a un impact sur les coûts de réalisation de ces
projets, mais également sur les délais.
Pour optimiser ces phases, tant d’un point de vue coûts
que d’un point de vue délais, nous préconisons d’aller à la
rencontre des métiers pour définir et réaliser avec eux ce
« juste test ».
Quelle approche préconisez-vous ?
Nous préconisons une double, « Top-down » et « Bottom-up ».
Il s’agit de concilier ces deux approches en travaillant d’abord
avec les métiers pour modéliser le comportement attendu
de l’application, d’un point de vue des processus métier et
des scénarios fonctionnels. Une fois la modélisation définie
avec les métiers, nous intervenons ensuite en chambre pour
monter les référentiels de test sur la base de ces modélisations.
Puis très rapidement nous concilions l’approche bottom-up
au travers de laquelle nous définissons toutes les exigences
et autres règles nécessaires (métiers, techniques...) et nous
rapprochons les deux approches de manière à uniformiser les
référentiels de test.
Comment Gfi Informatique se positionne sur cette question ?
Gfi Informatique a développé il y a trois ans QSITM
, une offre
dédiée à cette approche. Elle permet au travers de templates
Franck Colette
—
Tous les tests ne sont pas utiles.
Pour viser juste, pensez métier !
5 mai 2014
—
81. 81
types, de modèles de documents ; mais aussi d’outillages,
d’exprimer cette modélisation du comportement attendu de
l’application et ensuite de retravailler en chambre avec un
autre outillage qui lui va permettre de faire de la génération,
en partie manuelle, en partie automatique, de ces référentiels
de test, avec toujours pour philosophie d’aller chercher le
« juste test ».
***
82. 82
En quoi un projet d’intégration PLM est-il différent d’un
projet d’intégration traditionnel ?
Un projet d’intégration PLM, c’est avant tout un projet d’in-
tégration d’un progiciel de PLM.
Les progiciels PLM que nous intégrons ne sont pas forcément
riches en processus métiers pré-câblés, à la différence d’un ERP
ou d’un logiciel de comptabilité qui eux sont très matures sur
ces sujets métier.
Il existe cependant des processus solutions pré-câblés dans
les progiciels actuels de PLM, mais parfois trop éloignés des
besoins de nos clients. D’où l’importance de mettre en place
une phase de cadrage pour bien formaliser les besoins du
client et de converger vers les fonctions solutions du progiciel.
Quels sont les facteurs clés de succès d’un projet PLM ?
De notre point de vue, il y en a cinq.
Le premier est essentiel. Le projet PLM nécessite d’être piloté
par les enjeux métier de l’entreprise, avec une gouvernance
forte et une capacité à décider.
Le deuxième facteur concerne la phase de définition. C’est
la première grande phase clé du projet qui consiste à faire
converger les besoins métier en les challengeant par rapport
aux capacités de la solution.
Le troisième réside dans les choix structurés de solutions qui
doivent absolument être validés par l’éditeur.
Quatrième facteur : la traçabilité des exigences doit garantir
l’acceptation par le métier de la solution en fin de projet.
Dominique Hell
—
Intégration d’un PLM : quels sont
les chantiers à mettre en place pour
réussir un projet PLM ?
6 mai 2014
—
83. 83
Enfin la conduite du changement est d’une extrême
importance. Elle doit commencer dès le début du projet.
Elle concerne à la fois les acteurs métier, mais aussi les acteurs
maîtrise d’œuvre chez notre client.
Comment se structure un projet PLM ?
Sur deux axes. Le premier avec les grandes phases classiques de
définition, réalisation, vérification, validation et déploiement.
Puis sur un second axe, le projet PLM se structure avec les
différents chantiers à adresser dans un projet, le cœur de
la solution et ses interfaces, la migration des données (un
sous-projet délicat), la conduite du changement et l’architec-
ture technique.
Cette structuration peut varier d’un client à l’autre en fonction
de ses exigences ou des activités qu’il veut conserver dans son
périmètre.
Enfinnotreméthodologie,baséesuruncycleenVtraditionnel,
évolue constamment. Nous y intégrons régulièrement des
concepts issus de l’agilité, comme le pilotage visuel, des
itérations courtes ou de la validation et de la vérification en
continu.
Et l’industrialisation ?
La cellule Service Ingénierie PLM de Gfi Informatique
développe et déploie depuis longtemps des méthodes outillées
sur un certain nombre de sujets, en particulier sur l’intégration
continue. Cela permet sur un projet d’intégration de vérifier
la qualité du code produit et de régénérer, par exemple toutes
les nuits, la solution complète sur tel ou tel environnement.
***
84. 84
Le TIP disparaît le 1er
février 2016. Pour quelles raisons ?
C’est la règlementation SEPA qui en est la cause. Au 1er
février
2016, les moyens de paiement propres à chaque pays doivent
disparaître. Selon les statistiques de la Banque de France, nous
traitons 140 millions de titres interbancaires de paiement par
an. Cela représente un volume considérable qui nécessite au
préalable un temps de préparation pour remplacer les TIP.
Qu’est-il prévu pour le remplacer ?
Dans le cadre de SEPA, rien de suffisamment performant n’est
prévu, laissant l’initiative du paiement aux particuliers.
Les banques françaises se sont alors engagées dans une
réflexion permettant de mettre en œuvre une nouvelle norme
d’échange appelée SEPAMAIL. Celle-ci permet de transférer
la facture du particulier vers sa banque, afin de lui donner la
responsabilité de la validation en ligne.
Cette opération, une fois validée, permet de générer un
virement qui lui, sera en conformité avec la réglementation
SEPA.
Quels conseils donneriez-vous à nos clients qui souhaitent
mettre en œuvre une telle solution ?
En premier lieu, ne pas perdre de temps. La montée en
charge pour les 140 millions de transactions nécessite un
délai relativement long que l’on estime entre 6 mois et 1 an,
réduisant de fait le temps de projet nécessaire à la mise en
œuvre de la solution.
Il reste un certain nombre de travaux à réaliser avant cette
« end date » du 1er
février 2016. Gfi Informatique est en
mesure d’accompagner ses clients Grands Remettants de
Bertrand de Lausun
—
Comment va-t-on remplacer les TIP ?
9 mai 2014
—
85. 85
moyens de paiement dans la mise en œuvre de cette nouvelle
solution qui permet à la fois la dématérialisation des factures
et la modification des moyens de paiement afférents.
***
86. 86
Le décret GBCP fait référence aux autorisations
d’engagement et de crédit de paiement. Que représentent
ces notions d’AE et de CP ?
Avec ce décret, les établissements publics vont devoir élaborer
trois budgets : un en AE, un en CP et un en recette.
Les AE représentent la limite supérieure des engagements
juridiques que peut prendre l’établissement sur un exercice.
Les CP représentent la limite supérieure des décaissements
réalisables dans l’exercice. Et les prévisions de recette cor-
respondent aux montants prévisionnels des encaissements
attendus dans l’exercice.
Quel est l’intérêt du double budget en AE et CP ?
Actuellement, les dépenses engagées doivent l’être au regard
des crédits votés de l’exercice, ce qui pose notamment des
problèmes en fin d’année. Le décret lui, prévoit la budgéti-
sation en AE, ce qui élimine tous ces problèmes et permet
d’avoir une réelle démarche de pilotage pluriannuelle.
Les CP sont établis non pas au regard des ordonnancements,
mais des paiements à réaliser.
Quant aux prévisions de recettes, elles sont établies en lien
avec les encaissements escomptés et rapprochées des titres
émis.
Plus globalement quels sont les impacts du décret sur
l’exécution budgétaire ?
L’engagement actuel disparait. C’est maintenant l’engagement
juridique qui, de fait, est pluriannuel et qui consomme l’AE
dans son exercice d’émission. La comptabilité budgétaire ne
Éric Depreuve
—
GBCP : quel est l’intérêt du double
budget en AE et CP ?
12 mai 2014
—
87. 87
supporte plus les mouvements d’ordre tels que les variations
de stocks, les amortissements, les charges constatées… Tous
ces aspects sont maintenant directement gérés en comptabilité
générale. Cela a des conséquences importantes et simplifica-
trices sur nos produits, car cela élimine toute la gestion des
crédits d’extourne.
Le décret maintient la notion de service fait
Oui. Depuis quelques années et la mise en place des services
facturiers, l’enregistrement du service fait a pris une part pré-
pondérante dans la chaîne de la dépense.
Le décret renforce encore cette place en lui ajoutant
l’obligation de générer l’écriture comptable pour respecter la
norme comptable.
De ce point de vue, le décret va permettre de mieux anticiper
le suivi des charges à payer, des produits à recevoir et va
simplifier la clôture des travaux en fin d’année.
Et qu’en est-il de la dématérialisation ?
Le décret apporte de considérables avancées dans ce
domaine. Il élimine la production et l’édition des mandats et
bordereaux. Il favorise l’échange et l’envoi de documents élec-
troniques, qu’ils soient scannés ou natifs, et prévoit également
la production dématérialisée du compte financier.
***