SlideShare a Scribd company logo
1 of 184
Ont contribué à cet ouvrage :
Cyril Carretero, Sylvie Rebaudo, Céline Simon, Murielle Loirat, Antoine Paugam,
Jean-Pierre de Araujo, Marine Nascimento, Guillemette Larivière, Charlène Kienda,
Alice Tricomi, Romain Dorenlot, Sabine de Leissègues.
Édition 2015
7
Un blog pour
donner plus
de valeur à nos
(vos) métiers
—
ÉDITO
8
9
P
ourquoi reprendre dans un livre tous les avis d’experts
publiés sur notre blog  ? Pour vous donner envie de
le découvrir ! Que ce soit dans le Digital, la Business
Intelligence, le Testing, le PLM ou le Cloud, nos experts
partagent leurs recommandations pour garantir la réussite
de vos projets. Tous ces avis d’experts vous donneront
probablement des idées et pourquoi pas, vous mettront en
garde contre d’éventuels faux pas.
Le blog de Gfi Informatique parle de ce qui nous tient à cœur,
de ce qui fait l’ADN de notre entreprise : toujours mieux
vous accompagner dans la réussite de vos grands projets
de transformation. Il formalise ce que nous voulons être  :
une intelligence collective. Bien plus qu’une entreprise, Gfi
Informatique est véritablement une communauté d’experts
qui échangent des idées pour vous proposer des solutions
toujours plus innovantes et créatrices de valeur.
Ce blog donne plus de valeur à nos (vos) métiers. Choisir
Gfi Informatique, ce n’est plus seulement disposer d’une
combinaison unique de solutions et services informatiques,
c’est aussi accéder à des experts capables de vous accompagner
pour toujours mieux répondre à vos besoins métier.
Bonne lecture et rendez-vous sur notre blog www.enews.gfi.fr.
Vincent Rouaix
Président-directeur général
Gfi Informatique
11
Silence.
Ça tourne !
—
AVANT-PROPOS
12
13
A
ux oubliettes les grands blablas marketing qui vous
expliquent qu’on est les plus forts. Seuls l’authenticité
et le parler-vrai comptent. Nos experts sauront, nous
l’espérons, au travers de leurs conseils et compétences, vous
convaincre de nous faire confiance pour vous accompagner
dans vos grands projets de transformation, et ce quel que soit
votre secteur d’activité.
Cet ouvrage rassemble les retranscriptions des vidéos « 2 mn
pour comprendre  » réalisées sur le vif avec nos experts et
publiées en 2014 sur notre blog Gfi Informatique e-news.
Les sujets mis en avant sont, selon nos experts, emblématiques
des préoccupations actuelles de la plupart de nos clients.
Leurs prises de paroles sont assez courtes pour coller à la
durée de l’interview vidéo. Le ton est direct, informel, sans
prétention aucune. Certaines réponses pourraient même vous
surprendre… Normal, leurs prises de position sont totalement
subjectives, mais toujours justifiées par un vécu terrain et des
retours d’expérience indiscutables.
N’hésitez pas à les interpeler directement par mail ou sur les
réseaux sociaux : ils seront ravis de pouvoir échanger avec vous
sur le sujet qui les anime.
Et rendez-vous tout au long de l’année sur notre blog e-news :
www.enews.gfi.fr.
Cyril Carretero
Directeur Marketing & Communication
Gfi Informatique
14
15
Le rôle du Big Data dans l’expérience utilisateur p.23
Mobile Testing : n’ayez crainte ! p.26
De la BI analytique au BIG analytics p.29
Migrer de Notes vers Office 365 : les pièges à éviter p.31
Centralisation de la production informatique : jusqu’où faut-il
aller ? p.33
Migration vers Office 365 : pourquoi, comment ? p.35
Pourquoi refondre votre plateforme eCommerce ? p.36
Big Data : mi-figue, mi-raisin ? p.38
Comment communiquer de manière innovante avec vos citoyens ?
p.40
Big Data versus BI : y a-t-il match ? p.43
Comment faciliter le dialogue entre direction métier et production
informatique ? p.45
Lutte anti-blanchiment : les banques françaises sont-elles prêtes ?
p.47
Les Tests de Non-Régression (TNR) : je t’aime… moi non plus ?
p.51
ALM & Ingénierie Système : nouveaux défis des industriels dans le
monde du PLM ? p.53
SOMMAIRE
—
16
Solutions Cloud pour les collectivités locales : qu’avez-vous à y
gagner ? p.55
Les « bons indicateurs » de Gestion des Services : comment les
choisir ? p.57
Performance utilisateurs : pourquoi est-ce un sujet d’actualité ? p.60
Les conseils clés pour préparer le lancement de votre plateforme
eCommerce :
1re
partie : d’abord, la stratégie business ! p.63
2e
partie : les métiers, c’est très tôt que vous devez les impliquer p.66
3e
partie : les « IT » à la fin ? Pas tout à fait p.68
Supervision de la sécurité de votre SI : pourquoi privilégier une
solution « made in France » ? p.70
PLM : si c’est bien cadré, c’est bien joué ! p.72
Pourquoi faut-il penser collaboratif au sein d’une Digitale
Workplace ? p.74
Je suis satisfait par ma plateforme BI. Pourquoi migrer ? p.76
Comment faut-il aborder un projet Big Data ? p.78
Tous les tests ne sont pas utiles. Pour viser juste, pensez métier ! p.80
Intégration d’un PLM : quels sont les chantiers à mettre en place
pour réussir un projet PLM ? p.82
Comment va-t-on remplacer les TIP ? p.84
GBCP : quel est l’intérêt du double budget en AE et CP ? p.86
Être un élu connecté en 2014, qu’est-ce que c’est ? p.88
17
Comment améliorer la performance commerciale de votre portail
clients ? p.90
Rationalisation, optimisation, migration de votre SI décisionnel :
pourquoi, comment ? p.92
Optimiser ses pratiques de test d’accord, mais pour quel résultat ?
p.95
Migration PLM : attention, danger ! p.97
BI agile, pourquoi, comment ? p.99
Mobilité : comment sécuriser vos données en cas de perte d’un
device ? p.102
SEPAmail ou comment supprimer la fraude à la signature du
contrat ? p.104
eCommerce : tout ce qu’il ne faut pas faire ! p.105
GBCP : les impacts de la mise en œuvre du décret p.106
L’ANI, un levier social à prise rapide p.108
Améliorer la performance de votre site web : pourquoi, comment ?
p.112
Accès privilèges : talon d’Achille du Système d’Information des
entreprises ? p.114
Tests applicatifs automatisés : oui. Mais comment et à quel prix ?
p.116
Comment modéliser les besoins métiers lors d’un cadrage PLM ?
p.119
18
International : comment le digital passe les frontières ? p.121
Outillage de test : effet de mode ou vraie nécessité ? p.124
Windows Phone est-il adapté au monde de l’entreprise ? p.126
Contrôle des comptabilités informatisées : comment se prémunir
face aux risques fiscaux ? p.128
Comment tirer un maximum de bénéfices du réseau social
d’entreprise Yammer ? p.130
La Marketplace est-elle le nouvel Eldorado du canal de vente ? p.132
Comment aller au-delà de la GRC avec Microsoft Dynamics
CRM ? p.134
Comment adresser efficacement des com’ internes à vos
collaborateurs équipés de Windows Phone ? p.136
Toxicité : comment passer de l’exploit au résultat prévisible ? p.138
Sécurité Cloud : ne pas perdre le contrôle ! p.140
C’est quoi une DRH digitale ? p.143
Comment rendre mon datawarehouse évolutif et pérenne à
moindre coût ? p.145
Comment intégrer une architecture Big Data dans mon
décisionnel ? p.147
Magento Enterprise vs Magento Community : y a-t-il match ? p.149
Comment réussir une expérience utilisateur omnicanal ? p.151
En quoi le Responsive Design améliore-t-il le ROI de vos projets
eCommerce Magento ? p.153
19
Symphony 2 : alternative crédible aux solutions Open Source
eCommerce ? p.154
eCommerce : pensez votre site en fonction de votre cible ! p.155
Supervision : 3 points clés pour être plus proactif p.157
Les gains obtenus par la mise en œuvre d’un Cloud privé dans un
Datacenter p.158
Cloud Migration p.160
Le rôle du Big Data dans l’expérience utilisateur p.162
La facture électronique : une solution win-win entre le secteur
public et ses fournisseurs ! p.165
Comment migrer sa plateforme BI sans y laisser trop de plumes ?
p.168
Comment intégrer efficacement un site eCommerce au sein d’un
Système d’Information ? p.170
En 2015, c’est quoi un bon portail client ? p.171
20
21
Nos experts
donnent leur
avis...
—
BLOG E-NEWS
22
23
Qu’apporte le Big Data dans le domaine de l’expérience
utilisateur ?
C’est avant tout un sujet qui ne cesse de progresser ! Pour
s’en donner un aperçu, on peut remonter en 1999 et citer
ComScore, un des leaders mondiaux du Digital Marketing qui
offrait un service de comptage des pages Web en mode SaaS.
Le marketing à l’époque essayait de connaître l’évolution du
ranking de son site et d’une vision de son trafic page par page
agrégé à la journée pour mesurer les résultats de ses actions
de push marketing. C’était la « préhistoire » de l’expérience
utilisateur. A la même période, le marketing construisait sa
connaissance client sur les implémentations de produits de
MDM type CEM (Customer Experience Management).
15 ans plus tard, nous disposons d’espaces digitaux d’inves-
tigation beaucoup plus riches et nous avons la possibilité
d’interagir avec le client pour passer du mode monolithique
Web passif de collecte d’informations a posteriori à un
monde interactif multimédia géolocalisé où l’on glisse vers le
client-centrique.
Résumé comme tel, il apparaît évident à tout un chacun
de s’orienter vers des moyens de capter les patterns de
comportement, d’identifier les affinités des clients à un
produit ou à des groupes de produits, d’anticiper l’appétence
à de nouvelles tendances d’achat. Se pose alors la question de
comment accéder à ce nouveau monde. C’est là que le Big
Data intervient.
Alvin Ramgobeen
—
Le rôle du Big Data dans
l’expérience utilisateur
2 janvier 2014
—
24
Quels sont, dans ce cas précis, les enjeux technologiques du
Big Data ?
On peut citer quatre enjeux forts portés par le Big Data :
•	 Sa capacité à collecter et relier entre autres, des sources
multiples de données issues des canaux Web, réseaux
sociaux, données internes aux ventes, mais également lieux
et contexte d’usage d’un service et de les rendre ingérables
pour des actions spécifiques d’un métier du marketing qui se
spécialise notamment sur le Digital Marketing, la Customer
Experience Management et le Social Collaboration. Nous
sommes sur une fonction support autour du concept de la
DMP ou Data Management Plateforme qui généralement se
base sur un moteur Hadoop ou de plus en plus sur des bases
NoSQL temps réel de type Storm.
•	 L’apport sur l’analytique (approche machine learning)
est très apprécié en ce sens qu’il apporte des moyens de
détection, d’anticipation et dans certains cas de prévision
en rapprochant des informations et événements non usuel-
lement traités par les mêmes entités dans l’entreprise. Par
exemple, il est aujourd’hui possible de détecter qu’un pour-
centage non négligeable de clients va appeler pour se plaindre
de dysfonctionnents de leur Box TV et ainsi prévoir une prise
en charge adaptée, mais aussi de suivre la dérive d’incidents
concomitant à l’introduction de nouvelles tablettes.
•	 La prise en compte du décodage du sentiment humain via
le texte et maintenant la voix et qui, depuis les procédés de
lemmatisation ou d’algorithmes en linguistique plus aboutis,
permettent de positionner une réponse, elle aussi, adaptée à
des situations de tension, comme par exemple la redirection
d’un appel vers le bon conseiller ou bien la détection de pré-
férence sur un produit nouveau.
•	 Enfin, le rôle des objets connectés qui s’immiscent dans
nos vies nous conduisent à revisiter le champ des possibles
en termes de support à notre vie au quotidien et donc une
25
nouvelle fois à notre façon d’interagir dans des contextes
digitalement augmentés.
Quelle démarche adopter face à toutes ces opportunités ?
Nous pouvons constater que l’on peut se doter de son
Home Made ou souscrire à un service SaaS et bien souvent,
la réponse est hybride. Les expérimentations en mode SaaS
se multiplient avec l’apparition de nouveaux services que
les start-up françaises apportent, comme par exemple la
restitution en cartes de chaleur des clics de souris sur les pages
d’un site Web qui permet d’améliorer son ergonomie et ses
ventes, ou encore le design automatique de la Home Page
selon le profil et les préférences de l’utilisateur favorisant la
promotion des services qui sont sensés le concerner, tout en
évitant les effets de saturation/pollution.
Cependant, cela reste avant tout une question de stratégie
plus que d’appariement technologique. La question ne
doit pas rester uniquement sur des attentes opérationnelles
du marketing ou une capacité à l’IT à fournir des briques
applicatives NoSQL intégrées et sécurisées. Les enseigne-
ments des pures players, à l’image d’un Criteo, ou des sociétés
comme les 3 Suisses montrent et démontrent que les questions
doivent se poser en termes d’opportunité à opérer une trans-
formation digitale et surtout à la positionner vis-à-vis de son
cœur de métier. Les changements de rythme business sont
tellement violents qu’il est frappant de voir comment certains
acteurs reprennent de la croissance en se réinventant par l’ap-
plication d’une stratégie de transformation digitale.
***
26
La mobilité aujourd’hui explose. Quel est l’impact sur le
testing ?
Le principal impact de la mobilité concerne la multipli-
cation des tests à réaliser. Il est en effet nécessaire de tester
chacun des terminaux sur lesquels une application est utilisée.
Dans la pratique, on regroupe les tests en fonction des
technologies : Windows Phone, Android, comme tout ce qui
vient du monde Apple.
Quelles que soient les technologies, les tailles des écrans varient
considérablement. Il faut donc intervenir de façon spécifique
pour vérifier que les différents formats de présentation
s’adaptent parfaitement aux différentes tailles d’écrans : c’est
ce que l’on appelle le Responsive Design.
Quels sont les éléments à prendre en compte autour du
mobile testing ?
Tout ce qui traite de la présentation en priorité. Les facteurs
à prendre en compte sont nombreux : format des écrans,
affichage correct, perception, expérience et ressenti de
l’utilisateur.
Tous les sujets d’ordre technologique sont également à
considérer, à commencer par les moyens de communication
entre les terminaux et les applications. Evidemment il existe
les protocoles internet assez simples avec des dérivés Wi-Fi.
Ensuite tous les protocoles de type télécommunications,
comme GPRS, EDGE sont à prendre en compte également.
Enfin, on trouve des protocoles plus spécialisés autour de la
Vidéo On Demand, ou encore des liaisons vers une messagerie
instantanée ou de communication de type mail.
N’oublions pas les tests applicatifs qui concernent l’interaction
François Darphin
—
Mobile Testing : n’ayez crainte !
6 janvier 2014
—
27
entre les applications stockées sur le terminal pour faire
communiquer une application avec la partie GPS (géoloca-
lisation du terminal) par exemple, ou pour avoir de la recon-
naissance H code au sein même des applications.
Par ailleurs, il existe des tests extrêmement techniques de type
reconnaissance et influence des différentes cartes SIM ou des
paramètres intégrés. Les tests liés à l’impact des applications
sur la consommation énergétique (usage de la batterie) ne
sont pas aisés à réaliser non plus, mais bien évidemment
nécessaires.
Enfin dans un contexte multilingue, il faut multiplier les pré-
sentations par le nombre de langues existantes. Cela tient à
la longueur des textes qui varie une fois traduits, mais aussi à
d’éventuels changements d’ordre culturel pour certains pays.
Finalement on constate que le champ des tests à réaliser est
vaste !
Comment peut-on accompagner nos clients dans une
démarche mobile testing ?
A tout moment nous pouvons accompagner nos clients,
soit en amont des projets autour du conseil, soit pendant les
projets pour la réalisation de tests, ou encore durant l’exploi-
tation des applications.
Il existe deux grands domaines de conseil :
Le premier concerne le choix des environnements et des
outils. Les questions à se poser sont les suivantes : doit-on
travailler avec des simulateurs ou avec des outils de prise en
main automatiques ? Doit-on travailler avec des parcs de
terminaux? Doit-on mettre en œuvre des acteurs externes qui
offrent des services intégrés sur ces sujets ?
Le deuxième domaine relève de la stratégie de test : Quels
types de tests dois-je avoir ? Lesquels dois-je choisir ? Pour
quelles raisons ? Comment dois-je assurer ma couverture ?
Comment finalement j’optimise mon effort de tests ?
28
Concernant les projets de test, nos experts sont évidemment
spécialisés à la fois en testing et en mobile. Ils sont particu-
lièrement efficaces en termes de conception ou d’exécution
de test, que ce soit en mode délégation de ressources ou en
Centre de Services, avec ou sans outillage, en fonction de la
demande et des besoins du client.
En mode exploitation « run », c’est la mise en œuvre d’appli-
cations qui surveillent ces applications mobiles.
On compte deux niveaux : un premier niveau appelé analytics
existe déjà dans le monde Web et dans celui des mobiles.
L’analytics permet de recueillir des statistiques sur les usages
des applications en fonction de la typologie des terminaux
et de mieux cibler les tests en fonction des usages les plus
fréquents. Dans un deuxième temps, on peut aller un petit
peu plus loin avec des applications de type APM (Application
de Performance Management) qui permettent des analyses
extrêmement détaillées, par zone géographique ou par
typologie de transactions utilisées dans l’application. Enfin,
elles permettent de donner une information extrêmement
pertinente en termes d’escalade en cas de problèmes
d’exploitation.
***
29
Qu’est-ce que la BI analytique et le BIG analytics ?
Tous nos clients sont désormais dotés d’entrepôts de données
et de solutions de business intelligence. Pour dépasser les
services rendus par la BI dite traditionnelle, l’approche par les
statistiques permettent d’améliorer le diagnostic, la prédiction
et la prescription. Nous sommes dans le monde de la BI
analytique.
Prenons l’exemple d’un site eCommerce. La phase de
diagnostic va permettre d’identifier, de segmenter les com-
portements « profils » des clients appétents à une offre. La
phase de prédiction va permettre de quantifier cette appétence
à l’aide de score datamining et la phase de prescription va
permettre de proposer directement à un client qui se connecte,
l’offre à laquelle il sera le plus appétent. Dans cet exemple
les contraintes fortes, comme la volumétrie et la nécessité
d’un temps de réponse court, imposent l’implémentation de
solution du monde Big Data. On parle alors d’environnement
Big Data et par extension de Big Analytics.
Quelles sont les solutions sur le marché du BIG analytics ?
Il en existe deux sortes, selon que l’on souhaite un support
éditeur avec une prise en main assistée et ergonomique, ou
bien de type Open Source pour des besoins de haute précision
des modèles, ou des raisons de contraintes de coût.
La plupart des solutions proposées par les éditeurs comportent
des solutions de data visualisation compatibles avec des envi-
ronnements Big Data.
Les solutions de Big Analytics s’évaluent sur trois critères : le
niveau d’ergonomie de la data visualisation, les fonctionnalités
Sébastien Dupuis
—
De la BI analytique au
BIG analytics
8 janvier 2014
—
30
d’analytique embarquées permettant l’implémentation du
diagnostic, de la prédiction et de la prescription et sa capacité
à fonctionner en environnement Big Data. Aujourd’hui
certaines solutions éditeurs comme par exemple SAS Visual
Analytics ou bien encore la suite Infinit Insight de SAP,
proposent un bon compromis à ces trois critères. A cela, il
faut ajouter l’avancée de projet Open Source comme Pyhton
ou D3JS pour la data visualisation, ou bien R et Yarn pour la
partie analytics sur les framework Hadoop.
Quelle est l’approche de Gfi Informatique sur la BI
analytics et sur le Big Data ?
Que l’on soit dans un environnement Big Data ou pas, un
projet analytique est guidé par les données et l’adéquation des
données avec le cas d’usage que l’on souhaite traiter. Afin de
répondre à cette problématique, Gfi Informatique démarre
ses projets Big Data par une étude orientée « data driven »
qui permet de faire le point sur les données disponibles et
l’adéquation avec le cas métier à investiguer.
Que propose Gfi Informatique pour accompagner ses
clients dans leur transition vers le Big Data ?
Gfi Informatique vous propose d’échanger lors d’un atelier
d’une demi-journée sur les données et les cas d’usage à traiter.
A titre d’exemple, un grand nom de l’aéronautique français
fait confiance à Gfi Informatique depuis 2010 dans le cadre
d’un projet de maintenance prédictive afin de limiter les
immobilisations au sol de ses avions, soit le facteur le plus
important de coût pour les compagnies aériennes.
***
31
Est-ce compliqué de migrer de Notes vers Office 365 ?
Non. En revanche, Il ne faut pas considérer comme mineur
un projet de migration dans le Cloud, mais bien comme
un projet à part entière. Il est important de bien planifier
et d’avoir une gouvernance forte autour du projet. Car bien
souvent les projets qui se déroulent mal le sont à cause de
défaillances de gouvernance.
Lotus Notes comprend une partie messagerie et une partie
applicative. Il est alors important de traiter ces parties comme
deux projets distants, à savoir un projet de migration de la
messagerie d’une part, et un projet de migration des applicatifs
d’autre part.
Quels conseils donneriez-vous à un DSI qui envisage de
migrer vers Office 365 ?
Il est fondamental de bien préparer la migration. Ensuite
former et informer les utilisateurs des avantages et des impacts
de la migration est essentiel. Leur faire savoir ce qu’il va se
passer pendant les phases de migration leur permet de ne pas
ressentir ce projet comme négatif.
Faut-il prévoir un pilote ?
Effectivement une phase pilote est fortement recommandée
pour tester les différents processus de migration et pour
s’assurer que l’impact sur les utilisateurs sera le plus restreint
possible.
Frédéric Cardoso
—
Migrer de Notes vers Office 365 :
les pièges à éviter
10 janvier 2014
—
32
Pourquoi faire appel à Gfi Informatique plutôt que de
s’engager seul dans sa migration ?
Outre une entière maîtrise dans la mise en œuvre de ces
méthodologies, nous disposons de partenariats forts avec
Microsoft, l’éditeur de la solution, mais aussi avec Refresh IT,
Quest ou encore AvePoint qui ont des outils de migration de
Notes vers SharePoint.
***
33
Est-ce une bonne idée de centraliser sa production
informatique ?
Oui tout à fait. On préconise en effet de centraliser les in-
frastructures informatiques dans des datacenters sécurisés ou
en mode Cloud. Certaines fonctions ont également intérêt à
être centralisées, comme la gestion des incidents ou le pilotage
de la production. Ainsi on assure une homogénéité des outils
et une meilleure qualité du service offert aux utilisateurs.
D’accord, mais faut-il pour autant tout centraliser ?
La stratégie doit être globale. En revanche, il n’est pas
obligatoire de rassembler toutes les équipes sur un même site.
Le datacenter peut être basé à Lyon et l’équipe de pilotage à
Lille.
Il est cependant nécessaire de garder un minimum de
compétences dans les établissements, notamment pour les
opérations de brassage. Le provisionning des postes de travail
peut également être réalisé partiellement en local. Il est éven-
tuellement plus efficace d’avoir un stock de postes de travail
en local et d’assurer sur site la masterisation et le déploiement
des applications sur les postes.
Quel est l’impact de la centralisation sur les équipes ?
On se dirige vers une diminution des équipes informatiques
sur les sites des utilisateurs, à raison d’un ETP minimum pour
200 utilisateurs. Leur métier va également changer puisque
l’on réduit progressivement la technicité des agents sur les
sites de façon à les orienter vers du service et de la qualité pour
les utilisateurs.
Antoine Delahousse
—
Centralisation de la production
informatique : jusqu’où faut-il aller ?
13 janvier 2014
—
34
Ces évolutions nécessitent forcément une conduite du
changement adaptée pour former les agents informatiques,
voire les reconvertir à de nouveaux métiers.
Pourconclure,sait-on,nousGfiInformatique,accompagner
nos clients sur ce type de projet ?
Ouitoutàfait.Nousavonsuneoffreappelée« Gouvernancede
la production informatique » qui vise à aligner l’organisation
de la production informatique avec les besoins des métiers.
Cela peut s’accompagner de projets de transformation des
infrastructures ou d’externalisation.
***
35
Office 365, qu’est-ce que c’est ?
Office 365 est l’offre bureautique de Microsoft située dans
le Cloud. Elle comprend des outils comme Word, Excel et
PowerPoint, disponibles aussi en client lourd pour les postes
de travail. On y trouve également un client Lync, un client
Exchange et des applications SharePoint online.
Pourquoi migrer vers Office 365 ?
Pour trois raisons.
La première, pour une plus grande flexibilité. Microsoft
garantit contractuellement à 99.90 %. la disponibilité de ses
applications
La deuxième raison touche à l’innovation. Microsoft fait
évoluer sa plateforme en toute transparence pour le client et
maintient ses applications à jour.
Enfin la troisième raison se rapporte aux coûts. Migrer permet
de diminuer son TCO au niveau de ses plateformes internes,
puisque l’on se libère de la partie Gestion et Administration
de tout ce qui est hébergé dans le Cloud, que ce soit chez
Microsoft ou chez un partenaire.
Comment faut-il procéder pour migrer vers Office 365 ?
Il suffit de s’adresser à un expert Gfi ! Nous disposons d’offres
packagées prêtes à l’emploi, avec possibilité de personna-
lisation selon l’environnement du client pour faciliter une
transition en toute transparence vers le Cloud.
***
Frédéric Cardoso
—
Migration vers Office 365 :
pourquoi, comment ?
15 janvier 2014
—
36
Le eCommerce est un secteur très dynamique. Qu’est-ce qui
a changé ces dernières années ?
Beaucoup de choses. On a tout d’abord assisté à la montée
en puissance de la mobilité avec ce que l’on appelle le
m-Commerce. On a aussi vu les habitudes des consomma-
teurs changer. Nés avec internet, ils sont aujourd’hui naturel-
lement enclins à privilégier le canal virtuel au détriment du
canal physique. Cela entraîne chez les eCommerçants et chez
les commerçants traditionnels des changements nécessaires en
termes d’organisation, tant sur la logistique que sur la partie
technologique.
Lorsque l’entreprise possède déjà une plateforme, quels sont
les critères à prendre en compte pour la faire évoluer ?
Quasiment tous les commerçants possèdent aujourd’hui une
plateforme eCommerce. La question qu’ils doivent d’abord
se poser est la suivante : suis-je prêt à affronter un univers
concurrentiel de plus en plus tourné vers le cross-canal ?
Le cross-canal, c’est la capacité des commerçants à combiner
tous les canaux de vente, à mélanger les opérations et à tirer
les bénéfices de chaque information accumulée dans l’un ou
l’autre des canaux de vente afin de générer une expérience
d’achat unique vis-à-vis de l’internaute.
Deuxième critère d’évolution : la montée en puissance des
outils de merchandising. Le merchandising, c’est la capacité
d’une plateforme à proposer des produits complémentaires à
la vente afin d’augmenter le chiffre d’affaires et les marges.
Il faut aussi prendre en compte l’aspect mobilité, c’est-à-dire
être capable de traiter avec l’ensemble des plateformes
Olivier Ravel
—
Pourquoi refondre votre
plateforme eCommerce ?
17 janvier 2014
—
37
mobiles, tablettes et smartphones, sur Android, Windows
Phone ou iOS.
Enfin, une plateforme se doit d’offrir une très grande agilité
pour mener à bien des opérations marketing et commerciales.
Elle doit proposer des systèmes de contribution riches et avoir
une intégration très fine avec tous les outils de back-office,
comme la supply-chain.
Quels sont les risques à ne rien faire ?
Le risque est considérable. Aujourd’hui les compétiteurs
Pures Players comme Amazon ou eBay sont devenus des
mastodontes. Face à eux, les commerçants traditionnels
doivent impérativement se doter des mêmes outils. Les
commerçants traditionnels doivent élargir leur catalogue
d’offres en termes de produits, vis-à-vis des internautes, en
s’appuyant sur des réseaux de partenaires. C’est ce que l’on
appelle les Marketplace. La Marketplace va devenir un enjeu
extrêmement crucial pour les eCommerçants dans les années
à venir.
***
38
C’est quoi le Big Data?
Dans Big Data il y a deux termes, et le plus important c’est
Data, car porteur de sens. Le monde du Big Data fait prendre
conscience que des éléments de sens sont contenus dans les
données internes de l’entreprise. Ces données peuvent aussi
être exploitées en les croisant avec des sources externes,
qu’elles soient payantes ou non, afin d’apporter du contexte
qualitatif et quantitatif pour mieux comprendre sur quoi
repose son activité, tirer parti des signaux faibles et s’en servir
pour développer de nouveaux services, améliorer l’efficacité
opérationnelle, voire mieux prévoir/prédire des comporte-
ments. S’il s’avère que des contraintes sur un ou plusieurs des
3V paraissent importantes, alors il sera nécessaire de « faire
parler les données » via une approche technologique de type
Big Data.
Le Big Data, ça marche en France ?
Cela progresse malgré un départ plus que difficile. En France,
le Big Data a été essentiellement pris sous l’angle technolo-
gique, ce qui est un véritable problème. Les éditeurs américains
ont assuré la promotion de solutions miraculeuses face au
« déluge » de données sans prendre le temps de considérer
les besoins réels des clients français qui étaient et demeurent
différents.
En effet, les américains valident un concept business en
investissant si nécessaire sur une plateforme Big Data gérée
par des équipes internes technophiles. Le déclencheur est
donc business avec un sponsoring venant du plus haut.
En France, on a eu beaucoup d’interrogations face aux cas
d’usages outre atlantique, pas si simples à transposer en raison
Alvin Ramgobeen
—
Big Data : mi-figue, mi-raisin ?
23 janvier 2014
—
39
d’une volumétrie moindre et de contraintes légales bien plus
fortes. Enfin, ce qui ne facilite en rien la tâche, la logique d’in-
vestissement est souvent inverse à celle des États Unis.
Quels conseils donneriez-vous à une entreprise qui souhaite
s’engager dans une démarche Big Data ?
Qu’il n’est nul besoin de commencer par investir sur une
solution technologique de type Big Data pour se pencher sur
ce que la donnée peut apporter en termes de sens business.
Qu’il est tout à fait possible d’initier des démarches d’explo-
ration à partir notamment des données de détails contenues
dans son Système d’Information décisionnel. Qu’enfin, il
est plus que nécessaire de co-construire au préalable avec
les métiers une liste prioritaire de cas d’usages éligibles à ces
approches et d’autres part de sensibiliser sa direction générale
sur les raccourcis à éviter en la matière, à savoir de croire
qu’Hadoop sait gommer tous problèmes liés à la performance
par exemple !
***
40
Aujourd’hui les collectivités utilisent de nombreux moyens
pour communiquer avec leurs usagers, comme l’affichage,
les bulletins municipaux, les sites internet… mais existe-t-il
des outils innovants pour communiquer avec les citoyens ?
Se rendre en mairie reste le moyen privilégié par les citoyens
pour solliciter un service auprès de leur commune, avec les
contraintes que l’on connaît d’horaires d’ouverture et parfois
de file d’attente.
Vous le rappeliez à juste titre, les collectivités sont équipées
de sites internet. C’est le niveau 2 de la communication,
c’est-à-dire le niveau web. Aujourd’hui nous avons l’ambition
de proposer un bouquet de services innovants pour enrichir
les services en ligne.
Il y a ensuite le troisième niveau de communication qui
concerne la mobilité. La plupart des administrés sont équipés
de terminaux mobiles et nous souhaitons mettre à leur
disposition des services disponibles à tout moment et en tout
lieu depuis des tablettes ou smartphones. C’est le moyen le
plus efficace pour adresser le plus grand nombre de citoyens.
Vous parlez de services en mobilité, mais à quoi pensez-
vous ?
D’abord au push SMS. En 1 clic, une collectivité peut
envoyer un message SMS à l’ensemble de ses administrés.
Les utilisations sont multiples : prévenir les parents d’élèves
que les transports scolaires ne sont pas assurés, informer les
citoyens par un simple SMS qu’une réunion va se tenir en
mairie ou encore prévenir les usagers d’une coupure d’eau.
Sylvie Thiroine
—
Comment communiquer de
manière innovante avec vos
citoyens ?
3 février 2014
—
41
Ensuite, l’audio Web Conférence. Les collectivités peuvent
organiser des réunions auxquelles les participants assistent, soit
en présentiel dans les locaux de la mairie, soit à distance depuis
leur smartphone ou tablette. Dans ce cas, les participants à
distance peuvent voir et entendre ce qui se dit en réunion. Ils
peuvent aussi prendre la parole, être vus et entendus par les
autres participants.
Les cas d’application sont multiples. Je pense notamment
aux réunions scolaires qui commencent souvent à 17h00.
Les parents n’étant pas toujours disponibles, ils peuvent alors
participer à distance. Je pense aussi aux personnes à mobilité
réduite qui peuvent participer à des réunions organisées par la
mairie depuis leur domicile, devant leur ordinateur.
On a parlé de push SMS, d’audio Web Conférence. D’autres
outils innovants ?
Nous proposons d’enrichir les services disponibles en ligne.
A savoir, les citoyens pourront réaliser des démarches admi-
nistratives, suivre leur avancement, s’inscrire à des activités
sportives ou encore déposer un CV ou une demande de stage.
De plus, depuis le portail, le citoyen pourra demander à être
rappelé dans une plage horaire qui lui convient. C’est ce que
l’on appelle le système « clic-to-call ». Il pourra aussi prendre
rendez-vous avec un agent ou un élu en ligne depuis son
ordinateur. Cela revient à dire que la mairie est pratiquement
ouverte 24h/7j.
Tous ces outils sont largement diffusés dans le secteur
privé. Est-ce que c’est simple à mettre en place dans une
collectivité ?
La solution ConnectiCité de Gfi Informatique est très simple
à mettre en œuvre. Les services sont disponibles en un clic.
Rien n’est installé sur les ordinateurs de la collectivité. Tout
est hébergé dans le Cloud d’Orange, notre partenaire, sur
42
des datacenters installés en France. Nous avons développé un
système d’abonnements mensuels qui permet à toute les tailles
de collectivités d’accéder à ces services innovants, de la plus
petite commune rurale à la très grande agglomération.
***
43
On entend de moins en moins parler de BI mais surtout de
Big Data. Est-ce que l’un est en train de remplacer l’autre ?
C’est vrai, le Big Data a aujourd’hui pris le relais sur le
marché de la BI. Depuis 2011 le Big Data s’est concrétisé sur
le marché français, notamment au travers de la constitution
de « uses cases » et de projets qui s’implémentent autour de
solutions technologiques émergentes, souvent orientées Open
Source. Les éditeurs de BI traditionnels, depuis l’intégration
de données jusqu’aux solutions de Geo BI ou de restitution
avancée, se sont lancés dans le rafraîchissement de leur ligne
produit sur des concepts empruntés au Big Data, ce qui
engendre un certain flou pour les clients.
Quels sont les plus du Big Data par rapport à la BI ?
La BI sert des enjeux de pilotage des lignes métiers en
agrégeant les données opérationnelles. Dès lors, ce qui
est observé est souvent représentatif du signal fort. Si l’on
souhaite comprendre et donner du sens, il devient plus
difficile de trouver les éléments d’explications sous-jacents. La
BI traditionnelle est limitée pour apporter des réponses à ces
nouveaux besoins métiers.
Le Big Data travaille par l’approche basée sur des signaux
faibles et ce, au plus près du détail que les données opération-
nelles quasi brutes peuvent nous livrer. En ce sens, l’approche
Big Data est complémentaire à la démarche BI.
Comment faut-il procéder pour lancer un projet Big Data ?
Le point de départ d’un projet Big Data peut prendre appui
sur les données issues de la BI. En effet, la BI représente
généralement l’une des concentrations des données internes à
Alvin Ramgobeen
—
Big Data versus BI : y a-t-il match ?
11 février 2014
—
44
l’entreprise parmi les plus certifiées, tant sur la qualité que sur
les référentiels qui les décrivent.
Cependant il est nécessaire de toujours rattacher un projet
Big Data à un cas d’usage qui aura été au préalable décrit a
minima en termes métier au risque de se retrouver avec un lac
de données sans réel sponsor et qui ne vit pas.
***
45
Pourquoi les Directions Métier ont-elles parfois des
difficultés à dialoguer avec la Production Informatique ?
Les délais peuvent en être la cause car souvent les métiers
sont pressés de voir leurs demandes satisfaites, soit sur la mise
en œuvre d’une nouvelle fonctionnalité, soit sur la mise en
production d’une nouvelle application.
Les technologies peuvent être en cause également. La
productioninformatiquegèrecorrectementuncertainnombre
de technologies. Cependant, si les métiers demandent aux
équipes Production de faire fonctionner une base de données
inhabituelle, elles peuvent alors rencontrer des difficultés.
La qualité de service peut aussi être un sujet de mésentente.
Le métier peut éprouver une difficulté à formaliser la qualité
de service attendue ; de son côté la production informatique
hésite sur le niveau de l’infrastructure à mettre en œuvre.
On peut aussi avoir des surdimensionnements ou des
sous-dimensionnements.
Parlons du catalogue de services. Est-ce la solution et quelle
définition donneriez-vous au catalogue de services ?
La Direction Informatique produit le catalogue de services
des offres accessibles par les métiers. Ce catalogue de services
précise pour chaque offre le niveau de service proposé, le
coût, et le délai de mise en œuvre. On y trouve des offres
techniques, comme l’approvisionnement d’un serveur, d’un
volume de stockage, ou d’un studio de visioconférence ;
ou encore des offres plus globales, comme le MCO d’une
nouvelle application ou une solution d’archivage. On peut
Antoine Delahousse
—
Comment faciliter le dialogue entre
direction métier et production
informatique ?
18 février 2014
—
46
également avoir un catalogue de services bureautiques orienté
vers les utilisateurs.
L’intérêt du catalogue de services est de permettre aux métiers
de formaliser leurs demandes et simplifier leurs expressions.
En conséquence, la Direction Informatique va pouvoir in-
dustrialiser la réponse à ces demandes et avoir une meilleure
adéquation entre ce qui est mis en œuvre et les besoins des
métiers. Par-là même, la Direction Informatique réalise des
économies sur le fonctionnement.
Que se passe-t-il lorsqu’une Direction Métier a une
demande qui ne figure pas dans le catalogue de services ?
Dans ce cas, la Production Informatique propose une offre sur
mesure qui implique sans doute des coûts et des délais plus
importants pour le Métier. Dans certains cas, la Direction
Informatique peut s’adresser à un opérateur de Cloud public
pour bénéficier d’une offre basique d’hébergement.
Pour conclure, est-ce que nous Gfi Informatique, sommes
capables d’accompagner un client dans la construction de
son catalogue de services ?
Tout à fait, notre offre «  Gouvernance de la Production
Informatique » intègre l’ensemble de ces prestations.
***
47
La lutte anti-blanchiment, de quoi s’agit-il ?
1 500 milliards à 2 000 milliards de chiffre d’affaires annuel !
C’est formidable, n’est-ce pas ? C’est malheureusement le
produit estimé chaque année du blanchiment d’argent. Il faut
donc essayer de réduire ce montant.
Le blanchiment d’argent, c’est quoi concrètement  ? Cela
consiste à introduire dans le système légal de l’argent issu
d’activités illégales et de trafics en tout genre : trafics d’armes,
de drogue, extorsions de fonds, criminalité, vols, abus de
biens sociaux et corruption.
Tous ces sujets sont traqués. Le régulateur exige une mise
sous surveillance par les intermédiaires financiers tels que les
banques, les assurances, les conseils en patrimoine, les notaires
pour les successions, les avocats, les casinos, etc.
Le blanchiment lui-même prend des formes diverses et variées.
Un exemple à petite échelle : il suffit d’ouvrir un restaurant
qui ne servirait que 3 repas par an mais qui enregistrerait en
cash l’équivalent de plusieurs milliers de repas. Un exemple
plus compliqué va passer par des scénarios de sociétés écrans
ou fantômes, de facturations croisées, un peu de paradis fiscal,
un banquier peu regardant au passage, et le tour est joué.
En France, les sociétés chargées de suivre la lutte contre le
blanchiment doivent émettre des déclarations de soupçons à
un organisme central, TRACFIN, qui dépend du Ministère
des Finances.
Quel impact pour les banques ?
Les premières lois sur le blanchiment datent de 1996. Les
premiers impacts importants se sont fait sentir à partir de
Norbert Hensgen
—
Lutte anti-blanchiment : les
banques françaises sont-elles prêtes ?
25 février 2014
—
48
2005. Depuis cette date, les intermédiaires chargés de faire les
déclarations sont obligés de déclarer tous les comportements
suspects pouvant générer, pour leur auteur, une peine d’em-
prisonnement d’au moins un an.
Compte-tenu des réglementations existantes, cela représente
une nombre considérable de clients et de mouvements à
surveiller, ce qui oblige de fait les banques et les assurances à
surveiller l’ensemble de leurs clients et de leurs mouvements.
Cela les oblige à constituer des bases de données centrales
qui vont être alimentées quotidiennement avec des schémas
techniques de type datawarehouse, ainsi que d’analyser les
données avec différents outils de type analyse statistique,
moteur de règles ou comparaison à des listes noires. Les
banques ont plutôt choisi de mettre en place des progiciels
et non des solutions maison puisque la réglementation est la
même pour tous et que l’évolution sera facilitée lorsque la rè-
glementation aura changé.
Quels sont les principaux challenges pour une banque ?
La Quatrième Directive Européenne relative à la « prévention
de l’utilisation du système financier aux fins du blanchiment
de capitaux et du financement du terrorisme » a été votée par le
Parlement Européen en mars 2014. Elle devra être transposée
dans le droit national de chaque état dans les deux ans à venir.
Ce paquet réglementaire comporte 3 types de dispositifs :
•	 Un premier dispositif au niveau de l’extension du type
d’organismes concernés. Par exemple, toutes les sociétés de
jeux devront désormais déclarer leurs soupçons, y compris les
sociétés de jeux en ligne. Seront également suivies les transac-
tions opérées au niveau des grands groupes transnationaux
ou internationaux. Mais aussi de manière plus spécifique les
personnes politiquement exposées, à savoir nos élus, nos gou-
vernants, les hauts fonctionnaires, dans la mesure où ils sont
49
en relation avec des organismes étrangers ou des personnalités
étrangères qui pourraient présenter des cas de sollicitation.
•	 Le deuxième aspect de ce nouveau paquet réglementaire
concerne l’identification des clients, et la tenue de registres
publics des sociétés et des propriétaires. Il est maintenant
introduit la notion de bénéficiaire effectif, autrement dit, la
personne physique « qui tire les ficelles ». En d’autres termes,
pour une société, il s’agit de l’actionnaire ou des actionnaires
physiques principaux. Et lorsqu’ il s’agit d’une cascade de
sociétés, il y a maintenant obligation de remonter la chaîne
en tenant un registre de tous les propriétaires réels et des
acteurs qui effectuent les transferts de fonds, qui peuvent se
cacher derrière des personnes morales. C’est donc quelque
chose de très important qui ne va pas être simple à gérer pour
les banques.
•	 Le troisième volet concerne l’approche graduée par les
risques. Elle était jugée un peu simpliste dans la version
précédente mais qui se complique à présent. En effet, il est
demandé aux banques non seulement de différencier l’ap-
proche selon les clients, mais également selon les produits
vendus, les services exécutés et les canaux de distribution
utilisés. Cela signifie que si je suis client d’une banque privée
avec un patrimoine diversifié et de multiples compartiments
(produits, placements, investissements, mouvements divers
et variés), je vais avoir droit à une surveillance plus serrée
que celle qu’aura un salarié possédant un compte courant
ordinaire. Ceci se traduira en matière de SI par des mo-
difications importantes. En effet, ces nouvelles règles de
gestion nécessiteront des nouvelles données et de nouvelles
règles d’analyses. Très probablement se mettront en place de
nouvelles versions de progiciels de lutte contre le blanchi-
ment utilisés avec le lot habituel de tests : tests fonctionnels,
tests de non régression, tests de performance et probable-
ment une durée relativement longue avec un investissement
50
qui sera loin d’être négligeable.
Les banques françaises sont-elles au rendez-vous ?
De manière globale l’Europe est une très bonne élève dans ce
dispositif mondial et la France est un élève encore meilleur
que la moyenne européenne. Dès 2012, la France a un mis
en place un certain nombre de dispositions réglementaires
déjà en cours d’implémentation dans les banques, couvertes
a priori par la nouvelle Quatrième Directive. Cela dit le gros
du chantier qui consiste à mettre en place l’approche par les
risques différenciés causés par les clients, produits, services
et canaux de distribution n’est pas encore prévue et devra
être mise en œuvre. Le travail reste donc important. Mais
je suis confiant dans la capacité de nos banques à mettre ces
dispositions en place dans les deux ou trois années à venir.
Et Gfi Informatique dans tout ça ?
Gfi Informatique accompagne les principales banques
françaises depuis 2006 dans la mise en œuvre et le déploiement
de progiciels sur des bases mondiales. Nous avons développé
un savoir-faire, des compétences et une expertise que nous
saurons encore mettre à disposition de nos clients pour leur
assurer la réussite dans cette nouvelle étape.
***
51
Les TNR, c’est quoi ?
Obligatoires, les Tests de Non-Régression ne touchent qu’une
partie d’une application ou d’un Système d’Information.
Cette activité consiste à vérifier que « ce que l’on ne voulait
pas changer fonctionne toujours comme avant  ». Cela
représente en pratique 30 % des volumes de tests réalisés sur
ces applications. Les Tests de non régression sont importants
en termes de délai et de time-to-market. Ils ne peuvent être
conduits qu’une fois l’application livrée et sont donc sur le
chemin critique du projet. Souvent mal aimés, les TNR sont
perçus comme ayant peu de valeur ajoutée.
Quand peut-on optimiser les TNR ?
On peut optimiser lesTests de Non-Régression à trois niveaux :
«  en amont  » au moment où on les conçoit, «  pendant  »
lorsqu’on les exécute, et enfin, on peut encore les optimiser
« après ».
En amont, la première des optimisations vise une gestion
d’exigences qui soit de bon niveau et qui permette d’optimiser
les analyses d’impacts. En effet, lorsque l’on a une mauvaise
analyse d’impacts, on crée des problèmes de non-régression
en ayant des anomalies qui vont se produire sur des zones
que l’on ne devait pas toucher. La deuxième source d’optimi-
sation concerne la structuration du patrimoine de tests, dans
lequel on cherche à avoir des attributs de tri qui permettent
de sélectionner les scénarios en fonction des risques que l’on
prend vis-à-vis des évolutions et de la non-régression. Par
exemple, on utilise une structuration des scénarios en disant :
« j’ai des scénarios très détaillés de type Règles de gestion, des
François Darphin
—
Les Tests de Non-Régression (TNR) :
je t’aime… moi non plus ?
3 mars 2014
—
52
scénarios de type Processus bout-en-bout et enfin des scénarios
de type Procédures ». Durant le projet, les tests se font dans
cet ordre-là : en premier, les règles de gestion, les processus
ensuite, et enfin les procédures. Lorsque je suis en non-ré-
gression, je peux inverser l’ordre et commencer par tester
les procédures. Si elles sont conformes, il n’y a plus besoin
d’accéder aux niveaux processus et règles de gestion. Une fois
les procédures testées, les utilisateurs finaux sont véritable-
ment rassurés. Il est important de se donner des critères de
choix et de sélections qui permettent d’optimiser la quantité
de scénarios que l’on va exécuter.
Deux sources d’optimisation sont possibles «  pendant  »
l’exécution des Tests de Non-Régression. La première, l’auto-
matisation permettant d’aller beaucoup plus vite qu’en mode
manuel. Cependant quelques prérequis sont nécessaires en
termes de faisabilité technique et de stabilité pour éviter trop
de maintenance.
« En amont » de l’exécution, il est nécessaire de positionner
le contexte de l’exécution, a minima les données de tests, afin
que les tests puissent tourner tout seuls, puis se donner les
moyens d’automatiser l’analyse des résultats.
Enfin, il est encore possible d’optimiser « après » les tests de
non régression en capitalisant sur deux points : d’une part faire
que la maintenance des scénarios suive l’évolution de l’appli-
cation et, d’autre part, en préparant des éléments statistiques
pour identifier les tests qui ont produit les meilleurs résultats.
***
53
L’ALM est l’acronyme de Application Lifecycle Management que l’on peut
traduire par gestion du cycle de vie des applications. Historiquement le
PLM a été mis en place pour gérer des données mécaniques, notamment
liées à la Conception Assistée par Ordinateur (CAO). Puis progressivement
le PLM s’est déployé sur l’ensemble du cycle de vie tout en restant associé
au produit, à l’organique. Aujourd’hui, les industriels et les solutions du
marché sont suffisamment matures pour déployer réellement l’ingénierie
système et l’ingénierie système logiciel
Quels sont les défis relevés par l’ALM ?
Comme pour le PLM, le premier défi de l’ALM est la mise
en place d’un référentiel permettant un partage facile de
l’ensemble des informations liées à la définition, la conception,
la production et la mise en service des systèmes embarqués.
On couvre la gestion des exigences et ce, jusqu’à ce que la
vérification de ces exigences soient bien répandues dans le
système industrialisé.
Le deuxième défi, côté utilisateurs, est la mise en place d’une
collaboration directe entre l’ensemble des intervenants dans la
définition du système.
Le troisième challenge est la traçabilité au travers la création
de tableaux de bord permettant de bien suivre l’avancement
dans le cycle de vie du système.
Le quatrième défi est l’optimisation de la campagne de
tests et une amélioration de l’assurance qualité du système
industrialisé.
Enfin, le dernier est la mise en place de la ligne de produits
pour faire de la conception modulaire par système, sur toute
Thierry Durand
—
ALM & Ingénierie Système :
nouveaux défis des industriels dans
le monde du PLM ?
5 mars 2014
—
54
une gamme de produits de l’industriel.
Concrètement, sur quels types de chantiers les industriels
peuvent-ils déployer de l’ALM ?
Je privilégierais deux axes. Le premier, c’est remonter dans
le cycle de vie du PLM, c’est-à-dire au niveau de la gestion
des exigences jusqu’au dernier point du cycle en V de la
conception produit, à savoir la vérification des tests. Cela
permet d’assurer une cohérence de la gestion des exigences
jusqu’aux tests.
Le deuxième axe est la gestion logicielle des systèmes
embarqués. Cela s’applique aux exigences bien sûr, mais aussi
aux sources, aux codes et aux tests qui ont été mis en place
pour valider le système logiciel embarqué.
Et Gfi Informatique dans tout cela ?
Sur la base de son expertise aéronautique et défense, Gfi
Informatique a investi sur ce sujet de l’ALM et l’Ingénierie
Système. De par la maturité des industriels et la maturité des
solutions, Gfi Informatique a mis en place des offres et des
méthodologies qui permettent d’accompagner les industriels
dans cette démarche.
***
55
On entend souvent parler de Cloud dans les collectivités,
mais qui dit changement, dit crainte… alors, qu’en est-il
dans la réalité ?
Pour peu que vous ayez choisi le bon opérateur, l’ensemble
des informations que vous mettez dans le Cloud aujourd’hui
sera pratiquement accessible et disponible à 100 %, avec une
étanchéité complète de vos informations. Autrement dit, un
client ne peut pas avoir accès aux données d’un autre client s’il
ne le souhaite pas.
La sécurité, l’accessibilité des données sont-elles des idées
reçues. Dans ce contexte, quels sont les intérêts pour les
collectivités d’adopter des solutions Cloud ?
Une collectivité a intérêt à rester centrée sur sa mission
de service public. Cela permet aux acteurs publics de se
reconcentrer sur leur métier de base et sur les tâches à valeur
ajoutée, comme mandater les fournisseurs, encaisser les
recettes, payer les agents. Les acteurs publics s’affranchissent
ainsi de tout ce qui est technique ou technologique, de la
sauvegarde de la veille qui n’a pas fonctionnée ou du réseau
qui n’est pas disponible.
D’autres exemples d’usages du Cloud ?
Aujourd’hui les petites collectivités ont des agents multi-em-
ployeurs. Un secrétaire de mairie peut être appelé à travailler
pour trois ou quatre collectivités différentes. Ainsi, quelle que
soit sa situation géographique, ce secrétaire de mairie peut
facilement répondre à ses élus ou à ses administrés sans se
Guillaume de Bruc
—
Solutions Cloud pour les
collectivités locales : qu’avez-vous à
y gagner ?
11 mars 2014
—
56
poser de questions dans la mesure où il dispose d’un accès à
l’ensemble des collectivités qu’il gère.
Le Cloud pour une collectivité, c’est compliqué à mettre en
place ?
Le Cloud, c’est très simple à mettre en place. Avec la reprise
des données et la formation des agents, vous pouvez être
opérationnel en quelques semaines !
C’est cher ?
Le coût dépend bien évidemment de la taille de la collectivité,
du nombre d’agents connectés et du nombre de fonctionnali-
tés. Gfi Informatique commercialise des solutions à moins de
200 euros par mois, tout inclus.
***
57
Pour la communauté ITSM : quels sont les « bons indicateurs » de Gestion
des Services ? Quels sont les indicateurs à déployer en priorité ? Quels sont
les conseils et les pièges à éviter ?
La priorité est de se concentrer sur la satisfaction client
Les référentiels de bonnes pratiques listent pas moins de 130
indicateurs (appelés aussi KPI – Key Performance Indicators)
différents pour mesurer la performance de la Gestion des
Services, il y a de quoi avoir le vertige. Surtout si la satisfaction
du client n’est pas au rendez-vous après leurs déploiements.
« If you cannot measure it, you cannot improve it », Lord Kelvin.
Une chose est sûre, la mise en place d’indicateurs (ou KPI)
est indispensable pour améliorer la manière de délivrer ses
services IT aux clients. Cela permet de mesurer l’atteinte d’un
objectif et disposer d’informations factuelles pour prendre les
décisions. Sans indicateur défini, pas de système de mesure,
donc pas d’amélioration possible.
La clé réside dans la définition de l’indicateur. En plus
d’être SMART (Significatif, Mesurable, Acceptable, avec un
Responsable, Temporellement défini), les experts ITSM Gfi
du Centre d’Intégration et Transformation estiment qu’un
bon indicateur ne doit pas être cher à produire (par rapport à
son apport), doit être automatisé et surtout doit être le reflet
positif de la perception du client.
Priorité aux indicateurs de disponibilité, de satisfaction
client et de suivi des coûts
Il est toujours délicat pour une DSI d’être informée par
Jérémy Brunet
—
Les « bons indicateurs » de Gestion
des Services : comment les choisir ?
13 mars 2014
—
58
ses clients des indisponibilités de Service. Ceci montre un
manque de maîtrise dans sa gestion et un fort risque de
dépréciation de ses services. Il est donc prioritaire de mettre
en place des indicateurs de suivi de la disponibilité afin d’être
le plus réactif et le plus communicatif possible en cas d’indis-
ponibilité avérée ou planifiée.
La deuxième priorité est de mesurer la satisfaction client.
Aujourd’hui, pour qu’une DSI perdure, elle doit compter sur
ses clients. Seuls les clients satisfaits et fidèles continueront à
utiliser (voire payer) ses Services. L’enjeu est donc de définir
des indicateurs qualitatifs pour mesurer la satisfaction et
le degré de fidélité des clients de la DSI. Des enquêtes de
satisfaction régulières et ciblées couplées à des indicateurs,
comme le taux de réengagement à des services de la DSI,
permettent de mesurer cela.
La troisième priorité porte sur le suivi des coûts d’un service.
Une transparence dans le suivi des coûts IT est la garantie
d’une bonne gestion aux yeux du CIO et des clients.
Aujourd’hui, les DSI sont jugées sur leurs capacités à gérer
le S.I dans le respect du budget alloué. Par conséquent, la
mise en place d’indicateurs de suivi de coût des Services est
prioritaire et facilite la justification et/ou la reconduction des
budgets. De plus, il s’agit des indicateurs les plus regardés des
autres directions, car compréhensibles et comparables.
Certains indicateurs sont à proscrire
Certains indicateurs systématiquement implémentés, bien que
spécifiques, sont à proscrire. Le suivi du nombre de relances
effectuées dans un ticket d’incident en est un bon exemple.
Les experts ITSM Gfi jugent la définition (relance VS simple
mise à jour) et la mesure trop aléatoire à mettre en œuvre par
rapport au bénéfice à en tirer. Autre indicateur de Centre de
59
Services souvent demandé et jugé peu performant : le suivi du
ratio appels téléphoniques/tickets ouverts. La mise en œuvre
de cet indicateur consiste à relever les écarts entre les appels
reçus au Centre de Services et le nombre de tickets saisis par le
Centre de Services dans l’outil de ticketing. Ceci dans le but
de s’assurer que tous les appels sont tracés. Gfi met en garde
sur cet indicateur car la justification des écarts est lourde et
souvent infructueuse. En effet, les écarts sont souvent liés à
des erreurs d’appels, faux numéros, appels internes…
Réviser les indicateurs dès qu’ils ne reflètent plus la
perception du client
De manière générale, si il y a désaccord entre le ressenti du
client et la valeur remontée par l’indicateur, Gfi préconise
de revoir l’indicateur. Sortir du « Reporting pastèque » qui
consiste à monter des indicateurs au vert alors que quand on
interroge les clients sur le Service, ils voient rouge.
Une révision ou adaptation des indicateurs doivent aussi être
effectuées lors d’évolutions métiers notables, des revues de
processus ou de changements d’objectifs.
Des indicateurs orientés amélioration et non justification
Pour conclure, Gfi préconise d’avoir une approche progressive
sans vouloir répondre à trop d’exigences à la fois. De ne pas
suivre à la lettre les préconisations des référentiels de bonnes
pratiques. De construire les indicateurs directement avec
les clients et de les orienter « amélioration des services » et
non pas « justification d’activité ». Aucun indicateur ne se
suffisant à lui-même, un certain nombre devra être déployé de
manière cohérente, certains pouvant être utilisés temporaire-
ment pour identifier une cause précise de dysfonctionnement.
Cependant, pour une gestion efficace, les experts ITSM Gfi
du Centre de Conseil et d’Expertise de Nantes préconisent de
ne pas excéder cinquante indicateurs.
60
Performance utilisateurs : pourquoi est-ce un sujet
d’actualité ?
Qui dit performance, dit architecture !
Et les architectures aujourd’hui sont compliquées, mondiales
et interconnectées. On les trouve de plus en plus dans le Cloud
avec des éléments difficilement maîtrisables. Les architectures
font intervenir des partenaires qui sont les fournisseurs de ces
Clouds. Et pour finir, avec la mobilité, les utilisateurs utilisent
de nouveaux équipements, de nouveaux devices, parfois
même les leurs qui ne sont forcément labellisés par la DSI. En
conséquence, la mesure de la performance dans ces architec-
tures est devenue extrêmement complexe.
Par ailleurs les utilisateurs qui subissent les performances
souhaitent forcément en avoir de meilleures. Ils ont une vue
perçue de la qualité de service qui dépend surtout de leurs
multiples usages.
Pour résumer, la performance est compliquée à mesurer à la
fois pour des raisons d’architecture, mais aussi car les mesures
de performances globales ne permettent plus de déduire celle
d’un utilisateur donné, pour ses propres usages.
Dans ce contexte, quel est l’apport de l’APM ?
Premièrement, l’APM permet d’objectiver la performance
entre la perception de la qualité de service de l’usage d’un
individu en train de réaliser une transaction quelque part dans
le monde, par rapport à la réalité concrète de la mesure de
performance.
Autrement dit, la performance instantanée du système peut
être excellente et parfaitement en phase avec les conventions de
François Darphin
—
Performance utilisateurs : pourquoi
est-ce un sujet d’actualité ?
24 mars 2014
—
61
service, alors même que les utilisateurs en ont une appréciation
modeste. L’objectivation de cette mesure permet d’ouvrir une
discussion entre l’utilisateur final et les pourvoyeurs des in-
frastructures pour s’assurer qu’ils sont bien alignés.
Deuxièmement, l’APM permet de suivre ces mesures en
temps réel. Des tableaux de bord retranscrivent en continu
l’évolution de cette mesure pour suivre la tendance qu’elle soit
positive ou négative. Ainsi les outils d’APM vont permettre
dans un mode actif, notamment en cas des difficultés, de
récolter énormément d’informations sur ce qu’il se passe.
Troisièmement, des outils permettent de savoir s’il s’agit du
serveur, de la base de données, de la transaction faite par l’uti-
lisateur ou du terminal qui pose problème.
Quatrièmement, ces outils permettent d’instrumenter les
escalades quand vraiment plus rien ne va dans l’infrastruc-
ture. Une cellule de crise est montée et les outils d’APM
abondent alors d’informations pour savoir comment résoudre
les problèmes.
L’APM : comment cela se met en œuvre ?
Il faut trois conditions pour mettre en œuvre une solution
d’APM.
Avant tout, des compétences. Dans notre monde technolo-
gique, il nous faut compter sur des experts qui comprennent
ces technologies et qui savent mettre en œuvre les outils.
Ensuite, des outils de mesure, des injecteurs, des sondes, des
simulateurs de protocole. On trouve également des outils qui
réalisent de la mesure de consommation de ressources sur les
réseaux, sur les serveurs, sur les postes de travail, autrement dit
de la métrologie.
Puis enfin, on trouve des outils en charge de la consommation
de cet ensemble de ressources, c’est ce qu’on appelle du
Capacity Planning. C’est particulièrement vrai dans les
Clouds dans lesquels on souhaite avoir une infrastructure
62
scalable, et où, en fonction de la performance que l’on veut
obtenir pour l’utilisateur, on va mettre en ligne plus ou moins
d’énergie informatique.
A-t-on une préférence pour certaines solutions ?
Oui, une préférence pour celles qui sont faciles à mettre en
œuvre afin de limiter les effets de compétence et celles qui ont
un large spectre de couverture des protocoles et des outils. Par
exemple, pour traiter simultanément du HTML ou du Citrix,
il faut être capable de prendre en compte ces deux protocoles.
Et pour traiter du SAP, il faut être en mesure de bien connaître
les applications spécifiques, mais aussi les applications en
Cobol.
À ne pas négliger, le niveau d’analyse qui nous permet de
donner des préconisations d’optimisation à la fois rapides et
pertinentes.
Pour conclure, Dynatrace de Compuware est l’outil qui
répond le mieux au besoin de performance, notamment avec
ses outils d’injection Gomez ou Dcrum.
***
63
Première partie
La mise en place d’une plateforme eCommerce n’est pas qu’une « simple »
affaire IT. La stratégie business prime. Il est nécessaire de se poser, bien en
amont, une série de questions de fond qui touchent autant à la stratégie
business qu’aux métiers. Après, seulement, viennent les problématiques
IT. Olivier Ravel, Digital Pratice Manager chez Gfi Informatique donne ses
conseils clés.
Remodeler sa stratégie commerciale
Commencez par vous interroger sur votre modèle de business
et sur vos objectifs notamment en termes de chiffre d’affaires.
Dans ¾ des cas, je me suis aperçu que les experts métiers se
posent la question du CA trop tard ! La plateforme ne sera pas
la solution à tout, et il ne faut pas hésiter à profiter d’un projet
de refonte pour remodeler la stratégie commerciale.
Le modèle économique de l’entreprise sera peut-être différent
surleweb:lasupplychain,leCRMetlanotiondemarketplace
seront des points importants qui détermineront les solutions
à choisir. De même, le changement des usages de consomma-
teurs façonnera le modèle économique de distribution. Cette
phase amont est l’occasion d’une réflexion sur les moyens
d’augmenter le CA online (politique commerciale spécifique,
affiliation, déploiement géographique plus important…).
Votre business model sera aussi fonction du type d’enseigne.
J’ai eu à traiter du cas des franchises : comment faire en sorte
Olivier Ravel
—
Les conseils clés pour préparer
le lancement de votre plateforme
eCommerce : d’abord, la stratégie
business !
31 mars 2014
—
64
que le canal digital n’entre pas en concurrence avec le réseau
mais soit au contraire un outil de plus pour les membres ?
Le modèle de cofinancement peut permettre de rémunérer
les franchisés sur un pourcentage des ventes eCommerce,
et le « clic and collect » (génération de leads) pourra aussi
bénéficier aux franchisés.
Tout cela aura bien évidemment un impact sur la stratégie
plateforme et sur les choix métiers et IT.
Placer le client au centre
Il faut ensuite prendre en compte LE grand driver du moment :
le multiplexage des canaux. Site web, centre d’appel, réseaux
sociaux, mobile, point de vente… on doit casser la notion
encore trop courante de « silo » isolés les uns des autres, mixer
les informations en provenance de ces différents canaux pour
placer le client au cœur du système de vente, et bâtir ce dernier
autour d’une base CRM//Client.
Choisir la solution plateforme adaptée
Enfin, vient le choix du type de solutions : «  make  » or
« buy » ? Plateforme en développement spécifique ou solution
du marché (ERP Commerce) ? J’aurais tendance à privilégier
l’option « buy » car les solutions ERP Commerce ont rattrapé
ce qui se fait de mieux en spécifique, en tout cas pour les
pure players. L’option « make », développement spécifique,
conviendra pour des systèmes très complexes avec un
historique important, les services financiers ou la banque, les
telcos…
Il existe plusieurs stratégies «  buy  », de l’acquisition d’une
solution d’un éditeur ERP, qui a un coût mais se justifie en
fonction de l’ambition de croissance, au pay per use en mode
Saas. Le choix, là aussi, dépendra du modèle économique.
65
N’oubliez pas de faire intervenir les métiers dès ces phases de
choix liées au modèle, et la DSI lors du choix de plateforme.
***
66
Deuxième partie
Dans la mise en place d’une plateforme eCommerce, après la phase
stratégique (lire « Bien penser sa stratégie business en amont ») où le
modèle économique et la stratégie commerciale online sont (re)modelés,
vient la phase métier. Attention toutefois : les métiers devront être
impliqués très tôt, dès la définition de la stratégie. Olivier Ravel, Digital
Pratice Manager Chez Gfi Informatique avance quelques conseils essentiels.
1 – Faire intervenir les métiers dans les bons processus et
aux bons moments
Les métiers, que ce soit les ventes, le marketing, la production,
la supply chain… devront être impliqués dès la phase de
définition de la stratégie de mise en place d’une plateforme
eCommerce qui peut bouleverser ces organisations du fait
d’un accroissement de l’activité.
La question du chiffre d’affaires online cible avec leviers de
croissance doit ainsi être posée avec l’implication des métiers.
L’autre question des moyens organisationnels et marketing
en rapport avec les objectifs de croissance nécessite très tôt,
également, leur intervention. Ainsi le modèle de distribution
les concerne directement avec la notion de « cross-canalité »,
de même que le modèle de promotion (comment envoyer
le client en magasin avec des bons d’achat sur le Net, par
exemple, ou quel modèle promotionnel généralisable ou
au contraire spécifique au online). Idem pour le pricing des
produits.
31 mars 2014
—
Olivier Ravel
—
Les conseils clés pour préparer
le lancement de votre plateforme
eCommerce : les métiers, c’est très
tôt que vous devez les impliquer
67
Dès le départ je recommande que les équipes métiers se
concentrent sur les pratiques commerciales qui rapportent le
plus (ROI important) afin de pouvoir gérer les contraintes de
Time To Market au moment de la construction de la solution
et focaliser les efforts de mise en œuvre.
2 – Le cas particulier de l’international
L’international, qui nécessite une approche globale, met parti-
culièrement en lumière le rôle clé des métiers. Ce n’est pas au
moment du projet (plateforme et IT) que l’on doit y penser,
mais bien avant !
À partir d’une production centrale, le modèle de vente peut
être différent selon les pays. Les métiers doivent essayer de
rassembler le maximum de fonctions dans un « core model »
afin, ensuite, de le déployer pays par pays. Ils vont définir les
processus qui peuvent être regroupés et répétés : un catalogue
central décliné ? Ou un catalogue différent par pays ?
Modèles de distribution, de paiement, de livraison, de pricing
et de promotion : tout cela impacte les acteurs côté métiers
mais aussi les opérateurs. Avec, pour certains pays ou certains
services, des conditions très spécifiques : je connais bien la
distribution en Chine par exemple, qui présente des particu-
larités sur le plan légal, et j’ai eu affaire à des services de vente
en ligne devant adapter leur modèle de paiement aux pays et
à leur monnaie…
***
68
Troisième partie
Héritage technique, testing, design, hérbergement…. Dans la mise en place
d’une plateforme eCommerce, la phase IT intervient théoriquement après
les phases stratégiques et métiers (lire « Bien penser sa stratégie business
en amont » et « Impliquer les métiers très tôt ») quand le modèle de CA
online et les différents modèles de distribution ont été élaborés, et la
plateforme ERP choisie. Mais la DSI a aussi un rôle en amont en lien avec la
DG et les métiers : formation, intégration des équipes, etc. Le tout avec une
bonne maîtrise d’œuvre ensemblière. Olivier Ravel, Digital Pratice Manager
Chez Gfi Informatique résume ici les conseils à suivre.
1 – Bien conseiller la DG dans le choix de la plateforme
ERP
La DSI va intervenir en amont lors du choix stratégique
du type de plateforme ERP. La tendance du marché est à la
migration vers les ERP commerce, les solutions dites « buy »
par opposition aux solutions spécifiques qui offrent un Go To
Market plus rapide et industriel. Le choix se fera en dialogue
entre la DG et la DSI, en fonction du modèle économique
de l’entreprise : entre l’acquisition d’une solution éditeur,
une solution prête à l’emploi plugée ou une solution à la
transaction (pay per use) en mode SaaS.
2 – Bien gérer le « legacy »
Il est rare qu’une entreprise fasse totalement table rase du
passé. Dans la phase IT, on se heurte alors d’abord à des
31 mars 2014
—
Olivier Ravel
—
Les conseils clés pour préparer
le lancement de votre plateforme
eCommerce : les « IT » à la fin ? Pas
tout à fait.
69
problèmes liés au «  Legacy  », c’est-à-dire à l’héritage des
solutions techniques adoptées par le passé. En effet, le système
eCommerce repose forcément sur ce « legacy » : ERP, back
office, chaine de supply… J’insiste : le problème de l’inter-
façage du Legacy avec le nouveau SI Commerce sera crucial,
les impacts sur ce dernier, de même que la localisation des
référentiels seront décisifs et devront être anticipés.
3 – Testing et hébergement : former en amont
De même, les équipes de tests et métiers devront être formées
en amont à la solution afin de pouvoir dérouler les opérations
de recette dans de bonnes conditions. L’hébergement devra
aussi être anticipé avec un prestataire maîtrisant la solution
qui impose en général des spécificités en termes d’exploitation
et niveaux de SLA.
4 – Maîtriser l’ensemble du projet
Enfin, au moment de la mise en place de la plateforme,
j’estime que nous ne sommes pas dans une logique d’inté-
gration d’une solution eCommerce. A l’inverse, ce sont les
nombreux et différents intervenants, comme par exemple
l’agence de design, qui devront être intégrés en amont et bien
connaître la solution avant la phase technique, il est préférable
que les équipes agence et IT puissent fonctionner de manière
intégrée afin d’accélérer les opérations.
***
70
Pourquoi est-il préférable pour une entreprise française
de privilégier des solutions de supervision de sécurité de SI
« made in France » ?
Les principales solutions sont américaines. Suite à l’affaire
Prism et aux révélations autour des écoutes de la NSA, on sait
que nos données circulent jusqu’aux Etats-Unis. En France,
le niveau de sécurité a été relevé et certaines entreprises et
institutions se voient imposées de mettre en place des moyens
de protection supplémentaires.
Au regard de ces différents points, il est effectivement pertinent
d’opter pour une solution française.
La plupart des solutions sont américaines. Existe-t-il des
solutions françaises ?
Il existe très peu de solutions françaises sur ce marché.
Néanmois, il en existe une, VigieSI développée par Gfi
Informatique.
VigieSI est un logiciel de SIEM (Security Information and
Event Management). Il gère de manière globale la sécurité du
Système d’Information. A la fois décisionnel et opérationnel,
il s’adresse aux DSI, RSSI et SOC (Centres Opérationnels de
Sécurité). Véritable tour de contrôle, VigieSI est au cœur de
l’organisation de la sécurité de l’entreprise. VigieSI permet
de surveiller les activités du SI, de détecter en temps réel
les attaques et de réduire ainsi le niveau de risque associé au
Système d’Information.
Mathieu Bertrand
—
Supervision de la sécurité de votre
SI : pourquoi privilégier une
solution « made in France » ?
2 avril 2014
—
71
Pour conclure, donnez-nous deux bonnes raisons pour
qu’un RSSI s’intéresse à l’offre VigieSI développée par Gfi
Informatique ?
Tout d’abord VigieSI est un logiciel dont les développements
sont maîtrisés par notre Groupe Gfi Informatique. Ensuite,
à la différence du SIEM traditionnel, il fournit une capacité
à réagir aux incidents informatiques. Cette réaction se fait à
travers l’ajout de modules complémentaires développés par un
de nos partenaires.
***
72
Le « Product Lifecycle Management » sert à piloter le cycle de vie d’un
produit. Enjeu majeur, un projet PLM doit faire l’objet d’un cadrage réussi :
stratégiquement, mais aussi en termes de métiers, qu’est-ce que cela
va apporter à l’entreprise ? Les conseils d’Yves Salahun, consultant Gfi
Informatique, pour réussir cette étape indispensable au succès d’un PLM.
PLM : un enjeu majeur pour la compétitivité
Le PLM est une initiative à la fois technique et stratégique
visant à optimiser la gestion de l’ensemble des informations
et des données créées puis modifiées tout au long de la vie
d’un produit, depuis l’idée jusqu’à l’obsolescence. À la
clé  : innovation, amélioration de la rentabilité, transfor-
mation des processus de travail, etc. Un atout dans un
contexte économique de plus en plus compétitif, ouvert et
interconnecté.
Avant de mettre en œuvre un PLM, qui s’appuiera ensuite sur
un Système d’Information constitué de progiciels du marché
ou d’applications existantes, il faut une phase de cadrage.
Il s’agit d’une étude permettant de définir ce que pourrait
être un projet PLM adapté et surtout ce qu’il apportera à
l’entreprise. Quels processus ? Pourquoi ? Avec qui ? Combien
va rapporter une meilleure intégration ? Les entreprises
ont besoin de répondre à ces questions avant de se lancer.
Comment les aider ?
Apporter de la valeur métier
Premier point : je recommande de focaliser le cadrage sur
les enjeux métiers. Le PLM est une réponse globale et or-
ganisationnelle à des attentes métiers : productivité, gestion
Yves Salahun
—
PLM : si c’est bien cadré,
c’est bien joué !
7 avril 2014
—
73
et traçabilité des données, nouveaux process à déployer…
Pour réussir un cadrage, il nous faut donc, en tant que
conseil, partager avec l’entreprise les bonnes pratiques et la
connaissance acquise lors de nos multiples expériences. Par
exemple la gestion de configuration dans l’aéronautique, la
gestion de la diversité dans l’automobile, la traçabilité dans le
génie logiciel pour ne citer qu’eux.
Proposer une démarche de cadrage PLM lisible
Ensuite, dans tous les projets que j’ai menés, j’ai pu voir à quel
point la démarche de cadrage doit permettre à l’entreprise
d’exprimer et de valoriser ses intentions. Méthode, partage
de contributions réciproques, prise en compte des enjeux
stratégiques à atteindre… les étapes doivent être claires et
compréhensibles, tout doit être lisible !
J’essaye aussi chaque fois d’aider l’entreprise à s’approprier la
situation, à définir la cible, à valoriser les différents scénarios.
Et ce, grâce à une palette de méthodes dites « PLM Roadmap »
ou « schéma directeur PLM ».
Partager nos convictions pour faire progresser
Enfin, la confiance est essentielle. En tant que conseil, il nous
faut afficher notre conviction et nos valeurs afin de mobiliser
les équipes de l’entreprise autour d’un projet de transforma-
tion commun. Les processus d’un PLM étant par définition
transverses aux filières métiers, leur définition et leur mise en
œuvre requièrent une vigilance particulière pour expliquer aux
opérationnels et à leurs managers les bénéfices, les impacts, ce
qui va changer.
On le voit donc, bien cadrer c’est communiquer, mobiliser,
motiver et guider !
***
74
On entend beaucoup parler de collaboratif au sein des
entreprises, mais cela marche-t-il dans la réalité ?
Aujourd’hui le collaboratif fonctionne bien à condition de
respecter certaines règles. Il est en effet nécessaire que les
outils soient parfaitement intégrés au poste de travail pour
que l’utilisateur puisse en tirer les bénéfices. Cela passe par
des « Digital Workplace » qui favorisent le travail en équipe
autour de ce que l’on appelle « l’entreprise des savoirs ».
Quels sont les éléments qui composent une Digital
Workplace ?
Certains clients ont une approche de communication « top
down  » typiquement orientée «  gestion de contenus  ».
D’autres clients ont une approche davantage collaborative au
travers d’espaces documentaires, d’autres encore font le choix
d’une offre orientée réseau social d’entreprise.
Le concept d’une Digital Workplace permet d’offrir à votre
intranaute un espace dans lequel il peut accéder à un certain
nombre d’éléments, à savoir la gestion de contenu «  top
down », l’outil de réseau social de l’entreprise, les outils de
travail collaboratifs, les applications métier… Au sein d’une
Digital Workplace, les accès à ces outils sont ouverts en
fonction du profil de l’utilisateur.
Une Digitale Workplace, c’est compliqué à mettre en œuvre ?
Non,cen’estpascompliqué.Dansunmarchéarrivéàmaturité,
quelques grands leaders ont émergé. Gfi Informatique a fait
le choix de travailler avec Liferay pour déployer des solutions
collaboratives Digital Workplace. Les cycles de mise en place
Olivier Ravel
—
Pourquoi faut-il penser collaboratif
au sein d’une Digitale Workplace ?
14 avril 2014
—
75
sont extrêmement rapides, car cette solution couvre une très
large palette des besoins de l’entreprise.
***
76
Nos clients sont aujourd’hui très sollicités par les éditeurs
pour migrer leur plateforme BI. Pourquoi devraient-ils
engager une migration lorsque la solution en place convient
parfaitement ?
Effectivement les éditeurs mettent actuellement une certaine
pression sur nos clients pour migrer. Certes il y a un intérêt
financier plus qu’évident pour les éditeurs, mais on oublie
souvent qu’il existe aussi dans cette démarche de migration de
véritables bénéfices pour les utilisateurs.
Un système BI doit avant tout être considéré comme un
système vivant qui ne cesse d’évoluer, tant sur le plan des
outils et des fonctionnalités que des usages. Côté outils, les
éditeurs proposent actuellement des outils de Rapid BI et de
mobilité de nouvelle génération. Côté usages, une migration
permet de répondre à l’émergence de nouveaux métiers et des
besoins d’analyses de données encore plus approfondies.
D’accord, mais pour autant faut-il obligatoirement migrer ?
Certains de nos clients prennent le risque de ne pas migrer
pour des raisons principalement économiques. Ils mettent fin
à leur contrat de maintenance et économisent le coût de la
maintenance qui représente entre 22 et 25 % du prix d’achat
des licences. Le gain semble évident, mais il s’agit d’un calcul
à très court terme.
Y a-t-il un risque à ne pas migrer ?
Oui bien évidemment. Je confirme qu’il y a des risques
à ne pas migrer. Lorsque nos clients arrêtent le support de
Emmanuel Péant
—
Je suis satisfait par ma plateforme
BI. Pourquoi migrer ?
17 avril 2014
—
77
maintenance, ils perdent la possibilité de faire évoluer leur
plateforme avec les nouvelles versions des outils des éditeurs.
Ne pas migrer, c’est se priver de toutes les évolutions en termes
de technologies, d’usages, de fonctionnalités et de nombreux
avantages.
Ne pas migrer, est-ce un bon calcul ?
A court terme, oui. Le gain financier est rapide. En revanche
à moyen et long terme, c’est un mauvais calcul. Nos clients
seront à un moment donné dans l’obligation de faire évoluer
leur plateforme BI. Le fait d’avoir repoussé la migration va
inévitablement engendrer un surcoût à l’ensemble du projet
de migration. Un surcoût technique parce qu’il va falloir faire
l’acquisition de nouveaux outils. Mais surtout un surcoût
fonctionnel parce que la plateforme cible a évolué : nous
aurons une complexité fonctionnelle plus importante à gérer
au moment de la migration.
Au final, quelle serait votre recommandation ?
C’est de maîtriser et de planifier régulièrement les migrations
des plateformes BI. Cela permet de bénéficier pleinement
des avancées technologiques et des nouveaux usages, tout en
maîtrisant les coûts de migration.
***
78
Sous quel angle faut-il aborder un projet Big Data ? sous
l’angle techno ou enjeux métier ?
On observe que les entreprises françaises ont essentiellement
abordé le Big Data sous l’angle technologique, parce que bien
souvent elles avaient du mal à produire les « business cases »
permettant de convaincre leur hiérarchie et leurs acteurs
métier, alors qu’il est impératif de l’aborder sous l’angle
métier et ce de façon itérative et non équivoque !
Ceux qui ont pu avancer de façon concrète sont répartis en
deux segments :
•	 Les acteurs du eCommerce ou des télécoms. D’évidence ils
travaillent les problématiques de Big Data sous l’angle de la
donnée, parce que c’est leur cœur de métier.
•	 La fonction marketing qui s’attache depuis longtemps à
analyser le comportement des utilisateurs dans un contexte
où le monde se digitalise à grand pas.
De façon plus discrète certaines industries et acteurs du ren-
seignement ont rapidement adopté ces nouvelles technologies
comme seul point de salut du fait de leurs contraintes
volumétrie/coût/contraintes légales.
L’angle technologique serait-il plus accessible ?
Il est vrai que l’angle technologique a vécu deux moments
forts. Le premier avec l’avènement du Big Data en France, il
y a peu près trois ans. Les solutions restaient encore payantes :
on avait des solutions type «  appliance  » qui promettaient
de stocker l’information avec de l’analytique embarquée
pour traiter les comportements utilisateurs. Il fallait donc
débourser de l’argent. Le marché français n’a pas trop décollé.
Alvin Ramgobeen
—
Comment faut-il aborder
un projet Big Data ?
28 avril 2014
—
79
Aujourd’hui, avec la maturité des offres Open Source comme
Hadoop, les gens s’essayent à travailler sur des sujets Big
Data parce que cela leur demande beaucoup moins d’inves-
tissement. Il leur suffit de télécharger la solution et peuvent
avec l’aide d’un accompagnement minime, commencer à
s’approprier les technologies Big Data.
Peut-on faire autrement ?
Oui tout à fait. Dans cette problématique de «  comment
initier un projet Big Data », on parle des enjeux métier, des
« business cases », de la technologie Open Source notamment,
et on en oublie le maître mot qui est la Data.
Plus on rapproche le métier de la Data avec des prestations
de conseil qui mettent en avant l’analyse des données de
l’entreprise, à l’aide des solutions qui tournent sur les PC
de nos consultants, plus on met en lumière les tenants et les
aboutissant de ce qui se trame dans l’entreprise, à savoir les
proportions, les comportements utilisateurs, les meilleurs
clients, l’hyper segmentation…
Au final les métiers réalisent combien l’aspect quantitatif peut
avoir un impact fort sur la compréhension de leur activité et
agir pour transformer le quantitatif en levier d’action. Dès
lors, un prototypage et une réflexion sur le bon niveau tech-
nologique se mettent en place pour porter dans l’entreprise le
levier d’action sur un sujet de Big Data, pour monétiser ou
optimiser une chaîne de production par exemple.
***
80
Pourquoi faut-il travailler avec les métiers pour concevoir
les référentiels de tests ?
De par notre expérience sur les métiers de qualification des SI,
nous constatons que les phases de qualification peuvent peser
jusqu’à 30 % des charges d’un projet, ce qui est relativement
important. Cela a un impact sur les coûts de réalisation de ces
projets, mais également sur les délais.
Pour optimiser ces phases, tant d’un point de vue coûts
que d’un point de vue délais, nous préconisons d’aller à la
rencontre des métiers pour définir et réaliser avec eux ce
« juste test ».
Quelle approche préconisez-vous ?
Nous préconisons une double, « Top-down » et « Bottom-up ».
Il s’agit de concilier ces deux approches en travaillant d’abord
avec les métiers pour modéliser le comportement attendu
de l’application, d’un point de vue des processus métier et
des scénarios fonctionnels. Une fois la modélisation définie
avec les métiers, nous intervenons ensuite en chambre pour
monter les référentiels de test sur la base de ces modélisations.
Puis très rapidement nous concilions l’approche bottom-up
au travers de laquelle nous définissons toutes les exigences
et autres règles nécessaires (métiers, techniques...) et nous
rapprochons les deux approches de manière à uniformiser les
référentiels de test.
Comment Gfi Informatique se positionne sur cette question ?
Gfi Informatique a développé il y a trois ans QSITM
, une offre
dédiée à cette approche. Elle permet au travers de templates
Franck Colette
—
Tous les tests ne sont pas utiles.
Pour viser juste, pensez métier !
5 mai 2014
—
81
types, de modèles de documents ; mais aussi d’outillages,
d’exprimer cette modélisation du comportement attendu de
l’application et ensuite de retravailler en chambre avec un
autre outillage qui lui va permettre de faire de la génération,
en partie manuelle, en partie automatique, de ces référentiels
de test, avec toujours pour philosophie d’aller chercher le
« juste test ».
***
82
En quoi un projet d’intégration PLM est-il différent d’un
projet d’intégration traditionnel ?
Un projet d’intégration PLM, c’est avant tout un projet d’in-
tégration d’un progiciel de PLM.
Les progiciels PLM que nous intégrons ne sont pas forcément
riches en processus métiers pré-câblés, à la différence d’un ERP
ou d’un logiciel de comptabilité qui eux sont très matures sur
ces sujets métier.
Il existe cependant des processus solutions pré-câblés dans
les progiciels actuels de PLM, mais parfois trop éloignés des
besoins de nos clients. D’où l’importance de mettre en place
une phase de cadrage pour bien formaliser les besoins du
client et de converger vers les fonctions solutions du progiciel.
Quels sont les facteurs clés de succès d’un projet PLM ?
De notre point de vue, il y en a cinq.
Le premier est essentiel. Le projet PLM nécessite d’être piloté
par les enjeux métier de l’entreprise, avec une gouvernance
forte et une capacité à décider.
Le deuxième facteur concerne la phase de définition. C’est
la première grande phase clé du projet qui consiste à faire
converger les besoins métier en les challengeant par rapport
aux capacités de la solution.
Le troisième réside dans les choix structurés de solutions qui
doivent absolument être validés par l’éditeur.
Quatrième facteur : la traçabilité des exigences doit garantir
l’acceptation par le métier de la solution en fin de projet.
Dominique Hell
—
Intégration d’un PLM : quels sont
les chantiers à mettre en place pour
réussir un projet PLM ?
6 mai 2014
—
83
Enfin la conduite du changement est d’une extrême
importance. Elle doit commencer dès le début du projet.
Elle concerne à la fois les acteurs métier, mais aussi les acteurs
maîtrise d’œuvre chez notre client.
Comment se structure un projet PLM ?
Sur deux axes. Le premier avec les grandes phases classiques de
définition, réalisation, vérification, validation et déploiement.
Puis sur un second axe, le projet PLM se structure avec les
différents chantiers à adresser dans un projet, le cœur de
la solution et ses interfaces, la migration des données (un
sous-projet délicat), la conduite du changement et l’architec-
ture technique.
Cette structuration peut varier d’un client à l’autre en fonction
de ses exigences ou des activités qu’il veut conserver dans son
périmètre.
Enfinnotreméthodologie,baséesuruncycleenVtraditionnel,
évolue constamment. Nous y intégrons régulièrement des
concepts issus de l’agilité, comme le pilotage visuel, des
itérations courtes ou de la validation et de la vérification en
continu.
Et l’industrialisation ?
La cellule Service Ingénierie PLM de Gfi Informatique
développe et déploie depuis longtemps des méthodes outillées
sur un certain nombre de sujets, en particulier sur l’intégration
continue. Cela permet sur un projet d’intégration de vérifier
la qualité du code produit et de régénérer, par exemple toutes
les nuits, la solution complète sur tel ou tel environnement.
***
84
Le TIP disparaît le 1er
février 2016. Pour quelles raisons ?
C’est la règlementation SEPA qui en est la cause. Au 1er
février
2016, les moyens de paiement propres à chaque pays doivent
disparaître. Selon les statistiques de la Banque de France, nous
traitons 140 millions de titres interbancaires de paiement par
an. Cela représente un volume considérable qui nécessite au
préalable un temps de préparation pour remplacer les TIP.
Qu’est-il prévu pour le remplacer ?
Dans le cadre de SEPA, rien de suffisamment performant n’est
prévu, laissant l’initiative du paiement aux particuliers.
Les banques françaises se sont alors engagées dans une
réflexion permettant de mettre en œuvre une nouvelle norme
d’échange appelée SEPAMAIL. Celle-ci permet de transférer
la facture du particulier vers sa banque, afin de lui donner la
responsabilité de la validation en ligne.
Cette opération, une fois validée, permet de générer un
virement qui lui, sera en conformité avec la réglementation
SEPA.
Quels conseils donneriez-vous à nos clients qui souhaitent
mettre en œuvre une telle solution ?
En premier lieu, ne pas perdre de temps. La montée en
charge pour les 140 millions de transactions nécessite un
délai relativement long que l’on estime entre 6 mois et 1 an,
réduisant de fait le temps de projet nécessaire à la mise en
œuvre de la solution.
Il reste un certain nombre de travaux à réaliser avant cette
«  end date  » du 1er
février 2016. Gfi Informatique est en
mesure d’accompagner ses clients Grands Remettants de
Bertrand de Lausun
—
Comment va-t-on remplacer les TIP ?
9 mai 2014
—
85
moyens de paiement dans la mise en œuvre de cette nouvelle
solution qui permet à la fois la dématérialisation des factures
et la modification des moyens de paiement afférents.
***
86
Le décret GBCP fait référence aux autorisations
d’engagement et de crédit de paiement. Que représentent
ces notions d’AE et de CP ?
Avec ce décret, les établissements publics vont devoir élaborer
trois budgets : un en AE, un en CP et un en recette.
Les AE représentent la limite supérieure des engagements
juridiques que peut prendre l’établissement sur un exercice.
Les CP représentent la limite supérieure des décaissements
réalisables dans l’exercice. Et les prévisions de recette cor-
respondent aux montants prévisionnels des encaissements
attendus dans l’exercice.
Quel est l’intérêt du double budget en AE et CP ?
Actuellement, les dépenses engagées doivent l’être au regard
des crédits votés de l’exercice, ce qui pose notamment des
problèmes en fin d’année. Le décret lui, prévoit la budgéti-
sation en AE, ce qui élimine tous ces problèmes et permet
d’avoir une réelle démarche de pilotage pluriannuelle.
Les CP sont établis non pas au regard des ordonnancements,
mais des paiements à réaliser.
Quant aux prévisions de recettes, elles sont établies en lien
avec les encaissements escomptés et rapprochées des titres
émis.
Plus globalement quels sont les impacts du décret sur
l’exécution budgétaire ?
L’engagement actuel disparait. C’est maintenant l’engagement
juridique qui, de fait, est pluriannuel et qui consomme l’AE
dans son exercice d’émission. La comptabilité budgétaire ne
Éric Depreuve
—
GBCP : quel est l’intérêt du double
budget en AE et CP ?
12 mai 2014
—
87
supporte plus les mouvements d’ordre tels que les variations
de stocks, les amortissements, les charges constatées… Tous
ces aspects sont maintenant directement gérés en comptabilité
générale. Cela a des conséquences importantes et simplifica-
trices sur nos produits, car cela élimine toute la gestion des
crédits d’extourne.
Le décret maintient la notion de service fait
Oui. Depuis quelques années et la mise en place des services
facturiers, l’enregistrement du service fait a pris une part pré-
pondérante dans la chaîne de la dépense.
Le décret renforce encore cette place en lui ajoutant
l’obligation de générer l’écriture comptable pour respecter la
norme comptable.
De ce point de vue, le décret va permettre de mieux anticiper
le suivi des charges à payer, des produits à recevoir et va
simplifier la clôture des travaux en fin d’année.
Et qu’en est-il de la dématérialisation ?
Le décret apporte de considérables avancées dans ce
domaine. Il élimine la production et l’édition des mandats et
bordereaux. Il favorise l’échange et l’envoi de documents élec-
troniques, qu’ils soient scannés ou natifs, et prévoit également
la production dématérialisée du compte financier.
***
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique
"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique

More Related Content

What's hot

Synthèse baromètre limelight opinion way 2012
Synthèse baromètre limelight opinion way 2012Synthèse baromètre limelight opinion way 2012
Synthèse baromètre limelight opinion way 2012BVA Limelight
 
CRM & DMP : une convergence inévitable
CRM & DMP : une convergence inévitableCRM & DMP : une convergence inévitable
CRM & DMP : une convergence inévitableSoft Computing
 
Enquêtes à chaud et Parcours Client
Enquêtes à chaud et Parcours ClientEnquêtes à chaud et Parcours Client
Enquêtes à chaud et Parcours ClientSoft Computing
 
[Fr] La guerre du marketing (et des DSI n'aura pas lieu) - transformation dig...
[Fr] La guerre du marketing (et des DSI n'aura pas lieu) - transformation dig...[Fr] La guerre du marketing (et des DSI n'aura pas lieu) - transformation dig...
[Fr] La guerre du marketing (et des DSI n'aura pas lieu) - transformation dig...Yann Gourvennec
 
[Fr] Le parcours client visionarymarketing.com
[Fr] Le parcours client visionarymarketing.com[Fr] Le parcours client visionarymarketing.com
[Fr] Le parcours client visionarymarketing.comYann Gourvennec
 
Matinale Technologique Adobe Campaign
Matinale Technologique Adobe CampaignMatinale Technologique Adobe Campaign
Matinale Technologique Adobe CampaignIlana Cerini
 
CRM & DMP : le digital au service d’une animation client omnicanal et temps réel
CRM & DMP : le digital au service d’une animation client omnicanal et temps réelCRM & DMP : le digital au service d’une animation client omnicanal et temps réel
CRM & DMP : le digital au service d’une animation client omnicanal et temps réelSoft Computing
 
La digitalisation des forces de ventes
La digitalisation des forces de ventesLa digitalisation des forces de ventes
La digitalisation des forces de ventesSoft Computing
 
Transformation digitale: quelles opportunités pour quels défis?
Transformation digitale: quelles opportunités pour quels défis?Transformation digitale: quelles opportunités pour quels défis?
Transformation digitale: quelles opportunités pour quels défis?Butter-Cake blog by Youmna Ovazza
 
Les 8 Meilleures citations autour de la Transformation Digitale
Les 8 Meilleures citations autour de la Transformation DigitaleLes 8 Meilleures citations autour de la Transformation Digitale
Les 8 Meilleures citations autour de la Transformation DigitaleSahar Fekih
 
[Fr] livre blanc : la face cachée de la transformation digitale [Extrait]
[Fr] livre blanc : la face cachée de la transformation digitale [Extrait][Fr] livre blanc : la face cachée de la transformation digitale [Extrait]
[Fr] livre blanc : la face cachée de la transformation digitale [Extrait]Yann Gourvennec
 
Baromètre La mutation digitale de la distribution LSA Oliver Wyman 2017
Baromètre La mutation digitale de la distribution LSA Oliver Wyman 2017Baromètre La mutation digitale de la distribution LSA Oliver Wyman 2017
Baromètre La mutation digitale de la distribution LSA Oliver Wyman 2017Clotilde Chenevoy
 
Synthese des résultats du Barometre Limelight-Consulting des métiers de la co...
Synthese des résultats du Barometre Limelight-Consulting des métiers de la co...Synthese des résultats du Barometre Limelight-Consulting des métiers de la co...
Synthese des résultats du Barometre Limelight-Consulting des métiers de la co...BVA Limelight
 
Baromètre dmp-quels-retours-d’expérience-sur-les-data-management-platforms
Baromètre dmp-quels-retours-d’expérience-sur-les-data-management-platformsBaromètre dmp-quels-retours-d’expérience-sur-les-data-management-platforms
Baromètre dmp-quels-retours-d’expérience-sur-les-data-management-platformsConverteo
 
[Entreprise digitale] savoir faire entreprise digitale
[Entreprise digitale] savoir faire entreprise digitale[Entreprise digitale] savoir faire entreprise digitale
[Entreprise digitale] savoir faire entreprise digitaleonepoint x weave
 
Salon Big Data 2015 : Big Data et Marketing Digital, Retours d’expérience en ...
Salon Big Data 2015 : Big Data et Marketing Digital, Retours d’expérience en ...Salon Big Data 2015 : Big Data et Marketing Digital, Retours d’expérience en ...
Salon Big Data 2015 : Big Data et Marketing Digital, Retours d’expérience en ...Soft Computing
 
ePRM eCRM : le digital transforme l’animation prospects et clients
ePRM eCRM : le digital transforme l’animation prospects et clientsePRM eCRM : le digital transforme l’animation prospects et clients
ePRM eCRM : le digital transforme l’animation prospects et clientsSoft Computing
 
Mise en place et bonnes pratiques d'une approche CRM cross-canal
Mise en place et bonnes pratiques d'une approche CRM cross-canalMise en place et bonnes pratiques d'une approche CRM cross-canal
Mise en place et bonnes pratiques d'une approche CRM cross-canalExperian
 
Transformation digitale du point de vente - RETAIL - MBAMCI
Transformation digitale du point de vente - RETAIL - MBAMCITransformation digitale du point de vente - RETAIL - MBAMCI
Transformation digitale du point de vente - RETAIL - MBAMCILaurence Thébault
 

What's hot (20)

Synthèse baromètre limelight opinion way 2012
Synthèse baromètre limelight opinion way 2012Synthèse baromètre limelight opinion way 2012
Synthèse baromètre limelight opinion way 2012
 
CRM & DMP : une convergence inévitable
CRM & DMP : une convergence inévitableCRM & DMP : une convergence inévitable
CRM & DMP : une convergence inévitable
 
Enquêtes à chaud et Parcours Client
Enquêtes à chaud et Parcours ClientEnquêtes à chaud et Parcours Client
Enquêtes à chaud et Parcours Client
 
Numerique deroutant
Numerique deroutantNumerique deroutant
Numerique deroutant
 
[Fr] La guerre du marketing (et des DSI n'aura pas lieu) - transformation dig...
[Fr] La guerre du marketing (et des DSI n'aura pas lieu) - transformation dig...[Fr] La guerre du marketing (et des DSI n'aura pas lieu) - transformation dig...
[Fr] La guerre du marketing (et des DSI n'aura pas lieu) - transformation dig...
 
[Fr] Le parcours client visionarymarketing.com
[Fr] Le parcours client visionarymarketing.com[Fr] Le parcours client visionarymarketing.com
[Fr] Le parcours client visionarymarketing.com
 
Matinale Technologique Adobe Campaign
Matinale Technologique Adobe CampaignMatinale Technologique Adobe Campaign
Matinale Technologique Adobe Campaign
 
CRM & DMP : le digital au service d’une animation client omnicanal et temps réel
CRM & DMP : le digital au service d’une animation client omnicanal et temps réelCRM & DMP : le digital au service d’une animation client omnicanal et temps réel
CRM & DMP : le digital au service d’une animation client omnicanal et temps réel
 
La digitalisation des forces de ventes
La digitalisation des forces de ventesLa digitalisation des forces de ventes
La digitalisation des forces de ventes
 
Transformation digitale: quelles opportunités pour quels défis?
Transformation digitale: quelles opportunités pour quels défis?Transformation digitale: quelles opportunités pour quels défis?
Transformation digitale: quelles opportunités pour quels défis?
 
Les 8 Meilleures citations autour de la Transformation Digitale
Les 8 Meilleures citations autour de la Transformation DigitaleLes 8 Meilleures citations autour de la Transformation Digitale
Les 8 Meilleures citations autour de la Transformation Digitale
 
[Fr] livre blanc : la face cachée de la transformation digitale [Extrait]
[Fr] livre blanc : la face cachée de la transformation digitale [Extrait][Fr] livre blanc : la face cachée de la transformation digitale [Extrait]
[Fr] livre blanc : la face cachée de la transformation digitale [Extrait]
 
Baromètre La mutation digitale de la distribution LSA Oliver Wyman 2017
Baromètre La mutation digitale de la distribution LSA Oliver Wyman 2017Baromètre La mutation digitale de la distribution LSA Oliver Wyman 2017
Baromètre La mutation digitale de la distribution LSA Oliver Wyman 2017
 
Synthese des résultats du Barometre Limelight-Consulting des métiers de la co...
Synthese des résultats du Barometre Limelight-Consulting des métiers de la co...Synthese des résultats du Barometre Limelight-Consulting des métiers de la co...
Synthese des résultats du Barometre Limelight-Consulting des métiers de la co...
 
Baromètre dmp-quels-retours-d’expérience-sur-les-data-management-platforms
Baromètre dmp-quels-retours-d’expérience-sur-les-data-management-platformsBaromètre dmp-quels-retours-d’expérience-sur-les-data-management-platforms
Baromètre dmp-quels-retours-d’expérience-sur-les-data-management-platforms
 
[Entreprise digitale] savoir faire entreprise digitale
[Entreprise digitale] savoir faire entreprise digitale[Entreprise digitale] savoir faire entreprise digitale
[Entreprise digitale] savoir faire entreprise digitale
 
Salon Big Data 2015 : Big Data et Marketing Digital, Retours d’expérience en ...
Salon Big Data 2015 : Big Data et Marketing Digital, Retours d’expérience en ...Salon Big Data 2015 : Big Data et Marketing Digital, Retours d’expérience en ...
Salon Big Data 2015 : Big Data et Marketing Digital, Retours d’expérience en ...
 
ePRM eCRM : le digital transforme l’animation prospects et clients
ePRM eCRM : le digital transforme l’animation prospects et clientsePRM eCRM : le digital transforme l’animation prospects et clients
ePRM eCRM : le digital transforme l’animation prospects et clients
 
Mise en place et bonnes pratiques d'une approche CRM cross-canal
Mise en place et bonnes pratiques d'une approche CRM cross-canalMise en place et bonnes pratiques d'une approche CRM cross-canal
Mise en place et bonnes pratiques d'une approche CRM cross-canal
 
Transformation digitale du point de vente - RETAIL - MBAMCI
Transformation digitale du point de vente - RETAIL - MBAMCITransformation digitale du point de vente - RETAIL - MBAMCI
Transformation digitale du point de vente - RETAIL - MBAMCI
 

Viewers also liked

LIVRE BLANC : "Les nouveaux horizons du PLM"
LIVRE BLANC : "Les nouveaux horizons du PLM"LIVRE BLANC : "Les nouveaux horizons du PLM"
LIVRE BLANC : "Les nouveaux horizons du PLM"Inetum
 
Using dynaTrace to optimise application performance
Using dynaTrace to optimise application performanceUsing dynaTrace to optimise application performance
Using dynaTrace to optimise application performanceRichard Bishop
 
ΣΤΑΓΟΝΕΣ ΒΡΟΧΗΣ ΤΡΑΒΗΓΜΕΝΕΣ ΜΕ ΕΙΔΙΚΗ ΚΑΜΕΡΑ ΤΗΝ ΩΡΑ ΠΟΥ ΠΕΦΤΟΥΝ.
ΣΤΑΓΟΝΕΣ ΒΡΟΧΗΣ ΤΡΑΒΗΓΜΕΝΕΣ ΜΕ ΕΙΔΙΚΗ ΚΑΜΕΡΑ ΤΗΝ ΩΡΑ ΠΟΥ ΠΕΦΤΟΥΝ.ΣΤΑΓΟΝΕΣ ΒΡΟΧΗΣ ΤΡΑΒΗΓΜΕΝΕΣ ΜΕ ΕΙΔΙΚΗ ΚΑΜΕΡΑ ΤΗΝ ΩΡΑ ΠΟΥ ΠΕΦΤΟΥΝ.
ΣΤΑΓΟΝΕΣ ΒΡΟΧΗΣ ΤΡΑΒΗΓΜΕΝΕΣ ΜΕ ΕΙΔΙΚΗ ΚΑΜΕΡΑ ΤΗΝ ΩΡΑ ΠΟΥ ΠΕΦΤΟΥΝ.kleiob
 
Atelier2_améliorer ma présence sur le web_Nicolas Monseigne
Atelier2_améliorer ma présence sur le web_Nicolas MonseigneAtelier2_améliorer ma présence sur le web_Nicolas Monseigne
Atelier2_améliorer ma présence sur le web_Nicolas MonseignePays de Bergerac
 
Grontmij Belgium brochure FR
Grontmij Belgium brochure FRGrontmij Belgium brochure FR
Grontmij Belgium brochure FRGrontmij Belgium
 
Notice utilisation Bouilloire Celia Riviera et Bar
Notice utilisation Bouilloire Celia Riviera et BarNotice utilisation Bouilloire Celia Riviera et Bar
Notice utilisation Bouilloire Celia Riviera et Barhabiague
 
Observatoire sociétal du médicament 2015 (Ipsos / Leem)
Observatoire sociétal du médicament 2015 (Ipsos / Leem)Observatoire sociétal du médicament 2015 (Ipsos / Leem)
Observatoire sociétal du médicament 2015 (Ipsos / Leem)yann le gigan
 
Rapport Global Workshops CityCamp Tunisia
Rapport Global Workshops CityCamp TunisiaRapport Global Workshops CityCamp Tunisia
Rapport Global Workshops CityCamp Tunisiacitycamptunisia
 
Lobitosentimental
LobitosentimentalLobitosentimental
Lobitosentimentalciefbasica
 
Evolución de estos materiales.actividadsemana1
Evolución de estos materiales.actividadsemana1Evolución de estos materiales.actividadsemana1
Evolución de estos materiales.actividadsemana1Elsa Janeth Cortes Camelo
 
Mode d'emploi tire bouchon électrique PEUGEOT ELIS
Mode d'emploi tire bouchon électrique PEUGEOT ELISMode d'emploi tire bouchon électrique PEUGEOT ELIS
Mode d'emploi tire bouchon électrique PEUGEOT ELIShabiague
 
Caso nº1, Ahumada, Estrada
Caso nº1, Ahumada, EstradaCaso nº1, Ahumada, Estrada
Caso nº1, Ahumada, EstradaLiliana Ahumada
 
Innovation, diversification et durabilité en viticulture et œnologie
Innovation, diversification et durabilité en viticulture et œnologieInnovation, diversification et durabilité en viticulture et œnologie
Innovation, diversification et durabilité en viticulture et œnologieQualiméditerranée
 

Viewers also liked (20)

LIVRE BLANC : "Les nouveaux horizons du PLM"
LIVRE BLANC : "Les nouveaux horizons du PLM"LIVRE BLANC : "Les nouveaux horizons du PLM"
LIVRE BLANC : "Les nouveaux horizons du PLM"
 
PerfUG : présentation de Dynatrace APM
PerfUG : présentation de Dynatrace APMPerfUG : présentation de Dynatrace APM
PerfUG : présentation de Dynatrace APM
 
Dyna trace
Dyna traceDyna trace
Dyna trace
 
Using dynaTrace to optimise application performance
Using dynaTrace to optimise application performanceUsing dynaTrace to optimise application performance
Using dynaTrace to optimise application performance
 
Dynatrace
DynatraceDynatrace
Dynatrace
 
ΣΤΑΓΟΝΕΣ ΒΡΟΧΗΣ ΤΡΑΒΗΓΜΕΝΕΣ ΜΕ ΕΙΔΙΚΗ ΚΑΜΕΡΑ ΤΗΝ ΩΡΑ ΠΟΥ ΠΕΦΤΟΥΝ.
ΣΤΑΓΟΝΕΣ ΒΡΟΧΗΣ ΤΡΑΒΗΓΜΕΝΕΣ ΜΕ ΕΙΔΙΚΗ ΚΑΜΕΡΑ ΤΗΝ ΩΡΑ ΠΟΥ ΠΕΦΤΟΥΝ.ΣΤΑΓΟΝΕΣ ΒΡΟΧΗΣ ΤΡΑΒΗΓΜΕΝΕΣ ΜΕ ΕΙΔΙΚΗ ΚΑΜΕΡΑ ΤΗΝ ΩΡΑ ΠΟΥ ΠΕΦΤΟΥΝ.
ΣΤΑΓΟΝΕΣ ΒΡΟΧΗΣ ΤΡΑΒΗΓΜΕΝΕΣ ΜΕ ΕΙΔΙΚΗ ΚΑΜΕΡΑ ΤΗΝ ΩΡΑ ΠΟΥ ΠΕΦΤΟΥΝ.
 
V.j
V.jV.j
V.j
 
Aguinaldo zéjel partes
Aguinaldo zéjel partesAguinaldo zéjel partes
Aguinaldo zéjel partes
 
Atelier2_améliorer ma présence sur le web_Nicolas Monseigne
Atelier2_améliorer ma présence sur le web_Nicolas MonseigneAtelier2_améliorer ma présence sur le web_Nicolas Monseigne
Atelier2_améliorer ma présence sur le web_Nicolas Monseigne
 
Chor2013
Chor2013Chor2013
Chor2013
 
Semiconductores
SemiconductoresSemiconductores
Semiconductores
 
Grontmij Belgium brochure FR
Grontmij Belgium brochure FRGrontmij Belgium brochure FR
Grontmij Belgium brochure FR
 
Notice utilisation Bouilloire Celia Riviera et Bar
Notice utilisation Bouilloire Celia Riviera et BarNotice utilisation Bouilloire Celia Riviera et Bar
Notice utilisation Bouilloire Celia Riviera et Bar
 
Observatoire sociétal du médicament 2015 (Ipsos / Leem)
Observatoire sociétal du médicament 2015 (Ipsos / Leem)Observatoire sociétal du médicament 2015 (Ipsos / Leem)
Observatoire sociétal du médicament 2015 (Ipsos / Leem)
 
Rapport Global Workshops CityCamp Tunisia
Rapport Global Workshops CityCamp TunisiaRapport Global Workshops CityCamp Tunisia
Rapport Global Workshops CityCamp Tunisia
 
Lobitosentimental
LobitosentimentalLobitosentimental
Lobitosentimental
 
Evolución de estos materiales.actividadsemana1
Evolución de estos materiales.actividadsemana1Evolución de estos materiales.actividadsemana1
Evolución de estos materiales.actividadsemana1
 
Mode d'emploi tire bouchon électrique PEUGEOT ELIS
Mode d'emploi tire bouchon électrique PEUGEOT ELISMode d'emploi tire bouchon électrique PEUGEOT ELIS
Mode d'emploi tire bouchon électrique PEUGEOT ELIS
 
Caso nº1, Ahumada, Estrada
Caso nº1, Ahumada, EstradaCaso nº1, Ahumada, Estrada
Caso nº1, Ahumada, Estrada
 
Innovation, diversification et durabilité en viticulture et œnologie
Innovation, diversification et durabilité en viticulture et œnologieInnovation, diversification et durabilité en viticulture et œnologie
Innovation, diversification et durabilité en viticulture et œnologie
 

Similar to "Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique

Livre blanc : digital & distributeurs du bâtiment
Livre blanc : digital & distributeurs du bâtimentLivre blanc : digital & distributeurs du bâtiment
Livre blanc : digital & distributeurs du bâtimentMarieParty
 
19/10/17 Séminaire Référentiel Client Unique
19/10/17 Séminaire Référentiel Client Unique19/10/17 Séminaire Référentiel Client Unique
19/10/17 Séminaire Référentiel Client UniqueSoft Computing
 
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...Olivier Lombart
 
Crm saas-pourquoi-comment-quand
Crm saas-pourquoi-comment-quandCrm saas-pourquoi-comment-quand
Crm saas-pourquoi-comment-quandSoft Computing
 
[HUBFORUM Paris] Digital transformation is NOW ! - Emmanuel Vivier
[HUBFORUM Paris] Digital transformation is NOW ! - Emmanuel Vivier[HUBFORUM Paris] Digital transformation is NOW ! - Emmanuel Vivier
[HUBFORUM Paris] Digital transformation is NOW ! - Emmanuel VivierHUB INSTITUTE
 
PortraitDeCDO - Juliette Bron - Macif
PortraitDeCDO - Juliette Bron - MacifPortraitDeCDO - Juliette Bron - Macif
PortraitDeCDO - Juliette Bron - MacifOCTO Technology
 
Relevons le défi de la transformation digitale !
Relevons le défi de la transformation digitale !Relevons le défi de la transformation digitale !
Relevons le défi de la transformation digitale !AKOR consulting
 
Livre Blanc Big Data : fin ou renouveau du Marketing ?
Livre Blanc Big Data : fin ou renouveau du Marketing ?Livre Blanc Big Data : fin ou renouveau du Marketing ?
Livre Blanc Big Data : fin ou renouveau du Marketing ?Aproged
 
Du datamining à la datascience
Du datamining à la datascienceDu datamining à la datascience
Du datamining à la datascienceSoft Computing
 
#PortraitDeCDO - François-Régis Martin - BNP Paribas Leasing Solutions
#PortraitDeCDO - François-Régis Martin - BNP Paribas Leasing Solutions#PortraitDeCDO - François-Régis Martin - BNP Paribas Leasing Solutions
#PortraitDeCDO - François-Régis Martin - BNP Paribas Leasing SolutionsOCTO Technology
 
Synthese barometre metiers_communication_2015
Synthese barometre metiers_communication_2015Synthese barometre metiers_communication_2015
Synthese barometre metiers_communication_2015Amaury Laurentin
 
Gfi News - Numéro 2 - Novembre 2013
Gfi News - Numéro 2 - Novembre 2013Gfi News - Numéro 2 - Novembre 2013
Gfi News - Numéro 2 - Novembre 2013Inetum
 
Avez-vous besoin d'un CRM?
Avez-vous besoin d'un CRM?Avez-vous besoin d'un CRM?
Avez-vous besoin d'un CRM?Olivier Caeymaex
 
Ebg 100 premiers jours d'un Chief Digital Officer
Ebg 100 premiers jours d'un Chief Digital OfficerEbg 100 premiers jours d'un Chief Digital Officer
Ebg 100 premiers jours d'un Chief Digital OfficerLaurent Crouet
 
#PortraitDeCDO - Laurent Assouad - Aéroport de Lyon
#PortraitDeCDO - Laurent Assouad - Aéroport de Lyon#PortraitDeCDO - Laurent Assouad - Aéroport de Lyon
#PortraitDeCDO - Laurent Assouad - Aéroport de LyonOCTO Technology
 
#PortraitDeStartuper #34 - Philippe Moulin - DriveQuant
#PortraitDeStartuper #34 - Philippe Moulin - DriveQuant#PortraitDeStartuper #34 - Philippe Moulin - DriveQuant
#PortraitDeStartuper #34 - Philippe Moulin - DriveQuantSébastien Bourguignon
 
La PMI du futur dès maintenant avec le Club Alliances
La PMI du futur dès maintenant avec le Club AlliancesLa PMI du futur dès maintenant avec le Club Alliances
La PMI du futur dès maintenant avec le Club AlliancesLoic Simon
 
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017EBG - Livret de synthèse 2017
EBG - Livret de synthèse 201755 | fifty-five
 
Réseaux Sociaux, CRM/PRM et Digital
Réseaux Sociaux, CRM/PRM et DigitalRéseaux Sociaux, CRM/PRM et Digital
Réseaux Sociaux, CRM/PRM et DigitalSoft Computing
 

Similar to "Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique (20)

Livre blanc : digital & distributeurs du bâtiment
Livre blanc : digital & distributeurs du bâtimentLivre blanc : digital & distributeurs du bâtiment
Livre blanc : digital & distributeurs du bâtiment
 
19/10/17 Séminaire Référentiel Client Unique
19/10/17 Séminaire Référentiel Client Unique19/10/17 Séminaire Référentiel Client Unique
19/10/17 Séminaire Référentiel Client Unique
 
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
Les 10 questions à se poser pour manager ses choix technologiques - sous l'an...
 
Crm saas-pourquoi-comment-quand
Crm saas-pourquoi-comment-quandCrm saas-pourquoi-comment-quand
Crm saas-pourquoi-comment-quand
 
[HUBFORUM Paris] Digital transformation is NOW ! - Emmanuel Vivier
[HUBFORUM Paris] Digital transformation is NOW ! - Emmanuel Vivier[HUBFORUM Paris] Digital transformation is NOW ! - Emmanuel Vivier
[HUBFORUM Paris] Digital transformation is NOW ! - Emmanuel Vivier
 
PortraitDeCDO - Juliette Bron - Macif
PortraitDeCDO - Juliette Bron - MacifPortraitDeCDO - Juliette Bron - Macif
PortraitDeCDO - Juliette Bron - Macif
 
Relevons le défi de la transformation digitale !
Relevons le défi de la transformation digitale !Relevons le défi de la transformation digitale !
Relevons le défi de la transformation digitale !
 
Livre Blanc Big Data : fin ou renouveau du Marketing ?
Livre Blanc Big Data : fin ou renouveau du Marketing ?Livre Blanc Big Data : fin ou renouveau du Marketing ?
Livre Blanc Big Data : fin ou renouveau du Marketing ?
 
Du datamining à la datascience
Du datamining à la datascienceDu datamining à la datascience
Du datamining à la datascience
 
#PortraitDeCDO - François-Régis Martin - BNP Paribas Leasing Solutions
#PortraitDeCDO - François-Régis Martin - BNP Paribas Leasing Solutions#PortraitDeCDO - François-Régis Martin - BNP Paribas Leasing Solutions
#PortraitDeCDO - François-Régis Martin - BNP Paribas Leasing Solutions
 
Synthese barometre metiers_communication_2015
Synthese barometre metiers_communication_2015Synthese barometre metiers_communication_2015
Synthese barometre metiers_communication_2015
 
Gfi News - Numéro 2 - Novembre 2013
Gfi News - Numéro 2 - Novembre 2013Gfi News - Numéro 2 - Novembre 2013
Gfi News - Numéro 2 - Novembre 2013
 
Avez-vous besoin d'un CRM?
Avez-vous besoin d'un CRM?Avez-vous besoin d'un CRM?
Avez-vous besoin d'un CRM?
 
Ebg 100 premiers jours d'un Chief Digital Officer
Ebg 100 premiers jours d'un Chief Digital OfficerEbg 100 premiers jours d'un Chief Digital Officer
Ebg 100 premiers jours d'un Chief Digital Officer
 
#PortraitDeCDO - Laurent Assouad - Aéroport de Lyon
#PortraitDeCDO - Laurent Assouad - Aéroport de Lyon#PortraitDeCDO - Laurent Assouad - Aéroport de Lyon
#PortraitDeCDO - Laurent Assouad - Aéroport de Lyon
 
MATRANSFONUM
MATRANSFONUMMATRANSFONUM
MATRANSFONUM
 
#PortraitDeStartuper #34 - Philippe Moulin - DriveQuant
#PortraitDeStartuper #34 - Philippe Moulin - DriveQuant#PortraitDeStartuper #34 - Philippe Moulin - DriveQuant
#PortraitDeStartuper #34 - Philippe Moulin - DriveQuant
 
La PMI du futur dès maintenant avec le Club Alliances
La PMI du futur dès maintenant avec le Club AlliancesLa PMI du futur dès maintenant avec le Club Alliances
La PMI du futur dès maintenant avec le Club Alliances
 
EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017EBG - Livret de synthèse 2017
EBG - Livret de synthèse 2017
 
Réseaux Sociaux, CRM/PRM et Digital
Réseaux Sociaux, CRM/PRM et DigitalRéseaux Sociaux, CRM/PRM et Digital
Réseaux Sociaux, CRM/PRM et Digital
 

More from Inetum

Innovation Guide Pratique
Innovation Guide Pratique Innovation Guide Pratique
Innovation Guide Pratique Inetum
 
Carte identité Groupe Gfi Informatique
Carte identité Groupe Gfi InformatiqueCarte identité Groupe Gfi Informatique
Carte identité Groupe Gfi InformatiqueInetum
 
Marketplaces : point d'étape et perspectives
Marketplaces : point d'étape et perspectivesMarketplaces : point d'étape et perspectives
Marketplaces : point d'étape et perspectivesInetum
 
Présentation de Gfi Espagne
Présentation de Gfi EspagnePrésentation de Gfi Espagne
Présentation de Gfi EspagneInetum
 
Book référence Gfi - Liferay 2016
Book référence Gfi - Liferay 2016Book référence Gfi - Liferay 2016
Book référence Gfi - Liferay 2016Inetum
 
LIVRE BLANC - Les vrais chiffres du Big Data
LIVRE BLANC - Les vrais chiffres du Big DataLIVRE BLANC - Les vrais chiffres du Big Data
LIVRE BLANC - Les vrais chiffres du Big DataInetum
 
Catalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
Catalogue de stages et d'alternances (2015 - 2016) - Gfi InformatiqueCatalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
Catalogue de stages et d'alternances (2015 - 2016) - Gfi InformatiqueInetum
 
[LIVRE BLANC] La transformation numérique du parcours de vie
[LIVRE BLANC] La transformation numérique du parcours de vie[LIVRE BLANC] La transformation numérique du parcours de vie
[LIVRE BLANC] La transformation numérique du parcours de vieInetum
 
LIVRE BLANC : Tendances Innovation 2015-2017
LIVRE BLANC : Tendances Innovation 2015-2017LIVRE BLANC : Tendances Innovation 2015-2017
LIVRE BLANC : Tendances Innovation 2015-2017Inetum
 
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...Inetum
 
Gfi News - Numéro 4 - Mars 2015
Gfi News - Numéro 4 - Mars 2015Gfi News - Numéro 4 - Mars 2015
Gfi News - Numéro 4 - Mars 2015Inetum
 
Découvrez notre produit VigieSI - Gfi Informatique
Découvrez notre produit VigieSI - Gfi InformatiqueDécouvrez notre produit VigieSI - Gfi Informatique
Découvrez notre produit VigieSI - Gfi InformatiqueInetum
 
Responsabilite societale-de-l-entreprise-gfi-informatique
Responsabilite societale-de-l-entreprise-gfi-informatiqueResponsabilite societale-de-l-entreprise-gfi-informatique
Responsabilite societale-de-l-entreprise-gfi-informatiqueInetum
 
LIVRE BLANC : Secteur public - Agenda 2020
LIVRE BLANC : Secteur public - Agenda 2020LIVRE BLANC : Secteur public - Agenda 2020
LIVRE BLANC : Secteur public - Agenda 2020Inetum
 
Forum Secteur Public 2014 de Gfi Informatique
Forum Secteur Public 2014 de Gfi InformatiqueForum Secteur Public 2014 de Gfi Informatique
Forum Secteur Public 2014 de Gfi InformatiqueInetum
 
Carte identité 2014 de Gfi Informatique
Carte identité 2014 de Gfi InformatiqueCarte identité 2014 de Gfi Informatique
Carte identité 2014 de Gfi InformatiqueInetum
 
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...Inetum
 
Gfi News - Numéro 3 - Juin 2014
Gfi News - Numéro 3 - Juin 2014Gfi News - Numéro 3 - Juin 2014
Gfi News - Numéro 3 - Juin 2014Inetum
 
Gfi News Maroc - Numéro 2
Gfi News Maroc - Numéro 2Gfi News Maroc - Numéro 2
Gfi News Maroc - Numéro 2Inetum
 
Catalogue de stages et d'alternances - Gfi Informatique
Catalogue de stages et d'alternances - Gfi InformatiqueCatalogue de stages et d'alternances - Gfi Informatique
Catalogue de stages et d'alternances - Gfi InformatiqueInetum
 

More from Inetum (20)

Innovation Guide Pratique
Innovation Guide Pratique Innovation Guide Pratique
Innovation Guide Pratique
 
Carte identité Groupe Gfi Informatique
Carte identité Groupe Gfi InformatiqueCarte identité Groupe Gfi Informatique
Carte identité Groupe Gfi Informatique
 
Marketplaces : point d'étape et perspectives
Marketplaces : point d'étape et perspectivesMarketplaces : point d'étape et perspectives
Marketplaces : point d'étape et perspectives
 
Présentation de Gfi Espagne
Présentation de Gfi EspagnePrésentation de Gfi Espagne
Présentation de Gfi Espagne
 
Book référence Gfi - Liferay 2016
Book référence Gfi - Liferay 2016Book référence Gfi - Liferay 2016
Book référence Gfi - Liferay 2016
 
LIVRE BLANC - Les vrais chiffres du Big Data
LIVRE BLANC - Les vrais chiffres du Big DataLIVRE BLANC - Les vrais chiffres du Big Data
LIVRE BLANC - Les vrais chiffres du Big Data
 
Catalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
Catalogue de stages et d'alternances (2015 - 2016) - Gfi InformatiqueCatalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
Catalogue de stages et d'alternances (2015 - 2016) - Gfi Informatique
 
[LIVRE BLANC] La transformation numérique du parcours de vie
[LIVRE BLANC] La transformation numérique du parcours de vie[LIVRE BLANC] La transformation numérique du parcours de vie
[LIVRE BLANC] La transformation numérique du parcours de vie
 
LIVRE BLANC : Tendances Innovation 2015-2017
LIVRE BLANC : Tendances Innovation 2015-2017LIVRE BLANC : Tendances Innovation 2015-2017
LIVRE BLANC : Tendances Innovation 2015-2017
 
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
LIVRE BLANC : De l’Omni-Commerce au Continuous Commerce, la révolution Digita...
 
Gfi News - Numéro 4 - Mars 2015
Gfi News - Numéro 4 - Mars 2015Gfi News - Numéro 4 - Mars 2015
Gfi News - Numéro 4 - Mars 2015
 
Découvrez notre produit VigieSI - Gfi Informatique
Découvrez notre produit VigieSI - Gfi InformatiqueDécouvrez notre produit VigieSI - Gfi Informatique
Découvrez notre produit VigieSI - Gfi Informatique
 
Responsabilite societale-de-l-entreprise-gfi-informatique
Responsabilite societale-de-l-entreprise-gfi-informatiqueResponsabilite societale-de-l-entreprise-gfi-informatique
Responsabilite societale-de-l-entreprise-gfi-informatique
 
LIVRE BLANC : Secteur public - Agenda 2020
LIVRE BLANC : Secteur public - Agenda 2020LIVRE BLANC : Secteur public - Agenda 2020
LIVRE BLANC : Secteur public - Agenda 2020
 
Forum Secteur Public 2014 de Gfi Informatique
Forum Secteur Public 2014 de Gfi InformatiqueForum Secteur Public 2014 de Gfi Informatique
Forum Secteur Public 2014 de Gfi Informatique
 
Carte identité 2014 de Gfi Informatique
Carte identité 2014 de Gfi InformatiqueCarte identité 2014 de Gfi Informatique
Carte identité 2014 de Gfi Informatique
 
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
LIVRE BLANC : 10 conseils d’expert pour relever avec succès les défis de la c...
 
Gfi News - Numéro 3 - Juin 2014
Gfi News - Numéro 3 - Juin 2014Gfi News - Numéro 3 - Juin 2014
Gfi News - Numéro 3 - Juin 2014
 
Gfi News Maroc - Numéro 2
Gfi News Maroc - Numéro 2Gfi News Maroc - Numéro 2
Gfi News Maroc - Numéro 2
 
Catalogue de stages et d'alternances - Gfi Informatique
Catalogue de stages et d'alternances - Gfi InformatiqueCatalogue de stages et d'alternances - Gfi Informatique
Catalogue de stages et d'alternances - Gfi Informatique
 

"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique

  • 1.
  • 2.
  • 3.
  • 4. Ont contribué à cet ouvrage : Cyril Carretero, Sylvie Rebaudo, Céline Simon, Murielle Loirat, Antoine Paugam, Jean-Pierre de Araujo, Marine Nascimento, Guillemette Larivière, Charlène Kienda, Alice Tricomi, Romain Dorenlot, Sabine de Leissègues.
  • 6.
  • 7. 7 Un blog pour donner plus de valeur à nos (vos) métiers — ÉDITO
  • 8. 8
  • 9. 9 P ourquoi reprendre dans un livre tous les avis d’experts publiés sur notre blog  ? Pour vous donner envie de le découvrir ! Que ce soit dans le Digital, la Business Intelligence, le Testing, le PLM ou le Cloud, nos experts partagent leurs recommandations pour garantir la réussite de vos projets. Tous ces avis d’experts vous donneront probablement des idées et pourquoi pas, vous mettront en garde contre d’éventuels faux pas. Le blog de Gfi Informatique parle de ce qui nous tient à cœur, de ce qui fait l’ADN de notre entreprise : toujours mieux vous accompagner dans la réussite de vos grands projets de transformation. Il formalise ce que nous voulons être  : une intelligence collective. Bien plus qu’une entreprise, Gfi Informatique est véritablement une communauté d’experts qui échangent des idées pour vous proposer des solutions toujours plus innovantes et créatrices de valeur. Ce blog donne plus de valeur à nos (vos) métiers. Choisir Gfi Informatique, ce n’est plus seulement disposer d’une combinaison unique de solutions et services informatiques, c’est aussi accéder à des experts capables de vous accompagner pour toujours mieux répondre à vos besoins métier. Bonne lecture et rendez-vous sur notre blog www.enews.gfi.fr. Vincent Rouaix Président-directeur général Gfi Informatique
  • 10.
  • 12. 12
  • 13. 13 A ux oubliettes les grands blablas marketing qui vous expliquent qu’on est les plus forts. Seuls l’authenticité et le parler-vrai comptent. Nos experts sauront, nous l’espérons, au travers de leurs conseils et compétences, vous convaincre de nous faire confiance pour vous accompagner dans vos grands projets de transformation, et ce quel que soit votre secteur d’activité. Cet ouvrage rassemble les retranscriptions des vidéos « 2 mn pour comprendre  » réalisées sur le vif avec nos experts et publiées en 2014 sur notre blog Gfi Informatique e-news. Les sujets mis en avant sont, selon nos experts, emblématiques des préoccupations actuelles de la plupart de nos clients. Leurs prises de paroles sont assez courtes pour coller à la durée de l’interview vidéo. Le ton est direct, informel, sans prétention aucune. Certaines réponses pourraient même vous surprendre… Normal, leurs prises de position sont totalement subjectives, mais toujours justifiées par un vécu terrain et des retours d’expérience indiscutables. N’hésitez pas à les interpeler directement par mail ou sur les réseaux sociaux : ils seront ravis de pouvoir échanger avec vous sur le sujet qui les anime. Et rendez-vous tout au long de l’année sur notre blog e-news : www.enews.gfi.fr. Cyril Carretero Directeur Marketing & Communication Gfi Informatique
  • 14. 14
  • 15. 15 Le rôle du Big Data dans l’expérience utilisateur p.23 Mobile Testing : n’ayez crainte ! p.26 De la BI analytique au BIG analytics p.29 Migrer de Notes vers Office 365 : les pièges à éviter p.31 Centralisation de la production informatique : jusqu’où faut-il aller ? p.33 Migration vers Office 365 : pourquoi, comment ? p.35 Pourquoi refondre votre plateforme eCommerce ? p.36 Big Data : mi-figue, mi-raisin ? p.38 Comment communiquer de manière innovante avec vos citoyens ? p.40 Big Data versus BI : y a-t-il match ? p.43 Comment faciliter le dialogue entre direction métier et production informatique ? p.45 Lutte anti-blanchiment : les banques françaises sont-elles prêtes ? p.47 Les Tests de Non-Régression (TNR) : je t’aime… moi non plus ? p.51 ALM & Ingénierie Système : nouveaux défis des industriels dans le monde du PLM ? p.53 SOMMAIRE —
  • 16. 16 Solutions Cloud pour les collectivités locales : qu’avez-vous à y gagner ? p.55 Les « bons indicateurs » de Gestion des Services : comment les choisir ? p.57 Performance utilisateurs : pourquoi est-ce un sujet d’actualité ? p.60 Les conseils clés pour préparer le lancement de votre plateforme eCommerce : 1re partie : d’abord, la stratégie business ! p.63 2e partie : les métiers, c’est très tôt que vous devez les impliquer p.66 3e partie : les « IT » à la fin ? Pas tout à fait p.68 Supervision de la sécurité de votre SI : pourquoi privilégier une solution « made in France » ? p.70 PLM : si c’est bien cadré, c’est bien joué ! p.72 Pourquoi faut-il penser collaboratif au sein d’une Digitale Workplace ? p.74 Je suis satisfait par ma plateforme BI. Pourquoi migrer ? p.76 Comment faut-il aborder un projet Big Data ? p.78 Tous les tests ne sont pas utiles. Pour viser juste, pensez métier ! p.80 Intégration d’un PLM : quels sont les chantiers à mettre en place pour réussir un projet PLM ? p.82 Comment va-t-on remplacer les TIP ? p.84 GBCP : quel est l’intérêt du double budget en AE et CP ? p.86 Être un élu connecté en 2014, qu’est-ce que c’est ? p.88
  • 17. 17 Comment améliorer la performance commerciale de votre portail clients ? p.90 Rationalisation, optimisation, migration de votre SI décisionnel : pourquoi, comment ? p.92 Optimiser ses pratiques de test d’accord, mais pour quel résultat ? p.95 Migration PLM : attention, danger ! p.97 BI agile, pourquoi, comment ? p.99 Mobilité : comment sécuriser vos données en cas de perte d’un device ? p.102 SEPAmail ou comment supprimer la fraude à la signature du contrat ? p.104 eCommerce : tout ce qu’il ne faut pas faire ! p.105 GBCP : les impacts de la mise en œuvre du décret p.106 L’ANI, un levier social à prise rapide p.108 Améliorer la performance de votre site web : pourquoi, comment ? p.112 Accès privilèges : talon d’Achille du Système d’Information des entreprises ? p.114 Tests applicatifs automatisés : oui. Mais comment et à quel prix ? p.116 Comment modéliser les besoins métiers lors d’un cadrage PLM ? p.119
  • 18. 18 International : comment le digital passe les frontières ? p.121 Outillage de test : effet de mode ou vraie nécessité ? p.124 Windows Phone est-il adapté au monde de l’entreprise ? p.126 Contrôle des comptabilités informatisées : comment se prémunir face aux risques fiscaux ? p.128 Comment tirer un maximum de bénéfices du réseau social d’entreprise Yammer ? p.130 La Marketplace est-elle le nouvel Eldorado du canal de vente ? p.132 Comment aller au-delà de la GRC avec Microsoft Dynamics CRM ? p.134 Comment adresser efficacement des com’ internes à vos collaborateurs équipés de Windows Phone ? p.136 Toxicité : comment passer de l’exploit au résultat prévisible ? p.138 Sécurité Cloud : ne pas perdre le contrôle ! p.140 C’est quoi une DRH digitale ? p.143 Comment rendre mon datawarehouse évolutif et pérenne à moindre coût ? p.145 Comment intégrer une architecture Big Data dans mon décisionnel ? p.147 Magento Enterprise vs Magento Community : y a-t-il match ? p.149 Comment réussir une expérience utilisateur omnicanal ? p.151 En quoi le Responsive Design améliore-t-il le ROI de vos projets eCommerce Magento ? p.153
  • 19. 19 Symphony 2 : alternative crédible aux solutions Open Source eCommerce ? p.154 eCommerce : pensez votre site en fonction de votre cible ! p.155 Supervision : 3 points clés pour être plus proactif p.157 Les gains obtenus par la mise en œuvre d’un Cloud privé dans un Datacenter p.158 Cloud Migration p.160 Le rôle du Big Data dans l’expérience utilisateur p.162 La facture électronique : une solution win-win entre le secteur public et ses fournisseurs ! p.165 Comment migrer sa plateforme BI sans y laisser trop de plumes ? p.168 Comment intégrer efficacement un site eCommerce au sein d’un Système d’Information ? p.170 En 2015, c’est quoi un bon portail client ? p.171
  • 20. 20
  • 22. 22
  • 23. 23 Qu’apporte le Big Data dans le domaine de l’expérience utilisateur ? C’est avant tout un sujet qui ne cesse de progresser ! Pour s’en donner un aperçu, on peut remonter en 1999 et citer ComScore, un des leaders mondiaux du Digital Marketing qui offrait un service de comptage des pages Web en mode SaaS. Le marketing à l’époque essayait de connaître l’évolution du ranking de son site et d’une vision de son trafic page par page agrégé à la journée pour mesurer les résultats de ses actions de push marketing. C’était la « préhistoire » de l’expérience utilisateur. A la même période, le marketing construisait sa connaissance client sur les implémentations de produits de MDM type CEM (Customer Experience Management). 15 ans plus tard, nous disposons d’espaces digitaux d’inves- tigation beaucoup plus riches et nous avons la possibilité d’interagir avec le client pour passer du mode monolithique Web passif de collecte d’informations a posteriori à un monde interactif multimédia géolocalisé où l’on glisse vers le client-centrique. Résumé comme tel, il apparaît évident à tout un chacun de s’orienter vers des moyens de capter les patterns de comportement, d’identifier les affinités des clients à un produit ou à des groupes de produits, d’anticiper l’appétence à de nouvelles tendances d’achat. Se pose alors la question de comment accéder à ce nouveau monde. C’est là que le Big Data intervient. Alvin Ramgobeen — Le rôle du Big Data dans l’expérience utilisateur 2 janvier 2014 —
  • 24. 24 Quels sont, dans ce cas précis, les enjeux technologiques du Big Data ? On peut citer quatre enjeux forts portés par le Big Data : • Sa capacité à collecter et relier entre autres, des sources multiples de données issues des canaux Web, réseaux sociaux, données internes aux ventes, mais également lieux et contexte d’usage d’un service et de les rendre ingérables pour des actions spécifiques d’un métier du marketing qui se spécialise notamment sur le Digital Marketing, la Customer Experience Management et le Social Collaboration. Nous sommes sur une fonction support autour du concept de la DMP ou Data Management Plateforme qui généralement se base sur un moteur Hadoop ou de plus en plus sur des bases NoSQL temps réel de type Storm. • L’apport sur l’analytique (approche machine learning) est très apprécié en ce sens qu’il apporte des moyens de détection, d’anticipation et dans certains cas de prévision en rapprochant des informations et événements non usuel- lement traités par les mêmes entités dans l’entreprise. Par exemple, il est aujourd’hui possible de détecter qu’un pour- centage non négligeable de clients va appeler pour se plaindre de dysfonctionnents de leur Box TV et ainsi prévoir une prise en charge adaptée, mais aussi de suivre la dérive d’incidents concomitant à l’introduction de nouvelles tablettes. • La prise en compte du décodage du sentiment humain via le texte et maintenant la voix et qui, depuis les procédés de lemmatisation ou d’algorithmes en linguistique plus aboutis, permettent de positionner une réponse, elle aussi, adaptée à des situations de tension, comme par exemple la redirection d’un appel vers le bon conseiller ou bien la détection de pré- férence sur un produit nouveau. • Enfin, le rôle des objets connectés qui s’immiscent dans nos vies nous conduisent à revisiter le champ des possibles en termes de support à notre vie au quotidien et donc une
  • 25. 25 nouvelle fois à notre façon d’interagir dans des contextes digitalement augmentés. Quelle démarche adopter face à toutes ces opportunités ? Nous pouvons constater que l’on peut se doter de son Home Made ou souscrire à un service SaaS et bien souvent, la réponse est hybride. Les expérimentations en mode SaaS se multiplient avec l’apparition de nouveaux services que les start-up françaises apportent, comme par exemple la restitution en cartes de chaleur des clics de souris sur les pages d’un site Web qui permet d’améliorer son ergonomie et ses ventes, ou encore le design automatique de la Home Page selon le profil et les préférences de l’utilisateur favorisant la promotion des services qui sont sensés le concerner, tout en évitant les effets de saturation/pollution. Cependant, cela reste avant tout une question de stratégie plus que d’appariement technologique. La question ne doit pas rester uniquement sur des attentes opérationnelles du marketing ou une capacité à l’IT à fournir des briques applicatives NoSQL intégrées et sécurisées. Les enseigne- ments des pures players, à l’image d’un Criteo, ou des sociétés comme les 3 Suisses montrent et démontrent que les questions doivent se poser en termes d’opportunité à opérer une trans- formation digitale et surtout à la positionner vis-à-vis de son cœur de métier. Les changements de rythme business sont tellement violents qu’il est frappant de voir comment certains acteurs reprennent de la croissance en se réinventant par l’ap- plication d’une stratégie de transformation digitale. ***
  • 26. 26 La mobilité aujourd’hui explose. Quel est l’impact sur le testing ? Le principal impact de la mobilité concerne la multipli- cation des tests à réaliser. Il est en effet nécessaire de tester chacun des terminaux sur lesquels une application est utilisée. Dans la pratique, on regroupe les tests en fonction des technologies : Windows Phone, Android, comme tout ce qui vient du monde Apple. Quelles que soient les technologies, les tailles des écrans varient considérablement. Il faut donc intervenir de façon spécifique pour vérifier que les différents formats de présentation s’adaptent parfaitement aux différentes tailles d’écrans : c’est ce que l’on appelle le Responsive Design. Quels sont les éléments à prendre en compte autour du mobile testing ? Tout ce qui traite de la présentation en priorité. Les facteurs à prendre en compte sont nombreux : format des écrans, affichage correct, perception, expérience et ressenti de l’utilisateur. Tous les sujets d’ordre technologique sont également à considérer, à commencer par les moyens de communication entre les terminaux et les applications. Evidemment il existe les protocoles internet assez simples avec des dérivés Wi-Fi. Ensuite tous les protocoles de type télécommunications, comme GPRS, EDGE sont à prendre en compte également. Enfin, on trouve des protocoles plus spécialisés autour de la Vidéo On Demand, ou encore des liaisons vers une messagerie instantanée ou de communication de type mail. N’oublions pas les tests applicatifs qui concernent l’interaction François Darphin — Mobile Testing : n’ayez crainte ! 6 janvier 2014 —
  • 27. 27 entre les applications stockées sur le terminal pour faire communiquer une application avec la partie GPS (géoloca- lisation du terminal) par exemple, ou pour avoir de la recon- naissance H code au sein même des applications. Par ailleurs, il existe des tests extrêmement techniques de type reconnaissance et influence des différentes cartes SIM ou des paramètres intégrés. Les tests liés à l’impact des applications sur la consommation énergétique (usage de la batterie) ne sont pas aisés à réaliser non plus, mais bien évidemment nécessaires. Enfin dans un contexte multilingue, il faut multiplier les pré- sentations par le nombre de langues existantes. Cela tient à la longueur des textes qui varie une fois traduits, mais aussi à d’éventuels changements d’ordre culturel pour certains pays. Finalement on constate que le champ des tests à réaliser est vaste ! Comment peut-on accompagner nos clients dans une démarche mobile testing ? A tout moment nous pouvons accompagner nos clients, soit en amont des projets autour du conseil, soit pendant les projets pour la réalisation de tests, ou encore durant l’exploi- tation des applications. Il existe deux grands domaines de conseil : Le premier concerne le choix des environnements et des outils. Les questions à se poser sont les suivantes : doit-on travailler avec des simulateurs ou avec des outils de prise en main automatiques ? Doit-on travailler avec des parcs de terminaux? Doit-on mettre en œuvre des acteurs externes qui offrent des services intégrés sur ces sujets ? Le deuxième domaine relève de la stratégie de test : Quels types de tests dois-je avoir ? Lesquels dois-je choisir ? Pour quelles raisons ? Comment dois-je assurer ma couverture ? Comment finalement j’optimise mon effort de tests ?
  • 28. 28 Concernant les projets de test, nos experts sont évidemment spécialisés à la fois en testing et en mobile. Ils sont particu- lièrement efficaces en termes de conception ou d’exécution de test, que ce soit en mode délégation de ressources ou en Centre de Services, avec ou sans outillage, en fonction de la demande et des besoins du client. En mode exploitation « run », c’est la mise en œuvre d’appli- cations qui surveillent ces applications mobiles. On compte deux niveaux : un premier niveau appelé analytics existe déjà dans le monde Web et dans celui des mobiles. L’analytics permet de recueillir des statistiques sur les usages des applications en fonction de la typologie des terminaux et de mieux cibler les tests en fonction des usages les plus fréquents. Dans un deuxième temps, on peut aller un petit peu plus loin avec des applications de type APM (Application de Performance Management) qui permettent des analyses extrêmement détaillées, par zone géographique ou par typologie de transactions utilisées dans l’application. Enfin, elles permettent de donner une information extrêmement pertinente en termes d’escalade en cas de problèmes d’exploitation. ***
  • 29. 29 Qu’est-ce que la BI analytique et le BIG analytics ? Tous nos clients sont désormais dotés d’entrepôts de données et de solutions de business intelligence. Pour dépasser les services rendus par la BI dite traditionnelle, l’approche par les statistiques permettent d’améliorer le diagnostic, la prédiction et la prescription. Nous sommes dans le monde de la BI analytique. Prenons l’exemple d’un site eCommerce. La phase de diagnostic va permettre d’identifier, de segmenter les com- portements « profils » des clients appétents à une offre. La phase de prédiction va permettre de quantifier cette appétence à l’aide de score datamining et la phase de prescription va permettre de proposer directement à un client qui se connecte, l’offre à laquelle il sera le plus appétent. Dans cet exemple les contraintes fortes, comme la volumétrie et la nécessité d’un temps de réponse court, imposent l’implémentation de solution du monde Big Data. On parle alors d’environnement Big Data et par extension de Big Analytics. Quelles sont les solutions sur le marché du BIG analytics ? Il en existe deux sortes, selon que l’on souhaite un support éditeur avec une prise en main assistée et ergonomique, ou bien de type Open Source pour des besoins de haute précision des modèles, ou des raisons de contraintes de coût. La plupart des solutions proposées par les éditeurs comportent des solutions de data visualisation compatibles avec des envi- ronnements Big Data. Les solutions de Big Analytics s’évaluent sur trois critères : le niveau d’ergonomie de la data visualisation, les fonctionnalités Sébastien Dupuis — De la BI analytique au BIG analytics 8 janvier 2014 —
  • 30. 30 d’analytique embarquées permettant l’implémentation du diagnostic, de la prédiction et de la prescription et sa capacité à fonctionner en environnement Big Data. Aujourd’hui certaines solutions éditeurs comme par exemple SAS Visual Analytics ou bien encore la suite Infinit Insight de SAP, proposent un bon compromis à ces trois critères. A cela, il faut ajouter l’avancée de projet Open Source comme Pyhton ou D3JS pour la data visualisation, ou bien R et Yarn pour la partie analytics sur les framework Hadoop. Quelle est l’approche de Gfi Informatique sur la BI analytics et sur le Big Data ? Que l’on soit dans un environnement Big Data ou pas, un projet analytique est guidé par les données et l’adéquation des données avec le cas d’usage que l’on souhaite traiter. Afin de répondre à cette problématique, Gfi Informatique démarre ses projets Big Data par une étude orientée « data driven » qui permet de faire le point sur les données disponibles et l’adéquation avec le cas métier à investiguer. Que propose Gfi Informatique pour accompagner ses clients dans leur transition vers le Big Data ? Gfi Informatique vous propose d’échanger lors d’un atelier d’une demi-journée sur les données et les cas d’usage à traiter. A titre d’exemple, un grand nom de l’aéronautique français fait confiance à Gfi Informatique depuis 2010 dans le cadre d’un projet de maintenance prédictive afin de limiter les immobilisations au sol de ses avions, soit le facteur le plus important de coût pour les compagnies aériennes. ***
  • 31. 31 Est-ce compliqué de migrer de Notes vers Office 365 ? Non. En revanche, Il ne faut pas considérer comme mineur un projet de migration dans le Cloud, mais bien comme un projet à part entière. Il est important de bien planifier et d’avoir une gouvernance forte autour du projet. Car bien souvent les projets qui se déroulent mal le sont à cause de défaillances de gouvernance. Lotus Notes comprend une partie messagerie et une partie applicative. Il est alors important de traiter ces parties comme deux projets distants, à savoir un projet de migration de la messagerie d’une part, et un projet de migration des applicatifs d’autre part. Quels conseils donneriez-vous à un DSI qui envisage de migrer vers Office 365 ? Il est fondamental de bien préparer la migration. Ensuite former et informer les utilisateurs des avantages et des impacts de la migration est essentiel. Leur faire savoir ce qu’il va se passer pendant les phases de migration leur permet de ne pas ressentir ce projet comme négatif. Faut-il prévoir un pilote ? Effectivement une phase pilote est fortement recommandée pour tester les différents processus de migration et pour s’assurer que l’impact sur les utilisateurs sera le plus restreint possible. Frédéric Cardoso — Migrer de Notes vers Office 365 : les pièges à éviter 10 janvier 2014 —
  • 32. 32 Pourquoi faire appel à Gfi Informatique plutôt que de s’engager seul dans sa migration ? Outre une entière maîtrise dans la mise en œuvre de ces méthodologies, nous disposons de partenariats forts avec Microsoft, l’éditeur de la solution, mais aussi avec Refresh IT, Quest ou encore AvePoint qui ont des outils de migration de Notes vers SharePoint. ***
  • 33. 33 Est-ce une bonne idée de centraliser sa production informatique ? Oui tout à fait. On préconise en effet de centraliser les in- frastructures informatiques dans des datacenters sécurisés ou en mode Cloud. Certaines fonctions ont également intérêt à être centralisées, comme la gestion des incidents ou le pilotage de la production. Ainsi on assure une homogénéité des outils et une meilleure qualité du service offert aux utilisateurs. D’accord, mais faut-il pour autant tout centraliser ? La stratégie doit être globale. En revanche, il n’est pas obligatoire de rassembler toutes les équipes sur un même site. Le datacenter peut être basé à Lyon et l’équipe de pilotage à Lille. Il est cependant nécessaire de garder un minimum de compétences dans les établissements, notamment pour les opérations de brassage. Le provisionning des postes de travail peut également être réalisé partiellement en local. Il est éven- tuellement plus efficace d’avoir un stock de postes de travail en local et d’assurer sur site la masterisation et le déploiement des applications sur les postes. Quel est l’impact de la centralisation sur les équipes ? On se dirige vers une diminution des équipes informatiques sur les sites des utilisateurs, à raison d’un ETP minimum pour 200 utilisateurs. Leur métier va également changer puisque l’on réduit progressivement la technicité des agents sur les sites de façon à les orienter vers du service et de la qualité pour les utilisateurs. Antoine Delahousse — Centralisation de la production informatique : jusqu’où faut-il aller ? 13 janvier 2014 —
  • 34. 34 Ces évolutions nécessitent forcément une conduite du changement adaptée pour former les agents informatiques, voire les reconvertir à de nouveaux métiers. Pourconclure,sait-on,nousGfiInformatique,accompagner nos clients sur ce type de projet ? Ouitoutàfait.Nousavonsuneoffreappelée« Gouvernancede la production informatique » qui vise à aligner l’organisation de la production informatique avec les besoins des métiers. Cela peut s’accompagner de projets de transformation des infrastructures ou d’externalisation. ***
  • 35. 35 Office 365, qu’est-ce que c’est ? Office 365 est l’offre bureautique de Microsoft située dans le Cloud. Elle comprend des outils comme Word, Excel et PowerPoint, disponibles aussi en client lourd pour les postes de travail. On y trouve également un client Lync, un client Exchange et des applications SharePoint online. Pourquoi migrer vers Office 365 ? Pour trois raisons. La première, pour une plus grande flexibilité. Microsoft garantit contractuellement à 99.90 %. la disponibilité de ses applications La deuxième raison touche à l’innovation. Microsoft fait évoluer sa plateforme en toute transparence pour le client et maintient ses applications à jour. Enfin la troisième raison se rapporte aux coûts. Migrer permet de diminuer son TCO au niveau de ses plateformes internes, puisque l’on se libère de la partie Gestion et Administration de tout ce qui est hébergé dans le Cloud, que ce soit chez Microsoft ou chez un partenaire. Comment faut-il procéder pour migrer vers Office 365 ? Il suffit de s’adresser à un expert Gfi ! Nous disposons d’offres packagées prêtes à l’emploi, avec possibilité de personna- lisation selon l’environnement du client pour faciliter une transition en toute transparence vers le Cloud. *** Frédéric Cardoso — Migration vers Office 365 : pourquoi, comment ? 15 janvier 2014 —
  • 36. 36 Le eCommerce est un secteur très dynamique. Qu’est-ce qui a changé ces dernières années ? Beaucoup de choses. On a tout d’abord assisté à la montée en puissance de la mobilité avec ce que l’on appelle le m-Commerce. On a aussi vu les habitudes des consomma- teurs changer. Nés avec internet, ils sont aujourd’hui naturel- lement enclins à privilégier le canal virtuel au détriment du canal physique. Cela entraîne chez les eCommerçants et chez les commerçants traditionnels des changements nécessaires en termes d’organisation, tant sur la logistique que sur la partie technologique. Lorsque l’entreprise possède déjà une plateforme, quels sont les critères à prendre en compte pour la faire évoluer ? Quasiment tous les commerçants possèdent aujourd’hui une plateforme eCommerce. La question qu’ils doivent d’abord se poser est la suivante : suis-je prêt à affronter un univers concurrentiel de plus en plus tourné vers le cross-canal ? Le cross-canal, c’est la capacité des commerçants à combiner tous les canaux de vente, à mélanger les opérations et à tirer les bénéfices de chaque information accumulée dans l’un ou l’autre des canaux de vente afin de générer une expérience d’achat unique vis-à-vis de l’internaute. Deuxième critère d’évolution : la montée en puissance des outils de merchandising. Le merchandising, c’est la capacité d’une plateforme à proposer des produits complémentaires à la vente afin d’augmenter le chiffre d’affaires et les marges. Il faut aussi prendre en compte l’aspect mobilité, c’est-à-dire être capable de traiter avec l’ensemble des plateformes Olivier Ravel — Pourquoi refondre votre plateforme eCommerce ? 17 janvier 2014 —
  • 37. 37 mobiles, tablettes et smartphones, sur Android, Windows Phone ou iOS. Enfin, une plateforme se doit d’offrir une très grande agilité pour mener à bien des opérations marketing et commerciales. Elle doit proposer des systèmes de contribution riches et avoir une intégration très fine avec tous les outils de back-office, comme la supply-chain. Quels sont les risques à ne rien faire ? Le risque est considérable. Aujourd’hui les compétiteurs Pures Players comme Amazon ou eBay sont devenus des mastodontes. Face à eux, les commerçants traditionnels doivent impérativement se doter des mêmes outils. Les commerçants traditionnels doivent élargir leur catalogue d’offres en termes de produits, vis-à-vis des internautes, en s’appuyant sur des réseaux de partenaires. C’est ce que l’on appelle les Marketplace. La Marketplace va devenir un enjeu extrêmement crucial pour les eCommerçants dans les années à venir. ***
  • 38. 38 C’est quoi le Big Data? Dans Big Data il y a deux termes, et le plus important c’est Data, car porteur de sens. Le monde du Big Data fait prendre conscience que des éléments de sens sont contenus dans les données internes de l’entreprise. Ces données peuvent aussi être exploitées en les croisant avec des sources externes, qu’elles soient payantes ou non, afin d’apporter du contexte qualitatif et quantitatif pour mieux comprendre sur quoi repose son activité, tirer parti des signaux faibles et s’en servir pour développer de nouveaux services, améliorer l’efficacité opérationnelle, voire mieux prévoir/prédire des comporte- ments. S’il s’avère que des contraintes sur un ou plusieurs des 3V paraissent importantes, alors il sera nécessaire de « faire parler les données » via une approche technologique de type Big Data. Le Big Data, ça marche en France ? Cela progresse malgré un départ plus que difficile. En France, le Big Data a été essentiellement pris sous l’angle technolo- gique, ce qui est un véritable problème. Les éditeurs américains ont assuré la promotion de solutions miraculeuses face au « déluge » de données sans prendre le temps de considérer les besoins réels des clients français qui étaient et demeurent différents. En effet, les américains valident un concept business en investissant si nécessaire sur une plateforme Big Data gérée par des équipes internes technophiles. Le déclencheur est donc business avec un sponsoring venant du plus haut. En France, on a eu beaucoup d’interrogations face aux cas d’usages outre atlantique, pas si simples à transposer en raison Alvin Ramgobeen — Big Data : mi-figue, mi-raisin ? 23 janvier 2014 —
  • 39. 39 d’une volumétrie moindre et de contraintes légales bien plus fortes. Enfin, ce qui ne facilite en rien la tâche, la logique d’in- vestissement est souvent inverse à celle des États Unis. Quels conseils donneriez-vous à une entreprise qui souhaite s’engager dans une démarche Big Data ? Qu’il n’est nul besoin de commencer par investir sur une solution technologique de type Big Data pour se pencher sur ce que la donnée peut apporter en termes de sens business. Qu’il est tout à fait possible d’initier des démarches d’explo- ration à partir notamment des données de détails contenues dans son Système d’Information décisionnel. Qu’enfin, il est plus que nécessaire de co-construire au préalable avec les métiers une liste prioritaire de cas d’usages éligibles à ces approches et d’autres part de sensibiliser sa direction générale sur les raccourcis à éviter en la matière, à savoir de croire qu’Hadoop sait gommer tous problèmes liés à la performance par exemple ! ***
  • 40. 40 Aujourd’hui les collectivités utilisent de nombreux moyens pour communiquer avec leurs usagers, comme l’affichage, les bulletins municipaux, les sites internet… mais existe-t-il des outils innovants pour communiquer avec les citoyens ? Se rendre en mairie reste le moyen privilégié par les citoyens pour solliciter un service auprès de leur commune, avec les contraintes que l’on connaît d’horaires d’ouverture et parfois de file d’attente. Vous le rappeliez à juste titre, les collectivités sont équipées de sites internet. C’est le niveau 2 de la communication, c’est-à-dire le niveau web. Aujourd’hui nous avons l’ambition de proposer un bouquet de services innovants pour enrichir les services en ligne. Il y a ensuite le troisième niveau de communication qui concerne la mobilité. La plupart des administrés sont équipés de terminaux mobiles et nous souhaitons mettre à leur disposition des services disponibles à tout moment et en tout lieu depuis des tablettes ou smartphones. C’est le moyen le plus efficace pour adresser le plus grand nombre de citoyens. Vous parlez de services en mobilité, mais à quoi pensez- vous ? D’abord au push SMS. En 1 clic, une collectivité peut envoyer un message SMS à l’ensemble de ses administrés. Les utilisations sont multiples : prévenir les parents d’élèves que les transports scolaires ne sont pas assurés, informer les citoyens par un simple SMS qu’une réunion va se tenir en mairie ou encore prévenir les usagers d’une coupure d’eau. Sylvie Thiroine — Comment communiquer de manière innovante avec vos citoyens ? 3 février 2014 —
  • 41. 41 Ensuite, l’audio Web Conférence. Les collectivités peuvent organiser des réunions auxquelles les participants assistent, soit en présentiel dans les locaux de la mairie, soit à distance depuis leur smartphone ou tablette. Dans ce cas, les participants à distance peuvent voir et entendre ce qui se dit en réunion. Ils peuvent aussi prendre la parole, être vus et entendus par les autres participants. Les cas d’application sont multiples. Je pense notamment aux réunions scolaires qui commencent souvent à 17h00. Les parents n’étant pas toujours disponibles, ils peuvent alors participer à distance. Je pense aussi aux personnes à mobilité réduite qui peuvent participer à des réunions organisées par la mairie depuis leur domicile, devant leur ordinateur. On a parlé de push SMS, d’audio Web Conférence. D’autres outils innovants ? Nous proposons d’enrichir les services disponibles en ligne. A savoir, les citoyens pourront réaliser des démarches admi- nistratives, suivre leur avancement, s’inscrire à des activités sportives ou encore déposer un CV ou une demande de stage. De plus, depuis le portail, le citoyen pourra demander à être rappelé dans une plage horaire qui lui convient. C’est ce que l’on appelle le système « clic-to-call ». Il pourra aussi prendre rendez-vous avec un agent ou un élu en ligne depuis son ordinateur. Cela revient à dire que la mairie est pratiquement ouverte 24h/7j. Tous ces outils sont largement diffusés dans le secteur privé. Est-ce que c’est simple à mettre en place dans une collectivité ? La solution ConnectiCité de Gfi Informatique est très simple à mettre en œuvre. Les services sont disponibles en un clic. Rien n’est installé sur les ordinateurs de la collectivité. Tout est hébergé dans le Cloud d’Orange, notre partenaire, sur
  • 42. 42 des datacenters installés en France. Nous avons développé un système d’abonnements mensuels qui permet à toute les tailles de collectivités d’accéder à ces services innovants, de la plus petite commune rurale à la très grande agglomération. ***
  • 43. 43 On entend de moins en moins parler de BI mais surtout de Big Data. Est-ce que l’un est en train de remplacer l’autre ? C’est vrai, le Big Data a aujourd’hui pris le relais sur le marché de la BI. Depuis 2011 le Big Data s’est concrétisé sur le marché français, notamment au travers de la constitution de « uses cases » et de projets qui s’implémentent autour de solutions technologiques émergentes, souvent orientées Open Source. Les éditeurs de BI traditionnels, depuis l’intégration de données jusqu’aux solutions de Geo BI ou de restitution avancée, se sont lancés dans le rafraîchissement de leur ligne produit sur des concepts empruntés au Big Data, ce qui engendre un certain flou pour les clients. Quels sont les plus du Big Data par rapport à la BI ? La BI sert des enjeux de pilotage des lignes métiers en agrégeant les données opérationnelles. Dès lors, ce qui est observé est souvent représentatif du signal fort. Si l’on souhaite comprendre et donner du sens, il devient plus difficile de trouver les éléments d’explications sous-jacents. La BI traditionnelle est limitée pour apporter des réponses à ces nouveaux besoins métiers. Le Big Data travaille par l’approche basée sur des signaux faibles et ce, au plus près du détail que les données opération- nelles quasi brutes peuvent nous livrer. En ce sens, l’approche Big Data est complémentaire à la démarche BI. Comment faut-il procéder pour lancer un projet Big Data ? Le point de départ d’un projet Big Data peut prendre appui sur les données issues de la BI. En effet, la BI représente généralement l’une des concentrations des données internes à Alvin Ramgobeen — Big Data versus BI : y a-t-il match ? 11 février 2014 —
  • 44. 44 l’entreprise parmi les plus certifiées, tant sur la qualité que sur les référentiels qui les décrivent. Cependant il est nécessaire de toujours rattacher un projet Big Data à un cas d’usage qui aura été au préalable décrit a minima en termes métier au risque de se retrouver avec un lac de données sans réel sponsor et qui ne vit pas. ***
  • 45. 45 Pourquoi les Directions Métier ont-elles parfois des difficultés à dialoguer avec la Production Informatique ? Les délais peuvent en être la cause car souvent les métiers sont pressés de voir leurs demandes satisfaites, soit sur la mise en œuvre d’une nouvelle fonctionnalité, soit sur la mise en production d’une nouvelle application. Les technologies peuvent être en cause également. La productioninformatiquegèrecorrectementuncertainnombre de technologies. Cependant, si les métiers demandent aux équipes Production de faire fonctionner une base de données inhabituelle, elles peuvent alors rencontrer des difficultés. La qualité de service peut aussi être un sujet de mésentente. Le métier peut éprouver une difficulté à formaliser la qualité de service attendue ; de son côté la production informatique hésite sur le niveau de l’infrastructure à mettre en œuvre. On peut aussi avoir des surdimensionnements ou des sous-dimensionnements. Parlons du catalogue de services. Est-ce la solution et quelle définition donneriez-vous au catalogue de services ? La Direction Informatique produit le catalogue de services des offres accessibles par les métiers. Ce catalogue de services précise pour chaque offre le niveau de service proposé, le coût, et le délai de mise en œuvre. On y trouve des offres techniques, comme l’approvisionnement d’un serveur, d’un volume de stockage, ou d’un studio de visioconférence ; ou encore des offres plus globales, comme le MCO d’une nouvelle application ou une solution d’archivage. On peut Antoine Delahousse — Comment faciliter le dialogue entre direction métier et production informatique ? 18 février 2014 —
  • 46. 46 également avoir un catalogue de services bureautiques orienté vers les utilisateurs. L’intérêt du catalogue de services est de permettre aux métiers de formaliser leurs demandes et simplifier leurs expressions. En conséquence, la Direction Informatique va pouvoir in- dustrialiser la réponse à ces demandes et avoir une meilleure adéquation entre ce qui est mis en œuvre et les besoins des métiers. Par-là même, la Direction Informatique réalise des économies sur le fonctionnement. Que se passe-t-il lorsqu’une Direction Métier a une demande qui ne figure pas dans le catalogue de services ? Dans ce cas, la Production Informatique propose une offre sur mesure qui implique sans doute des coûts et des délais plus importants pour le Métier. Dans certains cas, la Direction Informatique peut s’adresser à un opérateur de Cloud public pour bénéficier d’une offre basique d’hébergement. Pour conclure, est-ce que nous Gfi Informatique, sommes capables d’accompagner un client dans la construction de son catalogue de services ? Tout à fait, notre offre «  Gouvernance de la Production Informatique » intègre l’ensemble de ces prestations. ***
  • 47. 47 La lutte anti-blanchiment, de quoi s’agit-il ? 1 500 milliards à 2 000 milliards de chiffre d’affaires annuel ! C’est formidable, n’est-ce pas ? C’est malheureusement le produit estimé chaque année du blanchiment d’argent. Il faut donc essayer de réduire ce montant. Le blanchiment d’argent, c’est quoi concrètement  ? Cela consiste à introduire dans le système légal de l’argent issu d’activités illégales et de trafics en tout genre : trafics d’armes, de drogue, extorsions de fonds, criminalité, vols, abus de biens sociaux et corruption. Tous ces sujets sont traqués. Le régulateur exige une mise sous surveillance par les intermédiaires financiers tels que les banques, les assurances, les conseils en patrimoine, les notaires pour les successions, les avocats, les casinos, etc. Le blanchiment lui-même prend des formes diverses et variées. Un exemple à petite échelle : il suffit d’ouvrir un restaurant qui ne servirait que 3 repas par an mais qui enregistrerait en cash l’équivalent de plusieurs milliers de repas. Un exemple plus compliqué va passer par des scénarios de sociétés écrans ou fantômes, de facturations croisées, un peu de paradis fiscal, un banquier peu regardant au passage, et le tour est joué. En France, les sociétés chargées de suivre la lutte contre le blanchiment doivent émettre des déclarations de soupçons à un organisme central, TRACFIN, qui dépend du Ministère des Finances. Quel impact pour les banques ? Les premières lois sur le blanchiment datent de 1996. Les premiers impacts importants se sont fait sentir à partir de Norbert Hensgen — Lutte anti-blanchiment : les banques françaises sont-elles prêtes ? 25 février 2014 —
  • 48. 48 2005. Depuis cette date, les intermédiaires chargés de faire les déclarations sont obligés de déclarer tous les comportements suspects pouvant générer, pour leur auteur, une peine d’em- prisonnement d’au moins un an. Compte-tenu des réglementations existantes, cela représente une nombre considérable de clients et de mouvements à surveiller, ce qui oblige de fait les banques et les assurances à surveiller l’ensemble de leurs clients et de leurs mouvements. Cela les oblige à constituer des bases de données centrales qui vont être alimentées quotidiennement avec des schémas techniques de type datawarehouse, ainsi que d’analyser les données avec différents outils de type analyse statistique, moteur de règles ou comparaison à des listes noires. Les banques ont plutôt choisi de mettre en place des progiciels et non des solutions maison puisque la réglementation est la même pour tous et que l’évolution sera facilitée lorsque la rè- glementation aura changé. Quels sont les principaux challenges pour une banque ? La Quatrième Directive Européenne relative à la « prévention de l’utilisation du système financier aux fins du blanchiment de capitaux et du financement du terrorisme » a été votée par le Parlement Européen en mars 2014. Elle devra être transposée dans le droit national de chaque état dans les deux ans à venir. Ce paquet réglementaire comporte 3 types de dispositifs : • Un premier dispositif au niveau de l’extension du type d’organismes concernés. Par exemple, toutes les sociétés de jeux devront désormais déclarer leurs soupçons, y compris les sociétés de jeux en ligne. Seront également suivies les transac- tions opérées au niveau des grands groupes transnationaux ou internationaux. Mais aussi de manière plus spécifique les personnes politiquement exposées, à savoir nos élus, nos gou- vernants, les hauts fonctionnaires, dans la mesure où ils sont
  • 49. 49 en relation avec des organismes étrangers ou des personnalités étrangères qui pourraient présenter des cas de sollicitation. • Le deuxième aspect de ce nouveau paquet réglementaire concerne l’identification des clients, et la tenue de registres publics des sociétés et des propriétaires. Il est maintenant introduit la notion de bénéficiaire effectif, autrement dit, la personne physique « qui tire les ficelles ». En d’autres termes, pour une société, il s’agit de l’actionnaire ou des actionnaires physiques principaux. Et lorsqu’ il s’agit d’une cascade de sociétés, il y a maintenant obligation de remonter la chaîne en tenant un registre de tous les propriétaires réels et des acteurs qui effectuent les transferts de fonds, qui peuvent se cacher derrière des personnes morales. C’est donc quelque chose de très important qui ne va pas être simple à gérer pour les banques. • Le troisième volet concerne l’approche graduée par les risques. Elle était jugée un peu simpliste dans la version précédente mais qui se complique à présent. En effet, il est demandé aux banques non seulement de différencier l’ap- proche selon les clients, mais également selon les produits vendus, les services exécutés et les canaux de distribution utilisés. Cela signifie que si je suis client d’une banque privée avec un patrimoine diversifié et de multiples compartiments (produits, placements, investissements, mouvements divers et variés), je vais avoir droit à une surveillance plus serrée que celle qu’aura un salarié possédant un compte courant ordinaire. Ceci se traduira en matière de SI par des mo- difications importantes. En effet, ces nouvelles règles de gestion nécessiteront des nouvelles données et de nouvelles règles d’analyses. Très probablement se mettront en place de nouvelles versions de progiciels de lutte contre le blanchi- ment utilisés avec le lot habituel de tests : tests fonctionnels, tests de non régression, tests de performance et probable- ment une durée relativement longue avec un investissement
  • 50. 50 qui sera loin d’être négligeable. Les banques françaises sont-elles au rendez-vous ? De manière globale l’Europe est une très bonne élève dans ce dispositif mondial et la France est un élève encore meilleur que la moyenne européenne. Dès 2012, la France a un mis en place un certain nombre de dispositions réglementaires déjà en cours d’implémentation dans les banques, couvertes a priori par la nouvelle Quatrième Directive. Cela dit le gros du chantier qui consiste à mettre en place l’approche par les risques différenciés causés par les clients, produits, services et canaux de distribution n’est pas encore prévue et devra être mise en œuvre. Le travail reste donc important. Mais je suis confiant dans la capacité de nos banques à mettre ces dispositions en place dans les deux ou trois années à venir. Et Gfi Informatique dans tout ça ? Gfi Informatique accompagne les principales banques françaises depuis 2006 dans la mise en œuvre et le déploiement de progiciels sur des bases mondiales. Nous avons développé un savoir-faire, des compétences et une expertise que nous saurons encore mettre à disposition de nos clients pour leur assurer la réussite dans cette nouvelle étape. ***
  • 51. 51 Les TNR, c’est quoi ? Obligatoires, les Tests de Non-Régression ne touchent qu’une partie d’une application ou d’un Système d’Information. Cette activité consiste à vérifier que « ce que l’on ne voulait pas changer fonctionne toujours comme avant  ». Cela représente en pratique 30 % des volumes de tests réalisés sur ces applications. Les Tests de non régression sont importants en termes de délai et de time-to-market. Ils ne peuvent être conduits qu’une fois l’application livrée et sont donc sur le chemin critique du projet. Souvent mal aimés, les TNR sont perçus comme ayant peu de valeur ajoutée. Quand peut-on optimiser les TNR ? On peut optimiser lesTests de Non-Régression à trois niveaux : «  en amont  » au moment où on les conçoit, «  pendant  » lorsqu’on les exécute, et enfin, on peut encore les optimiser « après ». En amont, la première des optimisations vise une gestion d’exigences qui soit de bon niveau et qui permette d’optimiser les analyses d’impacts. En effet, lorsque l’on a une mauvaise analyse d’impacts, on crée des problèmes de non-régression en ayant des anomalies qui vont se produire sur des zones que l’on ne devait pas toucher. La deuxième source d’optimi- sation concerne la structuration du patrimoine de tests, dans lequel on cherche à avoir des attributs de tri qui permettent de sélectionner les scénarios en fonction des risques que l’on prend vis-à-vis des évolutions et de la non-régression. Par exemple, on utilise une structuration des scénarios en disant : « j’ai des scénarios très détaillés de type Règles de gestion, des François Darphin — Les Tests de Non-Régression (TNR) : je t’aime… moi non plus ? 3 mars 2014 —
  • 52. 52 scénarios de type Processus bout-en-bout et enfin des scénarios de type Procédures ». Durant le projet, les tests se font dans cet ordre-là : en premier, les règles de gestion, les processus ensuite, et enfin les procédures. Lorsque je suis en non-ré- gression, je peux inverser l’ordre et commencer par tester les procédures. Si elles sont conformes, il n’y a plus besoin d’accéder aux niveaux processus et règles de gestion. Une fois les procédures testées, les utilisateurs finaux sont véritable- ment rassurés. Il est important de se donner des critères de choix et de sélections qui permettent d’optimiser la quantité de scénarios que l’on va exécuter. Deux sources d’optimisation sont possibles «  pendant  » l’exécution des Tests de Non-Régression. La première, l’auto- matisation permettant d’aller beaucoup plus vite qu’en mode manuel. Cependant quelques prérequis sont nécessaires en termes de faisabilité technique et de stabilité pour éviter trop de maintenance. « En amont » de l’exécution, il est nécessaire de positionner le contexte de l’exécution, a minima les données de tests, afin que les tests puissent tourner tout seuls, puis se donner les moyens d’automatiser l’analyse des résultats. Enfin, il est encore possible d’optimiser « après » les tests de non régression en capitalisant sur deux points : d’une part faire que la maintenance des scénarios suive l’évolution de l’appli- cation et, d’autre part, en préparant des éléments statistiques pour identifier les tests qui ont produit les meilleurs résultats. ***
  • 53. 53 L’ALM est l’acronyme de Application Lifecycle Management que l’on peut traduire par gestion du cycle de vie des applications. Historiquement le PLM a été mis en place pour gérer des données mécaniques, notamment liées à la Conception Assistée par Ordinateur (CAO). Puis progressivement le PLM s’est déployé sur l’ensemble du cycle de vie tout en restant associé au produit, à l’organique. Aujourd’hui, les industriels et les solutions du marché sont suffisamment matures pour déployer réellement l’ingénierie système et l’ingénierie système logiciel Quels sont les défis relevés par l’ALM ? Comme pour le PLM, le premier défi de l’ALM est la mise en place d’un référentiel permettant un partage facile de l’ensemble des informations liées à la définition, la conception, la production et la mise en service des systèmes embarqués. On couvre la gestion des exigences et ce, jusqu’à ce que la vérification de ces exigences soient bien répandues dans le système industrialisé. Le deuxième défi, côté utilisateurs, est la mise en place d’une collaboration directe entre l’ensemble des intervenants dans la définition du système. Le troisième challenge est la traçabilité au travers la création de tableaux de bord permettant de bien suivre l’avancement dans le cycle de vie du système. Le quatrième défi est l’optimisation de la campagne de tests et une amélioration de l’assurance qualité du système industrialisé. Enfin, le dernier est la mise en place de la ligne de produits pour faire de la conception modulaire par système, sur toute Thierry Durand — ALM & Ingénierie Système : nouveaux défis des industriels dans le monde du PLM ? 5 mars 2014 —
  • 54. 54 une gamme de produits de l’industriel. Concrètement, sur quels types de chantiers les industriels peuvent-ils déployer de l’ALM ? Je privilégierais deux axes. Le premier, c’est remonter dans le cycle de vie du PLM, c’est-à-dire au niveau de la gestion des exigences jusqu’au dernier point du cycle en V de la conception produit, à savoir la vérification des tests. Cela permet d’assurer une cohérence de la gestion des exigences jusqu’aux tests. Le deuxième axe est la gestion logicielle des systèmes embarqués. Cela s’applique aux exigences bien sûr, mais aussi aux sources, aux codes et aux tests qui ont été mis en place pour valider le système logiciel embarqué. Et Gfi Informatique dans tout cela ? Sur la base de son expertise aéronautique et défense, Gfi Informatique a investi sur ce sujet de l’ALM et l’Ingénierie Système. De par la maturité des industriels et la maturité des solutions, Gfi Informatique a mis en place des offres et des méthodologies qui permettent d’accompagner les industriels dans cette démarche. ***
  • 55. 55 On entend souvent parler de Cloud dans les collectivités, mais qui dit changement, dit crainte… alors, qu’en est-il dans la réalité ? Pour peu que vous ayez choisi le bon opérateur, l’ensemble des informations que vous mettez dans le Cloud aujourd’hui sera pratiquement accessible et disponible à 100 %, avec une étanchéité complète de vos informations. Autrement dit, un client ne peut pas avoir accès aux données d’un autre client s’il ne le souhaite pas. La sécurité, l’accessibilité des données sont-elles des idées reçues. Dans ce contexte, quels sont les intérêts pour les collectivités d’adopter des solutions Cloud ? Une collectivité a intérêt à rester centrée sur sa mission de service public. Cela permet aux acteurs publics de se reconcentrer sur leur métier de base et sur les tâches à valeur ajoutée, comme mandater les fournisseurs, encaisser les recettes, payer les agents. Les acteurs publics s’affranchissent ainsi de tout ce qui est technique ou technologique, de la sauvegarde de la veille qui n’a pas fonctionnée ou du réseau qui n’est pas disponible. D’autres exemples d’usages du Cloud ? Aujourd’hui les petites collectivités ont des agents multi-em- ployeurs. Un secrétaire de mairie peut être appelé à travailler pour trois ou quatre collectivités différentes. Ainsi, quelle que soit sa situation géographique, ce secrétaire de mairie peut facilement répondre à ses élus ou à ses administrés sans se Guillaume de Bruc — Solutions Cloud pour les collectivités locales : qu’avez-vous à y gagner ? 11 mars 2014 —
  • 56. 56 poser de questions dans la mesure où il dispose d’un accès à l’ensemble des collectivités qu’il gère. Le Cloud pour une collectivité, c’est compliqué à mettre en place ? Le Cloud, c’est très simple à mettre en place. Avec la reprise des données et la formation des agents, vous pouvez être opérationnel en quelques semaines ! C’est cher ? Le coût dépend bien évidemment de la taille de la collectivité, du nombre d’agents connectés et du nombre de fonctionnali- tés. Gfi Informatique commercialise des solutions à moins de 200 euros par mois, tout inclus. ***
  • 57. 57 Pour la communauté ITSM : quels sont les « bons indicateurs » de Gestion des Services ? Quels sont les indicateurs à déployer en priorité ? Quels sont les conseils et les pièges à éviter ? La priorité est de se concentrer sur la satisfaction client Les référentiels de bonnes pratiques listent pas moins de 130 indicateurs (appelés aussi KPI – Key Performance Indicators) différents pour mesurer la performance de la Gestion des Services, il y a de quoi avoir le vertige. Surtout si la satisfaction du client n’est pas au rendez-vous après leurs déploiements. « If you cannot measure it, you cannot improve it », Lord Kelvin. Une chose est sûre, la mise en place d’indicateurs (ou KPI) est indispensable pour améliorer la manière de délivrer ses services IT aux clients. Cela permet de mesurer l’atteinte d’un objectif et disposer d’informations factuelles pour prendre les décisions. Sans indicateur défini, pas de système de mesure, donc pas d’amélioration possible. La clé réside dans la définition de l’indicateur. En plus d’être SMART (Significatif, Mesurable, Acceptable, avec un Responsable, Temporellement défini), les experts ITSM Gfi du Centre d’Intégration et Transformation estiment qu’un bon indicateur ne doit pas être cher à produire (par rapport à son apport), doit être automatisé et surtout doit être le reflet positif de la perception du client. Priorité aux indicateurs de disponibilité, de satisfaction client et de suivi des coûts Il est toujours délicat pour une DSI d’être informée par Jérémy Brunet — Les « bons indicateurs » de Gestion des Services : comment les choisir ? 13 mars 2014 —
  • 58. 58 ses clients des indisponibilités de Service. Ceci montre un manque de maîtrise dans sa gestion et un fort risque de dépréciation de ses services. Il est donc prioritaire de mettre en place des indicateurs de suivi de la disponibilité afin d’être le plus réactif et le plus communicatif possible en cas d’indis- ponibilité avérée ou planifiée. La deuxième priorité est de mesurer la satisfaction client. Aujourd’hui, pour qu’une DSI perdure, elle doit compter sur ses clients. Seuls les clients satisfaits et fidèles continueront à utiliser (voire payer) ses Services. L’enjeu est donc de définir des indicateurs qualitatifs pour mesurer la satisfaction et le degré de fidélité des clients de la DSI. Des enquêtes de satisfaction régulières et ciblées couplées à des indicateurs, comme le taux de réengagement à des services de la DSI, permettent de mesurer cela. La troisième priorité porte sur le suivi des coûts d’un service. Une transparence dans le suivi des coûts IT est la garantie d’une bonne gestion aux yeux du CIO et des clients. Aujourd’hui, les DSI sont jugées sur leurs capacités à gérer le S.I dans le respect du budget alloué. Par conséquent, la mise en place d’indicateurs de suivi de coût des Services est prioritaire et facilite la justification et/ou la reconduction des budgets. De plus, il s’agit des indicateurs les plus regardés des autres directions, car compréhensibles et comparables. Certains indicateurs sont à proscrire Certains indicateurs systématiquement implémentés, bien que spécifiques, sont à proscrire. Le suivi du nombre de relances effectuées dans un ticket d’incident en est un bon exemple. Les experts ITSM Gfi jugent la définition (relance VS simple mise à jour) et la mesure trop aléatoire à mettre en œuvre par rapport au bénéfice à en tirer. Autre indicateur de Centre de
  • 59. 59 Services souvent demandé et jugé peu performant : le suivi du ratio appels téléphoniques/tickets ouverts. La mise en œuvre de cet indicateur consiste à relever les écarts entre les appels reçus au Centre de Services et le nombre de tickets saisis par le Centre de Services dans l’outil de ticketing. Ceci dans le but de s’assurer que tous les appels sont tracés. Gfi met en garde sur cet indicateur car la justification des écarts est lourde et souvent infructueuse. En effet, les écarts sont souvent liés à des erreurs d’appels, faux numéros, appels internes… Réviser les indicateurs dès qu’ils ne reflètent plus la perception du client De manière générale, si il y a désaccord entre le ressenti du client et la valeur remontée par l’indicateur, Gfi préconise de revoir l’indicateur. Sortir du « Reporting pastèque » qui consiste à monter des indicateurs au vert alors que quand on interroge les clients sur le Service, ils voient rouge. Une révision ou adaptation des indicateurs doivent aussi être effectuées lors d’évolutions métiers notables, des revues de processus ou de changements d’objectifs. Des indicateurs orientés amélioration et non justification Pour conclure, Gfi préconise d’avoir une approche progressive sans vouloir répondre à trop d’exigences à la fois. De ne pas suivre à la lettre les préconisations des référentiels de bonnes pratiques. De construire les indicateurs directement avec les clients et de les orienter « amélioration des services » et non pas « justification d’activité ». Aucun indicateur ne se suffisant à lui-même, un certain nombre devra être déployé de manière cohérente, certains pouvant être utilisés temporaire- ment pour identifier une cause précise de dysfonctionnement. Cependant, pour une gestion efficace, les experts ITSM Gfi du Centre de Conseil et d’Expertise de Nantes préconisent de ne pas excéder cinquante indicateurs.
  • 60. 60 Performance utilisateurs : pourquoi est-ce un sujet d’actualité ? Qui dit performance, dit architecture ! Et les architectures aujourd’hui sont compliquées, mondiales et interconnectées. On les trouve de plus en plus dans le Cloud avec des éléments difficilement maîtrisables. Les architectures font intervenir des partenaires qui sont les fournisseurs de ces Clouds. Et pour finir, avec la mobilité, les utilisateurs utilisent de nouveaux équipements, de nouveaux devices, parfois même les leurs qui ne sont forcément labellisés par la DSI. En conséquence, la mesure de la performance dans ces architec- tures est devenue extrêmement complexe. Par ailleurs les utilisateurs qui subissent les performances souhaitent forcément en avoir de meilleures. Ils ont une vue perçue de la qualité de service qui dépend surtout de leurs multiples usages. Pour résumer, la performance est compliquée à mesurer à la fois pour des raisons d’architecture, mais aussi car les mesures de performances globales ne permettent plus de déduire celle d’un utilisateur donné, pour ses propres usages. Dans ce contexte, quel est l’apport de l’APM ? Premièrement, l’APM permet d’objectiver la performance entre la perception de la qualité de service de l’usage d’un individu en train de réaliser une transaction quelque part dans le monde, par rapport à la réalité concrète de la mesure de performance. Autrement dit, la performance instantanée du système peut être excellente et parfaitement en phase avec les conventions de François Darphin — Performance utilisateurs : pourquoi est-ce un sujet d’actualité ? 24 mars 2014 —
  • 61. 61 service, alors même que les utilisateurs en ont une appréciation modeste. L’objectivation de cette mesure permet d’ouvrir une discussion entre l’utilisateur final et les pourvoyeurs des in- frastructures pour s’assurer qu’ils sont bien alignés. Deuxièmement, l’APM permet de suivre ces mesures en temps réel. Des tableaux de bord retranscrivent en continu l’évolution de cette mesure pour suivre la tendance qu’elle soit positive ou négative. Ainsi les outils d’APM vont permettre dans un mode actif, notamment en cas des difficultés, de récolter énormément d’informations sur ce qu’il se passe. Troisièmement, des outils permettent de savoir s’il s’agit du serveur, de la base de données, de la transaction faite par l’uti- lisateur ou du terminal qui pose problème. Quatrièmement, ces outils permettent d’instrumenter les escalades quand vraiment plus rien ne va dans l’infrastruc- ture. Une cellule de crise est montée et les outils d’APM abondent alors d’informations pour savoir comment résoudre les problèmes. L’APM : comment cela se met en œuvre ? Il faut trois conditions pour mettre en œuvre une solution d’APM. Avant tout, des compétences. Dans notre monde technolo- gique, il nous faut compter sur des experts qui comprennent ces technologies et qui savent mettre en œuvre les outils. Ensuite, des outils de mesure, des injecteurs, des sondes, des simulateurs de protocole. On trouve également des outils qui réalisent de la mesure de consommation de ressources sur les réseaux, sur les serveurs, sur les postes de travail, autrement dit de la métrologie. Puis enfin, on trouve des outils en charge de la consommation de cet ensemble de ressources, c’est ce qu’on appelle du Capacity Planning. C’est particulièrement vrai dans les Clouds dans lesquels on souhaite avoir une infrastructure
  • 62. 62 scalable, et où, en fonction de la performance que l’on veut obtenir pour l’utilisateur, on va mettre en ligne plus ou moins d’énergie informatique. A-t-on une préférence pour certaines solutions ? Oui, une préférence pour celles qui sont faciles à mettre en œuvre afin de limiter les effets de compétence et celles qui ont un large spectre de couverture des protocoles et des outils. Par exemple, pour traiter simultanément du HTML ou du Citrix, il faut être capable de prendre en compte ces deux protocoles. Et pour traiter du SAP, il faut être en mesure de bien connaître les applications spécifiques, mais aussi les applications en Cobol. À ne pas négliger, le niveau d’analyse qui nous permet de donner des préconisations d’optimisation à la fois rapides et pertinentes. Pour conclure, Dynatrace de Compuware est l’outil qui répond le mieux au besoin de performance, notamment avec ses outils d’injection Gomez ou Dcrum. ***
  • 63. 63 Première partie La mise en place d’une plateforme eCommerce n’est pas qu’une « simple » affaire IT. La stratégie business prime. Il est nécessaire de se poser, bien en amont, une série de questions de fond qui touchent autant à la stratégie business qu’aux métiers. Après, seulement, viennent les problématiques IT. Olivier Ravel, Digital Pratice Manager chez Gfi Informatique donne ses conseils clés. Remodeler sa stratégie commerciale Commencez par vous interroger sur votre modèle de business et sur vos objectifs notamment en termes de chiffre d’affaires. Dans ¾ des cas, je me suis aperçu que les experts métiers se posent la question du CA trop tard ! La plateforme ne sera pas la solution à tout, et il ne faut pas hésiter à profiter d’un projet de refonte pour remodeler la stratégie commerciale. Le modèle économique de l’entreprise sera peut-être différent surleweb:lasupplychain,leCRMetlanotiondemarketplace seront des points importants qui détermineront les solutions à choisir. De même, le changement des usages de consomma- teurs façonnera le modèle économique de distribution. Cette phase amont est l’occasion d’une réflexion sur les moyens d’augmenter le CA online (politique commerciale spécifique, affiliation, déploiement géographique plus important…). Votre business model sera aussi fonction du type d’enseigne. J’ai eu à traiter du cas des franchises : comment faire en sorte Olivier Ravel — Les conseils clés pour préparer le lancement de votre plateforme eCommerce : d’abord, la stratégie business ! 31 mars 2014 —
  • 64. 64 que le canal digital n’entre pas en concurrence avec le réseau mais soit au contraire un outil de plus pour les membres ? Le modèle de cofinancement peut permettre de rémunérer les franchisés sur un pourcentage des ventes eCommerce, et le « clic and collect » (génération de leads) pourra aussi bénéficier aux franchisés. Tout cela aura bien évidemment un impact sur la stratégie plateforme et sur les choix métiers et IT. Placer le client au centre Il faut ensuite prendre en compte LE grand driver du moment : le multiplexage des canaux. Site web, centre d’appel, réseaux sociaux, mobile, point de vente… on doit casser la notion encore trop courante de « silo » isolés les uns des autres, mixer les informations en provenance de ces différents canaux pour placer le client au cœur du système de vente, et bâtir ce dernier autour d’une base CRM//Client. Choisir la solution plateforme adaptée Enfin, vient le choix du type de solutions : «  make  » or « buy » ? Plateforme en développement spécifique ou solution du marché (ERP Commerce) ? J’aurais tendance à privilégier l’option « buy » car les solutions ERP Commerce ont rattrapé ce qui se fait de mieux en spécifique, en tout cas pour les pure players. L’option « make », développement spécifique, conviendra pour des systèmes très complexes avec un historique important, les services financiers ou la banque, les telcos… Il existe plusieurs stratégies «  buy  », de l’acquisition d’une solution d’un éditeur ERP, qui a un coût mais se justifie en fonction de l’ambition de croissance, au pay per use en mode Saas. Le choix, là aussi, dépendra du modèle économique.
  • 65. 65 N’oubliez pas de faire intervenir les métiers dès ces phases de choix liées au modèle, et la DSI lors du choix de plateforme. ***
  • 66. 66 Deuxième partie Dans la mise en place d’une plateforme eCommerce, après la phase stratégique (lire « Bien penser sa stratégie business en amont ») où le modèle économique et la stratégie commerciale online sont (re)modelés, vient la phase métier. Attention toutefois : les métiers devront être impliqués très tôt, dès la définition de la stratégie. Olivier Ravel, Digital Pratice Manager Chez Gfi Informatique avance quelques conseils essentiels. 1 – Faire intervenir les métiers dans les bons processus et aux bons moments Les métiers, que ce soit les ventes, le marketing, la production, la supply chain… devront être impliqués dès la phase de définition de la stratégie de mise en place d’une plateforme eCommerce qui peut bouleverser ces organisations du fait d’un accroissement de l’activité. La question du chiffre d’affaires online cible avec leviers de croissance doit ainsi être posée avec l’implication des métiers. L’autre question des moyens organisationnels et marketing en rapport avec les objectifs de croissance nécessite très tôt, également, leur intervention. Ainsi le modèle de distribution les concerne directement avec la notion de « cross-canalité », de même que le modèle de promotion (comment envoyer le client en magasin avec des bons d’achat sur le Net, par exemple, ou quel modèle promotionnel généralisable ou au contraire spécifique au online). Idem pour le pricing des produits. 31 mars 2014 — Olivier Ravel — Les conseils clés pour préparer le lancement de votre plateforme eCommerce : les métiers, c’est très tôt que vous devez les impliquer
  • 67. 67 Dès le départ je recommande que les équipes métiers se concentrent sur les pratiques commerciales qui rapportent le plus (ROI important) afin de pouvoir gérer les contraintes de Time To Market au moment de la construction de la solution et focaliser les efforts de mise en œuvre. 2 – Le cas particulier de l’international L’international, qui nécessite une approche globale, met parti- culièrement en lumière le rôle clé des métiers. Ce n’est pas au moment du projet (plateforme et IT) que l’on doit y penser, mais bien avant ! À partir d’une production centrale, le modèle de vente peut être différent selon les pays. Les métiers doivent essayer de rassembler le maximum de fonctions dans un « core model » afin, ensuite, de le déployer pays par pays. Ils vont définir les processus qui peuvent être regroupés et répétés : un catalogue central décliné ? Ou un catalogue différent par pays ? Modèles de distribution, de paiement, de livraison, de pricing et de promotion : tout cela impacte les acteurs côté métiers mais aussi les opérateurs. Avec, pour certains pays ou certains services, des conditions très spécifiques : je connais bien la distribution en Chine par exemple, qui présente des particu- larités sur le plan légal, et j’ai eu affaire à des services de vente en ligne devant adapter leur modèle de paiement aux pays et à leur monnaie… ***
  • 68. 68 Troisième partie Héritage technique, testing, design, hérbergement…. Dans la mise en place d’une plateforme eCommerce, la phase IT intervient théoriquement après les phases stratégiques et métiers (lire « Bien penser sa stratégie business en amont » et « Impliquer les métiers très tôt ») quand le modèle de CA online et les différents modèles de distribution ont été élaborés, et la plateforme ERP choisie. Mais la DSI a aussi un rôle en amont en lien avec la DG et les métiers : formation, intégration des équipes, etc. Le tout avec une bonne maîtrise d’œuvre ensemblière. Olivier Ravel, Digital Pratice Manager Chez Gfi Informatique résume ici les conseils à suivre. 1 – Bien conseiller la DG dans le choix de la plateforme ERP La DSI va intervenir en amont lors du choix stratégique du type de plateforme ERP. La tendance du marché est à la migration vers les ERP commerce, les solutions dites « buy » par opposition aux solutions spécifiques qui offrent un Go To Market plus rapide et industriel. Le choix se fera en dialogue entre la DG et la DSI, en fonction du modèle économique de l’entreprise : entre l’acquisition d’une solution éditeur, une solution prête à l’emploi plugée ou une solution à la transaction (pay per use) en mode SaaS. 2 – Bien gérer le « legacy » Il est rare qu’une entreprise fasse totalement table rase du passé. Dans la phase IT, on se heurte alors d’abord à des 31 mars 2014 — Olivier Ravel — Les conseils clés pour préparer le lancement de votre plateforme eCommerce : les « IT » à la fin ? Pas tout à fait.
  • 69. 69 problèmes liés au «  Legacy  », c’est-à-dire à l’héritage des solutions techniques adoptées par le passé. En effet, le système eCommerce repose forcément sur ce « legacy » : ERP, back office, chaine de supply… J’insiste : le problème de l’inter- façage du Legacy avec le nouveau SI Commerce sera crucial, les impacts sur ce dernier, de même que la localisation des référentiels seront décisifs et devront être anticipés. 3 – Testing et hébergement : former en amont De même, les équipes de tests et métiers devront être formées en amont à la solution afin de pouvoir dérouler les opérations de recette dans de bonnes conditions. L’hébergement devra aussi être anticipé avec un prestataire maîtrisant la solution qui impose en général des spécificités en termes d’exploitation et niveaux de SLA. 4 – Maîtriser l’ensemble du projet Enfin, au moment de la mise en place de la plateforme, j’estime que nous ne sommes pas dans une logique d’inté- gration d’une solution eCommerce. A l’inverse, ce sont les nombreux et différents intervenants, comme par exemple l’agence de design, qui devront être intégrés en amont et bien connaître la solution avant la phase technique, il est préférable que les équipes agence et IT puissent fonctionner de manière intégrée afin d’accélérer les opérations. ***
  • 70. 70 Pourquoi est-il préférable pour une entreprise française de privilégier des solutions de supervision de sécurité de SI « made in France » ? Les principales solutions sont américaines. Suite à l’affaire Prism et aux révélations autour des écoutes de la NSA, on sait que nos données circulent jusqu’aux Etats-Unis. En France, le niveau de sécurité a été relevé et certaines entreprises et institutions se voient imposées de mettre en place des moyens de protection supplémentaires. Au regard de ces différents points, il est effectivement pertinent d’opter pour une solution française. La plupart des solutions sont américaines. Existe-t-il des solutions françaises ? Il existe très peu de solutions françaises sur ce marché. Néanmois, il en existe une, VigieSI développée par Gfi Informatique. VigieSI est un logiciel de SIEM (Security Information and Event Management). Il gère de manière globale la sécurité du Système d’Information. A la fois décisionnel et opérationnel, il s’adresse aux DSI, RSSI et SOC (Centres Opérationnels de Sécurité). Véritable tour de contrôle, VigieSI est au cœur de l’organisation de la sécurité de l’entreprise. VigieSI permet de surveiller les activités du SI, de détecter en temps réel les attaques et de réduire ainsi le niveau de risque associé au Système d’Information. Mathieu Bertrand — Supervision de la sécurité de votre SI : pourquoi privilégier une solution « made in France » ? 2 avril 2014 —
  • 71. 71 Pour conclure, donnez-nous deux bonnes raisons pour qu’un RSSI s’intéresse à l’offre VigieSI développée par Gfi Informatique ? Tout d’abord VigieSI est un logiciel dont les développements sont maîtrisés par notre Groupe Gfi Informatique. Ensuite, à la différence du SIEM traditionnel, il fournit une capacité à réagir aux incidents informatiques. Cette réaction se fait à travers l’ajout de modules complémentaires développés par un de nos partenaires. ***
  • 72. 72 Le « Product Lifecycle Management » sert à piloter le cycle de vie d’un produit. Enjeu majeur, un projet PLM doit faire l’objet d’un cadrage réussi : stratégiquement, mais aussi en termes de métiers, qu’est-ce que cela va apporter à l’entreprise ? Les conseils d’Yves Salahun, consultant Gfi Informatique, pour réussir cette étape indispensable au succès d’un PLM. PLM : un enjeu majeur pour la compétitivité Le PLM est une initiative à la fois technique et stratégique visant à optimiser la gestion de l’ensemble des informations et des données créées puis modifiées tout au long de la vie d’un produit, depuis l’idée jusqu’à l’obsolescence. À la clé  : innovation, amélioration de la rentabilité, transfor- mation des processus de travail, etc. Un atout dans un contexte économique de plus en plus compétitif, ouvert et interconnecté. Avant de mettre en œuvre un PLM, qui s’appuiera ensuite sur un Système d’Information constitué de progiciels du marché ou d’applications existantes, il faut une phase de cadrage. Il s’agit d’une étude permettant de définir ce que pourrait être un projet PLM adapté et surtout ce qu’il apportera à l’entreprise. Quels processus ? Pourquoi ? Avec qui ? Combien va rapporter une meilleure intégration ? Les entreprises ont besoin de répondre à ces questions avant de se lancer. Comment les aider ? Apporter de la valeur métier Premier point : je recommande de focaliser le cadrage sur les enjeux métiers. Le PLM est une réponse globale et or- ganisationnelle à des attentes métiers : productivité, gestion Yves Salahun — PLM : si c’est bien cadré, c’est bien joué ! 7 avril 2014 —
  • 73. 73 et traçabilité des données, nouveaux process à déployer… Pour réussir un cadrage, il nous faut donc, en tant que conseil, partager avec l’entreprise les bonnes pratiques et la connaissance acquise lors de nos multiples expériences. Par exemple la gestion de configuration dans l’aéronautique, la gestion de la diversité dans l’automobile, la traçabilité dans le génie logiciel pour ne citer qu’eux. Proposer une démarche de cadrage PLM lisible Ensuite, dans tous les projets que j’ai menés, j’ai pu voir à quel point la démarche de cadrage doit permettre à l’entreprise d’exprimer et de valoriser ses intentions. Méthode, partage de contributions réciproques, prise en compte des enjeux stratégiques à atteindre… les étapes doivent être claires et compréhensibles, tout doit être lisible ! J’essaye aussi chaque fois d’aider l’entreprise à s’approprier la situation, à définir la cible, à valoriser les différents scénarios. Et ce, grâce à une palette de méthodes dites « PLM Roadmap » ou « schéma directeur PLM ». Partager nos convictions pour faire progresser Enfin, la confiance est essentielle. En tant que conseil, il nous faut afficher notre conviction et nos valeurs afin de mobiliser les équipes de l’entreprise autour d’un projet de transforma- tion commun. Les processus d’un PLM étant par définition transverses aux filières métiers, leur définition et leur mise en œuvre requièrent une vigilance particulière pour expliquer aux opérationnels et à leurs managers les bénéfices, les impacts, ce qui va changer. On le voit donc, bien cadrer c’est communiquer, mobiliser, motiver et guider ! ***
  • 74. 74 On entend beaucoup parler de collaboratif au sein des entreprises, mais cela marche-t-il dans la réalité ? Aujourd’hui le collaboratif fonctionne bien à condition de respecter certaines règles. Il est en effet nécessaire que les outils soient parfaitement intégrés au poste de travail pour que l’utilisateur puisse en tirer les bénéfices. Cela passe par des « Digital Workplace » qui favorisent le travail en équipe autour de ce que l’on appelle « l’entreprise des savoirs ». Quels sont les éléments qui composent une Digital Workplace ? Certains clients ont une approche de communication « top down  » typiquement orientée «  gestion de contenus  ». D’autres clients ont une approche davantage collaborative au travers d’espaces documentaires, d’autres encore font le choix d’une offre orientée réseau social d’entreprise. Le concept d’une Digital Workplace permet d’offrir à votre intranaute un espace dans lequel il peut accéder à un certain nombre d’éléments, à savoir la gestion de contenu «  top down », l’outil de réseau social de l’entreprise, les outils de travail collaboratifs, les applications métier… Au sein d’une Digital Workplace, les accès à ces outils sont ouverts en fonction du profil de l’utilisateur. Une Digitale Workplace, c’est compliqué à mettre en œuvre ? Non,cen’estpascompliqué.Dansunmarchéarrivéàmaturité, quelques grands leaders ont émergé. Gfi Informatique a fait le choix de travailler avec Liferay pour déployer des solutions collaboratives Digital Workplace. Les cycles de mise en place Olivier Ravel — Pourquoi faut-il penser collaboratif au sein d’une Digitale Workplace ? 14 avril 2014 —
  • 75. 75 sont extrêmement rapides, car cette solution couvre une très large palette des besoins de l’entreprise. ***
  • 76. 76 Nos clients sont aujourd’hui très sollicités par les éditeurs pour migrer leur plateforme BI. Pourquoi devraient-ils engager une migration lorsque la solution en place convient parfaitement ? Effectivement les éditeurs mettent actuellement une certaine pression sur nos clients pour migrer. Certes il y a un intérêt financier plus qu’évident pour les éditeurs, mais on oublie souvent qu’il existe aussi dans cette démarche de migration de véritables bénéfices pour les utilisateurs. Un système BI doit avant tout être considéré comme un système vivant qui ne cesse d’évoluer, tant sur le plan des outils et des fonctionnalités que des usages. Côté outils, les éditeurs proposent actuellement des outils de Rapid BI et de mobilité de nouvelle génération. Côté usages, une migration permet de répondre à l’émergence de nouveaux métiers et des besoins d’analyses de données encore plus approfondies. D’accord, mais pour autant faut-il obligatoirement migrer ? Certains de nos clients prennent le risque de ne pas migrer pour des raisons principalement économiques. Ils mettent fin à leur contrat de maintenance et économisent le coût de la maintenance qui représente entre 22 et 25 % du prix d’achat des licences. Le gain semble évident, mais il s’agit d’un calcul à très court terme. Y a-t-il un risque à ne pas migrer ? Oui bien évidemment. Je confirme qu’il y a des risques à ne pas migrer. Lorsque nos clients arrêtent le support de Emmanuel Péant — Je suis satisfait par ma plateforme BI. Pourquoi migrer ? 17 avril 2014 —
  • 77. 77 maintenance, ils perdent la possibilité de faire évoluer leur plateforme avec les nouvelles versions des outils des éditeurs. Ne pas migrer, c’est se priver de toutes les évolutions en termes de technologies, d’usages, de fonctionnalités et de nombreux avantages. Ne pas migrer, est-ce un bon calcul ? A court terme, oui. Le gain financier est rapide. En revanche à moyen et long terme, c’est un mauvais calcul. Nos clients seront à un moment donné dans l’obligation de faire évoluer leur plateforme BI. Le fait d’avoir repoussé la migration va inévitablement engendrer un surcoût à l’ensemble du projet de migration. Un surcoût technique parce qu’il va falloir faire l’acquisition de nouveaux outils. Mais surtout un surcoût fonctionnel parce que la plateforme cible a évolué : nous aurons une complexité fonctionnelle plus importante à gérer au moment de la migration. Au final, quelle serait votre recommandation ? C’est de maîtriser et de planifier régulièrement les migrations des plateformes BI. Cela permet de bénéficier pleinement des avancées technologiques et des nouveaux usages, tout en maîtrisant les coûts de migration. ***
  • 78. 78 Sous quel angle faut-il aborder un projet Big Data ? sous l’angle techno ou enjeux métier ? On observe que les entreprises françaises ont essentiellement abordé le Big Data sous l’angle technologique, parce que bien souvent elles avaient du mal à produire les « business cases » permettant de convaincre leur hiérarchie et leurs acteurs métier, alors qu’il est impératif de l’aborder sous l’angle métier et ce de façon itérative et non équivoque ! Ceux qui ont pu avancer de façon concrète sont répartis en deux segments : • Les acteurs du eCommerce ou des télécoms. D’évidence ils travaillent les problématiques de Big Data sous l’angle de la donnée, parce que c’est leur cœur de métier. • La fonction marketing qui s’attache depuis longtemps à analyser le comportement des utilisateurs dans un contexte où le monde se digitalise à grand pas. De façon plus discrète certaines industries et acteurs du ren- seignement ont rapidement adopté ces nouvelles technologies comme seul point de salut du fait de leurs contraintes volumétrie/coût/contraintes légales. L’angle technologique serait-il plus accessible ? Il est vrai que l’angle technologique a vécu deux moments forts. Le premier avec l’avènement du Big Data en France, il y a peu près trois ans. Les solutions restaient encore payantes : on avait des solutions type «  appliance  » qui promettaient de stocker l’information avec de l’analytique embarquée pour traiter les comportements utilisateurs. Il fallait donc débourser de l’argent. Le marché français n’a pas trop décollé. Alvin Ramgobeen — Comment faut-il aborder un projet Big Data ? 28 avril 2014 —
  • 79. 79 Aujourd’hui, avec la maturité des offres Open Source comme Hadoop, les gens s’essayent à travailler sur des sujets Big Data parce que cela leur demande beaucoup moins d’inves- tissement. Il leur suffit de télécharger la solution et peuvent avec l’aide d’un accompagnement minime, commencer à s’approprier les technologies Big Data. Peut-on faire autrement ? Oui tout à fait. Dans cette problématique de «  comment initier un projet Big Data », on parle des enjeux métier, des « business cases », de la technologie Open Source notamment, et on en oublie le maître mot qui est la Data. Plus on rapproche le métier de la Data avec des prestations de conseil qui mettent en avant l’analyse des données de l’entreprise, à l’aide des solutions qui tournent sur les PC de nos consultants, plus on met en lumière les tenants et les aboutissant de ce qui se trame dans l’entreprise, à savoir les proportions, les comportements utilisateurs, les meilleurs clients, l’hyper segmentation… Au final les métiers réalisent combien l’aspect quantitatif peut avoir un impact fort sur la compréhension de leur activité et agir pour transformer le quantitatif en levier d’action. Dès lors, un prototypage et une réflexion sur le bon niveau tech- nologique se mettent en place pour porter dans l’entreprise le levier d’action sur un sujet de Big Data, pour monétiser ou optimiser une chaîne de production par exemple. ***
  • 80. 80 Pourquoi faut-il travailler avec les métiers pour concevoir les référentiels de tests ? De par notre expérience sur les métiers de qualification des SI, nous constatons que les phases de qualification peuvent peser jusqu’à 30 % des charges d’un projet, ce qui est relativement important. Cela a un impact sur les coûts de réalisation de ces projets, mais également sur les délais. Pour optimiser ces phases, tant d’un point de vue coûts que d’un point de vue délais, nous préconisons d’aller à la rencontre des métiers pour définir et réaliser avec eux ce « juste test ». Quelle approche préconisez-vous ? Nous préconisons une double, « Top-down » et « Bottom-up ». Il s’agit de concilier ces deux approches en travaillant d’abord avec les métiers pour modéliser le comportement attendu de l’application, d’un point de vue des processus métier et des scénarios fonctionnels. Une fois la modélisation définie avec les métiers, nous intervenons ensuite en chambre pour monter les référentiels de test sur la base de ces modélisations. Puis très rapidement nous concilions l’approche bottom-up au travers de laquelle nous définissons toutes les exigences et autres règles nécessaires (métiers, techniques...) et nous rapprochons les deux approches de manière à uniformiser les référentiels de test. Comment Gfi Informatique se positionne sur cette question ? Gfi Informatique a développé il y a trois ans QSITM , une offre dédiée à cette approche. Elle permet au travers de templates Franck Colette — Tous les tests ne sont pas utiles. Pour viser juste, pensez métier ! 5 mai 2014 —
  • 81. 81 types, de modèles de documents ; mais aussi d’outillages, d’exprimer cette modélisation du comportement attendu de l’application et ensuite de retravailler en chambre avec un autre outillage qui lui va permettre de faire de la génération, en partie manuelle, en partie automatique, de ces référentiels de test, avec toujours pour philosophie d’aller chercher le « juste test ». ***
  • 82. 82 En quoi un projet d’intégration PLM est-il différent d’un projet d’intégration traditionnel ? Un projet d’intégration PLM, c’est avant tout un projet d’in- tégration d’un progiciel de PLM. Les progiciels PLM que nous intégrons ne sont pas forcément riches en processus métiers pré-câblés, à la différence d’un ERP ou d’un logiciel de comptabilité qui eux sont très matures sur ces sujets métier. Il existe cependant des processus solutions pré-câblés dans les progiciels actuels de PLM, mais parfois trop éloignés des besoins de nos clients. D’où l’importance de mettre en place une phase de cadrage pour bien formaliser les besoins du client et de converger vers les fonctions solutions du progiciel. Quels sont les facteurs clés de succès d’un projet PLM ? De notre point de vue, il y en a cinq. Le premier est essentiel. Le projet PLM nécessite d’être piloté par les enjeux métier de l’entreprise, avec une gouvernance forte et une capacité à décider. Le deuxième facteur concerne la phase de définition. C’est la première grande phase clé du projet qui consiste à faire converger les besoins métier en les challengeant par rapport aux capacités de la solution. Le troisième réside dans les choix structurés de solutions qui doivent absolument être validés par l’éditeur. Quatrième facteur : la traçabilité des exigences doit garantir l’acceptation par le métier de la solution en fin de projet. Dominique Hell — Intégration d’un PLM : quels sont les chantiers à mettre en place pour réussir un projet PLM ? 6 mai 2014 —
  • 83. 83 Enfin la conduite du changement est d’une extrême importance. Elle doit commencer dès le début du projet. Elle concerne à la fois les acteurs métier, mais aussi les acteurs maîtrise d’œuvre chez notre client. Comment se structure un projet PLM ? Sur deux axes. Le premier avec les grandes phases classiques de définition, réalisation, vérification, validation et déploiement. Puis sur un second axe, le projet PLM se structure avec les différents chantiers à adresser dans un projet, le cœur de la solution et ses interfaces, la migration des données (un sous-projet délicat), la conduite du changement et l’architec- ture technique. Cette structuration peut varier d’un client à l’autre en fonction de ses exigences ou des activités qu’il veut conserver dans son périmètre. Enfinnotreméthodologie,baséesuruncycleenVtraditionnel, évolue constamment. Nous y intégrons régulièrement des concepts issus de l’agilité, comme le pilotage visuel, des itérations courtes ou de la validation et de la vérification en continu. Et l’industrialisation ? La cellule Service Ingénierie PLM de Gfi Informatique développe et déploie depuis longtemps des méthodes outillées sur un certain nombre de sujets, en particulier sur l’intégration continue. Cela permet sur un projet d’intégration de vérifier la qualité du code produit et de régénérer, par exemple toutes les nuits, la solution complète sur tel ou tel environnement. ***
  • 84. 84 Le TIP disparaît le 1er février 2016. Pour quelles raisons ? C’est la règlementation SEPA qui en est la cause. Au 1er février 2016, les moyens de paiement propres à chaque pays doivent disparaître. Selon les statistiques de la Banque de France, nous traitons 140 millions de titres interbancaires de paiement par an. Cela représente un volume considérable qui nécessite au préalable un temps de préparation pour remplacer les TIP. Qu’est-il prévu pour le remplacer ? Dans le cadre de SEPA, rien de suffisamment performant n’est prévu, laissant l’initiative du paiement aux particuliers. Les banques françaises se sont alors engagées dans une réflexion permettant de mettre en œuvre une nouvelle norme d’échange appelée SEPAMAIL. Celle-ci permet de transférer la facture du particulier vers sa banque, afin de lui donner la responsabilité de la validation en ligne. Cette opération, une fois validée, permet de générer un virement qui lui, sera en conformité avec la réglementation SEPA. Quels conseils donneriez-vous à nos clients qui souhaitent mettre en œuvre une telle solution ? En premier lieu, ne pas perdre de temps. La montée en charge pour les 140 millions de transactions nécessite un délai relativement long que l’on estime entre 6 mois et 1 an, réduisant de fait le temps de projet nécessaire à la mise en œuvre de la solution. Il reste un certain nombre de travaux à réaliser avant cette «  end date  » du 1er février 2016. Gfi Informatique est en mesure d’accompagner ses clients Grands Remettants de Bertrand de Lausun — Comment va-t-on remplacer les TIP ? 9 mai 2014 —
  • 85. 85 moyens de paiement dans la mise en œuvre de cette nouvelle solution qui permet à la fois la dématérialisation des factures et la modification des moyens de paiement afférents. ***
  • 86. 86 Le décret GBCP fait référence aux autorisations d’engagement et de crédit de paiement. Que représentent ces notions d’AE et de CP ? Avec ce décret, les établissements publics vont devoir élaborer trois budgets : un en AE, un en CP et un en recette. Les AE représentent la limite supérieure des engagements juridiques que peut prendre l’établissement sur un exercice. Les CP représentent la limite supérieure des décaissements réalisables dans l’exercice. Et les prévisions de recette cor- respondent aux montants prévisionnels des encaissements attendus dans l’exercice. Quel est l’intérêt du double budget en AE et CP ? Actuellement, les dépenses engagées doivent l’être au regard des crédits votés de l’exercice, ce qui pose notamment des problèmes en fin d’année. Le décret lui, prévoit la budgéti- sation en AE, ce qui élimine tous ces problèmes et permet d’avoir une réelle démarche de pilotage pluriannuelle. Les CP sont établis non pas au regard des ordonnancements, mais des paiements à réaliser. Quant aux prévisions de recettes, elles sont établies en lien avec les encaissements escomptés et rapprochées des titres émis. Plus globalement quels sont les impacts du décret sur l’exécution budgétaire ? L’engagement actuel disparait. C’est maintenant l’engagement juridique qui, de fait, est pluriannuel et qui consomme l’AE dans son exercice d’émission. La comptabilité budgétaire ne Éric Depreuve — GBCP : quel est l’intérêt du double budget en AE et CP ? 12 mai 2014 —
  • 87. 87 supporte plus les mouvements d’ordre tels que les variations de stocks, les amortissements, les charges constatées… Tous ces aspects sont maintenant directement gérés en comptabilité générale. Cela a des conséquences importantes et simplifica- trices sur nos produits, car cela élimine toute la gestion des crédits d’extourne. Le décret maintient la notion de service fait Oui. Depuis quelques années et la mise en place des services facturiers, l’enregistrement du service fait a pris une part pré- pondérante dans la chaîne de la dépense. Le décret renforce encore cette place en lui ajoutant l’obligation de générer l’écriture comptable pour respecter la norme comptable. De ce point de vue, le décret va permettre de mieux anticiper le suivi des charges à payer, des produits à recevoir et va simplifier la clôture des travaux en fin d’année. Et qu’en est-il de la dématérialisation ? Le décret apporte de considérables avancées dans ce domaine. Il élimine la production et l’édition des mandats et bordereaux. Il favorise l’échange et l’envoi de documents élec- troniques, qu’ils soient scannés ou natifs, et prévoit également la production dématérialisée du compte financier. ***