Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent
Upcoming SlideShare
Loading in...5
×
 

Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent

on

  • 2,657 views

Pour les ingénieurs, informaticiens avancés ou simplement geeks en informatique, voici un mémoire de MBA pour vous apprendre que je ne fais pas que du PPC dans la vie ;) Le web sémantique est pour ...

Pour les ingénieurs, informaticiens avancés ou simplement geeks en informatique, voici un mémoire de MBA pour vous apprendre que je ne fais pas que du PPC dans la vie ;) Le web sémantique est pour moi l'avenir!

Statistics

Views

Total Views
2,657
Views on SlideShare
2,652
Embed Views
5

Actions

Likes
0
Downloads
47
Comments
0

2 Embeds 5

http://pinterest.com 4
http://www.pearltrees.com 1

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent Web 3_0 - l'évolution vers le web sémantique: l'internet intelligent Document Transcript

  • MBA affaires électroniques Johann Lovato Matricule de dossier 08 125 684 SIO-66087 : Entreprise digitale Rapport de session automne 2008 :Web 3.0 ou lévolution vers un réseau Internet intelligent Page 1
  • SommaireIntroduction…..………..……………………………………………………………………...3I. Web sémantique…………………………………………………………………………….4A. Un langage propre : OWL………………………………………………………………………..…4B. Une nouvelle structure d’entreprise : l’architecture orientée service............................6C. Les nouvelles applications concrètes pour les processus d’affaires……………………..….9II. WEB 3.0: évolution vers l’intelligence des réseaux………………………………………...12A. Les outils de raisonnement conçus pour les ontologies……………………..…………..…..13B. Les systèmes multi-agents………………………………………..…………….……….…...20C. RFID: la voie royale vers une traçabilité absolue................................................................. 24D. L’informatique omniprésente change les mentalités………………………………..............30III. Limites et perspectives d’un Internet en pleine mutation……………………………………….33A. L’intégration et fusion des modèles conceptuels.................................................................... 33B. Le traitement des données incertaines: un chantier à long terme.......................................... 35C. E-gouvernement: un enjeu international…………….……………………………………... 38Conclusion…............................................................................................................................... 41Bibliographie et Webographie..................................................................................................... 42 Page 2
  • Introduction L’évolution de l’internet s’est réalisée de manière très rapide depuis 2001 et a marqué unenouvelle étape avec l’émergence du WEB 2.0, un internet participatif qui a changéprofondément la structure du commerce électronique et s’axe beaucoup plus sur laparticipation commune, la collaboration entre partenaires, avec l’expansion actuelle deslogiciels libres qui vont accroître davantage cette ouverture du monde des affairesélectroniques.Nous étudierons tout d’abord un concept qui, bien que présenté dès 1993 par Tim Bernes Lee,n’a commencé à être sérieusement appliqué que depuis 2003-2004 : le web sémantique. Nousverrons comment ce réseau donne une vision plus globale de l’internet et contribue à construireun Internet qui a du sens, une structure autonome et à donner cette intelligence, flexibilité,rapidité à la gestion de la connaissance. Nous verrons ensuite les répercussions sur larestructuration et réingénierie des systèmes d’information et des architectures d’entreprise enexpliquant quels sont les nouveaux enjeux, perspectives pour le commerce électronique. Nousnous arrêterons sur une notion de plus en plus présente : l’e-gouvernement.La seconde partie abordera les outils permettant d’exploiter cette approche nouvelle desconnaissances en analysant en profondeur des concepts-clés tels que les ontologies etmodélisation de concepts en montrant leurs implications au niveau des processusd’affaires. Ces principes seront illustrés par les notions dagents intelligents, detechnologies telles que RFID ou Ubiquitous Computing (informatique omniprésente) etmontrerons limpact de ces nouvelles technologies et quelles améliorations concrètes sontescomptées, à exploiter ou à perfectionner.Enfin la dernière partie fera un constat des limites actuelles du web sémantique et des projets àvenir, solutions en études qui sont en chantier pour les prochaines décennies et quel est l’avenirproche d’Internet. La conclusion établira une synthèse des éléments-clés du web sémantique etde leurs débouchés économiques, financiers, politique, individuels. Page 3
  • I – Web sémantiqueLes gestionnaires de l’information et les architectes web n’ont désormais plus qu’unmot à la bouche lorsque l’on aborde le sujet d’Internet : les services web. Or avant d’yparvenir, il a fallu reconstruire une nouvelle perception du réseau et effectuer unemutation d’un système d’information syntaxique vers un système de la connaissance quia abouti au web sémantique. A) Un langage propre : OWLPour comprendre la source de ce basculement, il faut remonter à 1999, lorsqu’à la veilledu nouveau millénaire et des spéculations énormes qui pesaient déjà sur lesinvestissements de la nouvelle technologie de l’Internet par les entreprises, Tim BernersLee, fondateur du World Wide Web en 1990, commença ses travaux et sa réflexion surl’évolution déjà future des réseaux informatiques dans son livre intitulé « Weaving theweb » où il exprimait déjà la notion de « connaissance » et de « sens » propre à cettetechnologie1.Mais le 10 février 1998 fut le départ d’une formidable aventure avec la certification dulangage XML 1.0 aboutissement d’une longue recherche de deux années de MichaelMcQueen, développeur de langages de balises jusqu’alors connu grâce au SGML maisqui posait des soucis de standardisation. Le langage XML était le premier langage àpouvoir structurer le contenu de l’information de manière en éléments simples,complexes, en langage compréhensible par l’individu, tout en ayant un formatadaptable au standard du World Wide Web et un code ouvert à une évolution future deson exploitation2. Le XML obtenait ainsi en 1998 une norme ISO de la part duconsortium W3C fondé par Tim Berners Lee en 1994.Diverses recherches conduisirent ce dernier à définir concrètement un point de départdu Semantic Web sur le fond de recherches d’ingénieurs qui abouti en 1999 à un cadrede description nommé RDF, qui utilisé avec la syntaxe et la définition de schémas XMLallait permettre une vision totalement différente et pionnière d’Internet.Le Resource Definition Framework a constitué le premier cadre vers un modèleconceptuel de données. Il intègre l’énumération des éléments, des attributs et une listeexhaustive des caractéristiques s’y rapportant. Le XML avait un souci de représentationen page web cependant car il structurait le contenu tandis que le langage HTML leprésentait, ce qui a obligé le développement d’un modèle XSL (eXtensible StylesheetLanguage) qui a permis d’intégrer le XML dans les page HTML et de donner naissance aulangage XHTML. De l’utilisation conjointe du XHTML du RDF est né le RDFS ou schéma Page 4
  • RDF qui permet de décrire la structure, le fonctionnement de ces éléments sur Internetet de voir désormais les informations comme une arborescence d’éléments, contenantdes sous-éléments et permettant de regrouper les données en blocs, construire uneinteraction entre ces éléments, définir la manière dont les éléments s’échangeaient del’information sur le réseau.Cependant ce schéma RDF était assez rudimentaire. L’idée de Berners Lee, RolandWagner, et plusieurs membres du W3C était d’apporter une notion temporelle à cemodèle conceptuel de données afin qu’il puisse traiter l’information de manièreautonome, sans interaction humaine et sache prendre en considération l’évolution destermes, des concepts, du sens, de la définition de la sémantique, en permanence. Le butétait de préserver l’intégrité du modèle de manière permanente. Cela nécessitait decréer un langage propre à cette ontologie qui puisse regrouper l’ensemble deséléments, inférences, interactions, classes, sous-classes et devait permettre d’ajouter dusens et maintenir un raisonnement qui permettent de mieux comprendre les activitésnotamment dans les processus d’affaires, en les découpant en objets, hiérarchisés,interagissant entre eux et aboutissant à un mappage des domaines, activités, rubriques,applications, sous-applications des entreprises dans leur commerce électronique.C’est ainsi qu’est apparu en 2001 le Web Ontology Working group. Effectuant desrecherches plus poussée pour exploiter le XML et les schémas RDF, les chercheurs ontabouti au langage OIL (Ontology Inference Layer). Celui-ci s’appuyait sur desdescriptions d’attributs beaucoup plus riches et permettait de définir des domainesparticuliers avec les classes d’objets qui y correspondaient. OIL s’appuyait également surle FaCT3 (Fast Classification of Terminologies) qui permettait de constituer une base deconnaissances sur les différentes hiérarchies de classification et de types de classesd’objets selon les domaines demandés.OIL a permis des applications dans les ressources humaines, où le partage de laconnaissance représente d’énormes quantités d’informations stockées sur les systèmeset a permis de les structurer notamment dans des entreprises comme Enersearch, afinde permettre une meilleur modélisation des connaissances des activités etcommunication des processus d’affaires à ses actionnaires4. De son côté, ledépartement de la défense américaine a travaillé en parallèle depuis 1960 sur sonpropre réseau sémantique et le DARPA (Defense Advanced Research Projects Agency) aétablit son langage propre : le DAML ou DARPA Agent Markup Language.Afin d’harmoniser l’OIL et le DAML, le W3C proposa une syntaxe commune DAML+OIL et quidevint le 10 février 2004 le langage officiel du web sémantique sous une appellation définitive :OWL (Ontology Web Language). Page 5
  • B) Une nouvelle structure d’entreprise : l’Architecture Orientée ServicesLe commerce électronique a très vite compris l’avantage que pouvait procurer l’utilisation duweb sémantique, car jusqu’alors les organisations étaient structurées en divisions, chacuneindépendante, sans aucun lien entre les activités ni interconnexions entre les bases deconnaissances. Les systèmes d’informations se retrouvaient ainsi dupliqués, avec une valeurdégradée, rigide, utilisée uniquement de manière ponctuelle.Le modèle conceptuel de données que proposent les ontologies, sur lesquelles nous nousarrêterons plus en détail dans la partie II, permet d’effectuer une réflexion nouvelle sur lesprocessus d’affaires. En effet, les domaines d’activités sont trop souvent segmentés d’après leurenvironnement d’application et les systèmes connectés point à point entre eux. Ceci provoquesouvent des pertes de bénéfices énormes lorsqu’une défaillance d’un des deux systèmessurvient, car le lien ne peut être remplacé. Pour conséquence, les affaires cessent entre deuxpartenaires d’activités ou deux départements internes de l’organisation car l’ensemble duréseau est paralysé. De même cette structure souvent appelée « legacy system » ou systèmed’héritage, provoquait des multitudes d’intermédiaires entre certaines entités diamétralementopposées sur une structure de plusieurs milliers de systèmes.D’autre part la plupart des systèmes tels que les réseaux bancaires, notamment, du fait de leurcomplexité et programmation en COBOLD parfois même (langage de programmation datant desannées 1970) rendent ces systèmes inopérables avec des systèmes plus actuels et ralentissentvoir empêche d’optimiser la productivité de l’organisation et cela a des répercussions auprèsdes clients, Sears a été un exemple de mauvaise gestion informatique. Ce leader nord-américains dans le commerce de détail a cru bon d’investir 60 millions de dollars dans de trèsnombreux systèmes d’informations, sans se préoccuper d’établir une architecture commune etrationnelle, ce qui l’a fortement handicapé au niveau de la gestion des clients et à revoir sastratégie en fonction des services fournies à ses clients en magasin mais aussi envers sespartenaires de la chaîne logistique5.Autre souci, l’entrée et la suppression d’un système soulevaient le problème d’intégration desapplications d’entreprise dans son architecture globale. Chaque modification avait unerépercussion sur l’ensemble des activités présente sur le réseau et ceci générait de plus dessoucis de compatibilité entre les applications et programmes afin d’échanger des informations. Page 6
  • Exemple d’architecture classique d’entreprises traditionnellesCette architecture archaïque nommée CORBA (Common Object Request Broker Architecture)montrait ainsi ses faiblesses au niveau de sa rapidité de traitement des informations, de sasouplesse à réagir face aux évolutions, changements des besoins des activités d’entreprises.En 2004, des travaux basés sur la programmation orientée objet d’université européennes deMilan,Manchester et de Stanford, du Massachusset Institute of Technology aux États-Unis, ontservi à définir un lien entre le XML et les activités d’affaires pour développer les services web etune architecture d’entreprise nouvelle.Cette architecture permet de regrouper les systèmes d’informations disparates en servicessimplifiés et interconnectés non plus de point à point mais en réseau connecté en toile avecune point de convergence commun permettant l’échange entre n’importe quel services quelquesoient leur programmation d’architecture et avec une parfaite communication entre servicesweb, apportant une flexibilité de connexion et d’interaction entre les processus d’affaires dessociétés.L’architecture orientée services s’articule sur 3 composantes : - UDDI (Universal Description Discovery and Integration): une base de registres contenant les noms des services webs, leurs attributs, ainsi que leur caractéristiques et propriétés (ex : SCM = port 80). Celui-ci enregistre le nom des services chaque fois que de nouveaux apparaissent et les suppriment aisément lorsqu’une entreprise se retire du réseau d’affaires. - WSDL (Web Services Description Language): un langage qui permettent de créer les interactions et échanges entre les services web et décrit de quelle manière chacun d’entre eux se connectent, quelle nature de données transmettre sans en connaître le Page 7
  • contenu exact, à quel partenaire d’activité le service web doit être envoyé, sous quelle forme…. - SOAP (Simple Object Access Protocol): le langage de communication entre les services web. Grâce à un « broker » ou « facilitateur »utilisant le format XML et situé au centre du l’architecture orientée service, SOAP permet l’échange entre les services webs. Les entreprise n’ayant besoin que de programmer un applet qui va transformer les codes de programmations différents de chacun vers le langage commun SOAP qui permettre d’établir la connexion entre deux services à partir d’un réseau en toile commun et une architecture ayant un noyau central gérant les demandes de services des partenaires d’affaires. Exemple d’architecture orientée serviceCette architecture a incité les entreprises actuelles à réfléchir à une meilleure définition de leurstratégie d’affaires, des objectifs à réaliser et des processus d’affaires adaptés à leurs besoins,tout en permettant de garder en place les legacy systems et de les faire fonctionner avec dessystèmes plus récents en offrant cette compatibilité par un même langage commun, le SOAP. Page 8
  • L’un des principaux outil de réingénierie utilisé à dans ce but fut l’UMM (UNCEFACT ModelingMethodology) qui a permis de recréer des processus structurés en services et non plus enapplications, à simplifier les tâches afin de permettre une meilleure correspondance des servicesentre les partenaires d’affaires et de pouvoir définir la manière d’opérer des processus, etfinalement à pouvoir automatiser le traitement des processus selon qu’ils le permettent ou non.Le gros avantage est de pouvoir améliorer la réutilisation des mêmes services pour différentspartenaires qui en font la demande et de pouvoir éliminer à la fois la surmultiplication des basesde données qui contiennent des données similaires afin d’obtenir une souplesse et facilitéd’échange d’information entre les applications logicielles des entreprises. Des standardsd’ingénierie propre à l’architecture orientée services ont été créés comme le BPM4WS 6 etpermettent d’obtenir un même raisonnement de conceptualisation d’éléments de processusd’affaires pour l’ensemble des partenaires d’un même réseau sur Internet.Cette architecture permet d’intégrer de nouveaux services ou d’en supprimer sans occasionnerde perturbations dans le fonctionnement de l’architecture, on y voit souvent une référence auplug-in et plug-out qui illustre cette facilité d’utilisation de l’architecture orientée service et deses services web.Dernier composante importante dans cette réingénierie pour optimiser le fonctionner del’architecture orientée services : le Service Level Agreement.Le S.L.A est un cadre d’interface des services web qui permet de définir la manière dontfonctionnent les processus, les responsabilités affectées à chaque éléments du service utilisé,ainsi que leur portée, et pourvoir une interface commune de travail afin d’harmoniser en unmême langage les différentes équipes d’utilisateurs en s’appuyant sur des règles, standards quidéfinissent un champs d’opérations commun pour tous lors de l’utilisation des services web7. C) Les nouvelles applications concrètes pour les processus d’affairesLà où certaine entreprises y ont vu un simple remodelage de processus, d’autre s’y sontappuyées pour redéfinir leur cœur de métier de base. C’est le cas notamment desréseaux bancaires dont un des exemples les plus réussis est sans doute le réseau Nordeaqui rassemble les 4 banques leader en Scandinavie et se répartit sur plus de 1100 sitesdifférents utilisant près de 30000 collaborateurs8.Les gestionnaires, là où certains y ont vu un projet ambitieux d’investir massivementdans l’équipement pour améliorer la technologie et l’efficacité des systèmed’information présents dans l’entreprise, ceux de Nordea a raisonnée en terme de gainde productivité et de rentabilité en redéfinissant les processus d’affaires du cœur demétier et en organisant les tâches qui pouvaient réduire les charges de l’organisationtout en permettant une efficacité d’action par son automatisation. Page 9
  • Nordea s’est rendue compte qu’une architecture orientée service servait une stratégied’affaires et non une volonté de modernisation des systèmes. L’essentiel des banquesqui ont échoué dans leur investissement technologiques, l’ont fait à tort en pensant àl’aspect technique et matériel au détriment du sens des affaires, à l’apport qu’unenouvelle architecture pouvait apporter à la structure de l’ensemble de l’entreprise.L’Architecture orientée service, si elle a permet à d’anciennes structures d’évoluer, peutpermettre également à des compagnies leaders de surveiller et développer, maintenirleur avantage compétitif au niveau concurrentiel. C’est notamment le cas de la sociétéRLP Technology, basé dans le Michigan aux États-Unis, et qui est leader au niveau dessolutions d’affaires marketing dans le domaine automobile.La compagnie, basé dans plus d’une dizaine de pays à travers le monde tel que le Japon,la France, l’Australie, cherchait à améliorer son système de collecte de l’information,afin de pouvoir proposer des offres de services plus adaptées à ses clients, car le marchédu B2B suggéré d’être extrêmement pointu et en veille permanente et efficace dumarché.L’architecture orientée service y a apporté une solution en permettant de réorganiserles tâches de collectes des données, en optimisant la vitesse d’échanges d’informationsdes systèmes, en définissant des réglementations quant à ces données et rationalisantles coût tout en apportant un support additionnel pour le suivi de l’activité.L’essentielle était de structure les systèmes d’information de manière ordonnée etintelligente afin de faciliter l’accès aux données et de créer des concevoir les servicescomme des blocs d’éléments, des services à part entière et qui éliminaient touteredondance en clarifiant les forages de données et les modes d’accès à l’informationdans l’entreprise.RLP Technology a ainsi pu ouvrir ses services vers les analystes de ses partenairesd’affaires qui pouvait étudier les perspectives par rapport à l’évolution de l’entreprisesur le marché automobile grâce à une interface simplifiée, procurant des outils decréation de données et d’échanges beaucoup plus souples et rapides.L’A.O.S (Architecture Orientée Service) a permis de refondre les activités desproducteurs de pièces en se concentrant sur leurs cœurs d’activités pour créerl’interaction avec les services proposés par RLP. Une plus grande richesse d’informations’est créée sans pour autant se disperser dans les systèmes car la base de connaissancesétait organisée de manière dynamique, en organisant ses données selon les domainesfinanciers, communication, marketing, juridique de RLP, et la conceptualisation des Page 10
  • données permettait ainsi de mieux analyser les cycles, les étapes successifs desprocessus d’affaires entre eux pour mieux anticiper les conséquences de lescommercialisation de produits sur le marché automobile et prévoir l’impact desdécisions et stratégies d’affaires de ses concurrents sur le marché actuel et selon lesperspectives futures.Ce projet baptisé Re-Fuel a été complété par un ESB (Entreprise Service Bus) qui devaitpermettre d’augmenter la capacité de traitement des quelques 2,5 milliardsd’informations que comptait à l’époque les systèmes d’information de RLP, tout enveillant à une définition plus précise des données afin d’assurer une meilleur qualité etintégration de l’information dans les affaires électroniques.Une meilleur gestion globale de l’information a permis à RLP de remplacer ses legacysystem programmé en COBOLD par un réseau internet souple, rapide, efficace,directement connecté à ses partenaires professionnels afin d’augmenter lacollaboration et l’échange pour créer une valeur ajoutée aux avantages compétitifs desservices marketing de RLP Technology. Ajouté à un choix judicieux de la technologieJEMS pour son intégration du langage JAVA dans la programmation de ses systèmes etson intégration dans l’architecture globale, ont contribué à une stratégie gagnantedéfinie par Joe Lafair, responsable du développement de l’architecture web RLP, commeune stratégie 50/50/100 avec 50% de l’activité reposant sur cette solution, permettant50% de rapidité de traitement en plus, aboutissant à 100% de qualité et enrationnalisant les coûts des investissement par rapport à la réduction du traitement desaffaires que permet l’automatisation de processus simples.Autre excellent exemple d’application, celle de la compagnie Swedish Railways. En 2005,constatant de la saturation et manque d’efficacité de ses serveurs actuels et intranets, lasociété a réfléchit avec une société experte en implantation d’architectures orientéesservices à une plateforme permettant d’optimiser sa capacité de traitement de lademande de billets de trains de ses clients et d’une manière de rationnaliser les coûtsde son système, à des fins de rentabilité accrue.Un partenariat avec Ebay a ainsi été mis en place en utilisant l’AOS pour rendre plusaisée l’échange de services entre les deux firmes et être plus réactif quand à la demandespontanée et le flux de clients auquel devait faire face Swedish Railways. Ceci lui apermis, grâce à l’appui d’une infrastructure informatique IBM adaptée, souple, fondéesur Websphere et les logiciels libres ainsi que des postes informatiques et serveurs plusperformants d’augmenter ses ventes de 1500 billets supplémentaires chaque semaine,et donc d’assurer un formidable retour sur investissement et une meilleur satisfactionde sa clientèle9. Page 11
  • Tous ces exemples de réussites sont un élément de motivation pour inciter davantageles entreprises qui cherchent la meilleur optimisation de leurs affaires électroniques etdont l’architecture classique et rigide en place paralyse l’évolution avec les partenairesd’activités et empêchent d’utiliser de manière efficiente l’information de leurs systèmespour coordonner leur tâche, leur échanges de services sur le marché, ce qui accroît lesinvestissements à réaliser afin de se maintenir à jour par rapport à la concurrence etl’essentiel point de départ est toujours une réflexion itérative sur le modèle économiquede l’entreprise, afin de prendre en compte les réels besoins ,les faiblesses du réseauexistant et choisir les solutions les plus adaptées à une souplesse, réactivité, rentabilitédes affaires, chose que permet l’architecture orientée services.II – WEB 3.0 : évolution vers l’intelligence des réseauxL’internet a contribué à une fulgurante amélioration de la conduite des affaires dans ledomaine du commerce-électronique, en s’axant sur le développement d’activités créantune réelle valeur ajoutée apportée par les technologies nouvelles de l’information liéesà Internet.Là où le web 2.0 a recentré la stratégie autour de la collaboration et l’aspect social,participatif des individus pour la création d’information afin d’adapter les produits,services de meilleure manière pour desservir les clients, leur donnant plus de valeur etcherchant par tous les moyens à augmenter l’interaction, l’ergonomie decommunication, d’utilisation, la valeur de leur partenaires d’activité et celle des clients,le web 3.0 lui apporte cette notion supplémentaire d’intelligence.Cette nouvelle approche des affaires prend du recul par rapport aux stratégiesd’affaires, en apportant une réflexion nouvelle sur la conceptualisation de laconnaissance, de l’information et une transparence et homogénéisation de la gestiondes connaissances sur Internet. Nous l’avons vu précédemment, l’architecture réseauest un élément-clé désormais dans une vision d’optimisation du traitement del’information, opérabilité des processus d’affaires et valeur de l’offre de services.Cependant les méthodes et technologies en développement, telles que les ontologiesd’entreprises, agents intelligents, nous offrent une vision d’un réseau autonome etcohérent, ayant du sens et cherchant à créer du sens pour simplifier l’accès, letraitement des informations, des activités et tend à modifier l’ensemble descomportements des individus en impliquant une logique humaine aux applicationsinformatiques et une meilleur coordination du partage des informations. Page 12
  • A) Les outils de raisonnement conçus pour les ontologiesNous l’avons brièvement aperçu précédemment, le web sémantique a contribué à setourner vers le problème du sens de la connaissance et de la manière imparfaite aveclaquelle elle est utilisée.Très tôt et dès le milieu de l’année 2004, le W3C et des équipes telles que l’université deMilan en Italie, ou de Stanford aux Etats-Unis, et groupes d’ingénieurs asiatiques,indiens ont perçu cette limite que représenterait à court ou moyen terme l’utilisation« syntaxique » des données sur le réseau Internet. Cette perception réduisait lespossibilités d’exploitation autonome de l’information et réduisait l’utilisation des basede connaissances à une simple connexion formalisée, prédéfinie et rigide. Ainsi lesontologies ou modèles conceptuels de données sont nés du web sémantique avec sonpropre langage OWL afin de réfléchir à une approche nouvelle de l’utilisation desdonnées et à l’élaboration de significations, de structures ordonnées et inter-opérationnelles et autonome des systèmes afin d’améliorer la qualité des informationset de la pertinence des recherches et du traitement automatisé des données.Concrètement, lorsque de nos jours nous recherchons de l’information sur Google, cequi se passe derrière sur le réseau n’est qu’une combinaison de « wrappers »,« spiders » plus communément appelés robots-araignées de recherches, qui combinés àde très puissant algorithmes d’analyse permet cette rapidité d’accès à l’information.Cependant, aucune analyse ne nous permet de dire si les résultats affichés sontréellement pertinents, car cela dépend souvent des critères choisis pour paramétrer unerecherche. Et les outils utilisés tels que le pagerank (classement de la popularité despages), le référencement HTML, la notoriété des sites internet ne nous indiquenullement quand à la qualité réelle du contenu même des informations que renfermentces sites. Comment définir la réelle pertinence d’un terme lorsque par exemple latomate est considérée pour 236 sites comme légume, alors que pour 4 sites il estdésigné comme un fruit. Est-ce la popularité qui octroie la certitude du sensobligatoirement? La tomate étant considéré comme fruit et légume, cela montre qu’ilest nécessaire de reconceptualiser les connaissances afin de préciser leur sens, leurportée, les éléments intégrés, les attributs et le type d’interaction avec d’autresconnaissances, afin d’homogénéiser la connaissance.Au niveau des entreprise ceci impliquait une refonte totale de leur modèle d’affaires en5 étapes : l’étude de faisabilité, le kick-off, la réitération, l’évaluation et la maintenance. Page 13
  • Méthodologie de conceptualisation des processus d’affaires 10Étude de faisabilitéElle permet de faire le constat des faiblesses de l’entreprise, de la pertinence de sastratégie d’affaires et de l’adéquation de ses processus avec ses besoins actuels etfuturs. Ceci permet ensuite de faire le point sur les possibilités d’intégrer un modèleconceptuel de données au sein de l’organisation avec les ressources disponibles pourvalider le projet.Kick-offIl s’agit de faire une capture de l’information et des connaissances conservées dans lesbases de données et systèmes d’information. Cette étape permet de définir un« squelette » de l’architecture de l’information dans l’entreprise et permet ensuite dedéfinir les activités en domaines d’application, eux-mêmes divisés en sous-domaines,comportant des éléments. Chaque éléments peut comporter des sous-éléments et secomposent obligatoirement d’attributs, de caractéristiques qui définissent sa nature etsa portée, ses propriétés, sa signification. Ce modèle définit également les interactions Page 14
  • qui se produisent entre chaque élément, entre éléments et domaines, entre lesdomaines, etc.….L’ensemble de cette phase se base sur la sémantique des éléments et lescorrespondances de sens des termes, données présentes dans les bases de données,pour définir les processus d’affaires et il est très important de vérifier que chaqueélément est cohérent avec le sens du domaine auquel il appartient. Exemple de conceptualisation des données« Refinement » ou itérationUne fois le modèle défini en détails, il s’agit de vérifier de la validité de chaque élémenten regardant son application et essayant de catégoriser les données de manière plusaffinée encore. Une réflexion est apportée sur la valeur des concepts établis, jusqu’à ceque les éléments soient clairs, compréhensibles et dont l’impact, l’action, les relations etinférences, hiérarchies doivent être correctement précisés. Bien évidemment le travailsera d’autant plus difficile que l’information est riche ou que les domaines touchent àune multitude d’environnement ,de champs sémantiques divers et épars, et la difficultéest de catégoriser en concepts des éléments souvent complexes et dont les donnéespeuvent être incertaines ou dont les répercussions sont improbables, chose que nousanalyserons plus tard dans ce rapport. Page 15
  • ÉvaluationCette phase vérifie que les éléments soient opérationnels, que le raisonnement desprocessus soit cohérent à la stratégie d’affaires d’ensemble et par rapport aux domainescernés. Il est nécessaire de vérifie que les relations entre concepts pour déterminer s’ilssont correctement définis, si les bonnes caractéristiques, attributs, inférences, actionsont été catégorisés de façon à ce que l’ontologie obtenue puisse être réutilisable etexploitable de manière continue.MaintenanceLa mise à jour des données est capitale afin de préserver la qualité des informationspossédées. La valeur des concepts des processus dépendra fortement de la capacité àles faire évoluer en fonction e l’environnement dans lesquels ils s’appliquent et enfonction des changements de comportements des utilisateurs. Et il sera ponctuellementnécessaire de procéder à un processus de réitération et donc de revenir à notre 3èmeétape de « refinement » afin de modifier les éléments, dès lors que leur signification,leur rôle, leur actions, les finalités visées, changent.Les outils du web sémantiqueL’un des premiers outils apparaissent en 2004 fut Swoogle, accessible via l’URLhttp://swoogle.umbc.edu/ et qui fonctionne comme un moteur de recherche pour leweb sémantique. Cette outils permettait de retrouver des éléments, des attributs et desontologies parmi plus de 100 000 documents en 2004. Cependant, il lui était impossibled’établir le lien entre deux concepts d’ontologies distinctes, ni de définir la qualité del’information autrement que pas le ranking des mots-clés ou des sites. Page 16
  • Ainsi en 2006, le Knowledge Media Institut de Milton Keynes au Royaume-Uni adéveloppé un outil plus perfectionné appelé Watson Semantic Web Gateway11. Aucontraire de Swoogle, Watson se base sur un moteur de recherche par mots-clés de trèshaut niveau et utilisent les métadonnées des informations et concepts afin de vérifier laqualité, la pertinence de ceux-ci et ne se base plus sur l’uniquement popularité destermes sur les pages internet. D’autre part, Watson Gateway permet d’analyser lesrelations qu’il existent entre des concepts appartenant à des ontologies différentes ense basant sur les liens existants entre les éléments dans leurs ontologies respectivespour ensuite établir des correspondance de sens au niveau de ces concepts et construireune relation entre eux. Exemple de raisonnement de Watson Gateway12Autre caractéristique, Watson vérifie en permanence l’utilité de ses critères d’analysesdes termes sémantiques et développe de nouveaux critères d’analyse et decorrespondances pour établir les liens entre les informations et améliorer sa perceptionde leur qualité. A l’instar de Swoogle qui se limitait à 100 000 documents, Watson peuttraiter les quelques 6 millions d’informations renfermées dans les bases de données duweb sémantique et peut traiter ces informations sans limite de temps ni d’utilisation, cequi n’ était pas le cas de Swoogle qui n’autorisait qu’un nombre limité de demandes.Watson a été vu très rapidement comme un premier pas vers les intégrationsd’ontologies et un projet en devenir concernant les alignements de concepts et fusiond’ontologies. Page 17
  • D’autres outils tels que Poweraqua et Powermagpie permettent également de faciliterle repérage des informations et d’établir les liens avec des ontologies existantes ou decréer une nouvelle ontologie, en analysant les contextes et les attributs, les classes determes et de connaissances ces deux logiciel permettent d’afficher à l’écran lescorrespondances existantes, les ontologies utilisées ou les conceptualisation qu’il estpossible d’établir entre plusieurs mots-clés. Power Magpie tout comme Watsons’appuie sur le RDF (Resource Description Framework) pour établir les catégorisation deconcepts,de termes sémantiques et établir une « communication » avec les documentshtml afin de générer un listing des relations existantes dans les modèles conceptuelsrelevés dans chaque page internet. Ainsi selon l’API ou Application ProgrammingInterface de Power Magpie utiliser des fenêtres contextuelles de similaire au formatNotepad afin de montrer les résultats des analyses sémantiques. Capture écran de l’interface de Power Magpie L’outil actuellement le plus abouti et le plus utilisé pour concevoir des ontologies et structures leur intégration est sans aucun doute le logiciel Protégé. Page 18
  • Le logiciel Protégé, développé en 2000 à l’université biomédicale de Stanford 13 enCalifornie, est une des premières solutions qui ont été mis en place afin de représentersous informatique de manière schématique, visuelle le web sémantique.Il permet de créer des structures sous forme d’arbres heuristiques avec des connexionsqui sont établies par le biais de concepts- clés communs entre les systèmesd’informations ou entre les éléments de manière à ce que l’ensemble des conceptspuisse communiquer de manière optimisée et automatisée. Ce logiciel permet d’affecterles informations par individus, classes (qui peuvent posséder des attributs caractériséspar des propriétés propres), entités et au sommet de la structure l’ontologie et d’yassigner les actions d’analyse intelligente de cette dernière. Il permet aussi d’y intégrer des annotations spéciales pour compléter la description dechaque élément de l’ontologie. Grâce à l’outil Graphviz, il est possible de visualiser lahiérarchie des données telle que l’on a répertorié les fils, sous-fils, sous-sous-fils etdifférents liens entre les classes, labels descriptifs d’information et attributs desdifférents contenus.De plus il permet d’intégrer des plug-ins pour fonctionner avec les documents OIL, RDS,OWL de toutes sortes, inclure des librairies et notamment un plug-in intéressant avecl’outil Watson Gateway. Exemple de l’interface de Protégé (en version 4 bêta ici) Page 19
  • Tous ces outils du web sémantique sont tous confrontés des problèmes qui sont encoreà l’heure actuelle à l’étude comme la fusion d’ontologie et l’intégration de conceptsrenfermant des éléments complexes et de l’information incertaine. B) Les systèmes multi-agentsEntrevue par la communauté scientifique dès le début des années 1990 14, le systèmemulti-agents se caractérisait par trois composantes essentielles : - Réactivité : capacité à agir selon les changements de son environnement et à s’adapter en fonction des données qu’il reçoit ou analyse. - Pro-activité : aptitude à anticiper les besoins et les répercussions futures des informations, aide à la prise des décisions avant que les événements ne surviennent en étudier toutes les possibilités d’évolution du contexte et des éléments avec lesquels il interagit. - Sociabilité : faculté de coopération avec les autres agents et d’organiser la répartition de tâches, la structure hiérarchique d’un projet entre agents, de définir une structure approprié pour travailler de manière indépendante. Schéma de fonctionnement des agents intelligents15 Page 20
  • Les agents intelligents conceptualisent les données pour se forger leurs propresontologies et agir de manière autonome dans leur environnement. Ils réagissent enfonction de capteurs d’information qui rentrent en « input » ou entrée pour constituerune action en sortie ou « ouput » vers ce même environnement.Chaque agent du système peut être attribué à un contexte ou environnementdifférents, mais établit toujours un lien avec les autres agents.D’autre part les agents intelligents ont leur propre structure mentale qu’il organisa enfonction de croyances, désirs et intention (le BDI ou Belief, Desire, Intention). L’agent enanalysant les données se construisent leur propre choix de négociation et prennent lesdécisions d’après les perspectives répondent le plus à ce qu’il « croient » optimalcomme choix pour atteindre un objectif de travail. Le désir est l’objectif de base quechacun possède mais qui est souvent sujet à des divergences avec les buts des autresagents. Ils se concentrent alors sur les intentions où les obligations, besoins sur lesquelsils n’accepteront aucune marge de négociation.Ainsi selon le contexte 4 différents choix sont possibles : la coopération, la collaboration,l’antagonisme, ou la semi-coopération.Dans une logique coopérative l’agent peut rendre un service à son homologue mais lachose ne sera pas forcément réciproque ensuite, car les intérêts sont divergents maisune entente existe.La collaboration présente une action mutuelle des agents entre eux car ils ont desobjectifs soient commun soient compatibles avec les finalités escomptées.L’antagonisme est le refus catégorique de communication entre deux agents, soit parintérêts trop fortement divergents, incompatibles, où par analyse de l’autre commeayant une réputation insuffisamment fiable ou infidèle.La semi-coopération enfin est un état de réflexion de l’agent intelligent qui va d’abordconsidérer le statut de son vis-à-vis avant de prendre une décision. Il se basera surl’historique des interactions passées, la réputation, fiabilité, qualité de l’autre agent etsa propension à permettre la réalisation d’objectifs en temps voulu.Le système multi-agents se structure autour de l’architecture CORBA16 (Common ObjetRequest Broker Architecture) , qui permet d’utiliser les agents comme des objets et deles rendre autonomes pour des tâches précises, complexes. Page 21
  • On retrouve généralement trois types d’organisation des agents intelligents dans lesystème SMA17 : - L’architecture axée sur le flux d’information : le rôle des agents est de capturer, analyser, et effectuer des veilles sur la base de connaissances qu’il possède ou acquiert afin de maintenir sa qualité et son utilité. - L’architecture orientée rôle : chaque agents comprend des responsabilités et peut avoir à se référer à un agent supérieur. Une hiérarchie par couche d’importance des tâches à accomplir ou application à utiliser peut suggérer qu’un agent constitue des sous-agents qui vont exécuter des tâches simples. - L’architecture orientée contrôle : mise en place lorsque le projet dans lequel est impliqué le système multi-agents est trop complexe pour laisser une autonomie et confiance totale à l’ensemble des agents, des contrôles s’effectuent dans leur espace de collaboration afin de valider l’atteinte de objectifs de chaque éléments simples contenu dans les applications complexes à réaliser et ensuite une validation de l’ensemble de la tâche complexe est effectuer par les agents lorsque tous manifestent l’atteinte des objectifs définis au départ. De nombreux domaines exploitent déjà cette technologie, notamment les secteurs de la santé, du tourisme et de la gestion de la relation client. Système multi-agents dans l’aéronautique Le très ambitieux projet Nextlink, par exemple, dans le domaine de l’aéronautique, avait pour objectif de construire un système multi-agents afin de travailler sur le design des pièces de construction des avions commerciaux. L’architecture du système utilisait un agent intelligent qui supervisaient l’avancement dans la réalisation des pièces et validait les étapes de conception et pouvait moduler des décisions en fonction des impératifs, défaillances, difficultés rencontrées auprès des différents ingénieurs réparties à travers le monde, permettant également la transmission via les réseaux sans-fils aux équipes humaines et le but était de construire un système standard transposable dans d’autres domaines ultérieurement. Page 22
  • Schéma extrait du projet18Système multi-agents dans le traffic automobileAutre exemple encore plus complexe : la gestion de la signalisation routière des feuxroutiers. Un équipe de projet de recherche à l’université de Anyang en Corée du Sud aétablit un système multi-agents permettant de gérer le changement des lumières des feuxpassant du rouge au vert.Les agents au moyen de capteurs permettent d’analyser et calculer le temps des cycles desfeux en fonction de la densité et congestion du trafic routier. Mais également ils sont« conscients » des conditions atmosphériques en analysant la structure de l’air et peuventadapter la vitesse de changement des lumières selon le contexte afin de minimiser lesrisques d’accident automobiles.Cela va encore plus loin puisque les agents peuvent non seulement prévenir les autresagents d’augmentation ou baisse de flux de trafic, mais aussi peuvent gérer le signal desfeux en fonction de la vitesse à laquelle roulent les automobilistes afin de ne pas provoquerdes ralentissements pouvant occasionner de possibles carambolages, et peut gérersimultanément plusieurs intersections de rues. Page 23
  • Schéma représentatif de l’application du système d’agents intelligents pour réguler le traffic routier au niveau des intersections19 Cette technologie représente un défi formidable dans les systèmes d’informations desentreprises, et les projets actuels rapprochent les systèmes multi-agents de la recherche en intelligence artificielle, afin de permettre une autonomie de travail sur des éléments beaucoup plus complexes et sur l’amélioration du raisonnement « humain » des agents.C) RFID : la voie royale vers une traçabilité absolueDéveloppée dès la seconde guerre mondiale, en 1948, pour la Royal Air Forcebritannique pour distinguer les avions ennemis20, ce système apparaissait alors sousle nom « IFF » pour Identification Friendly of Foe. Ce n’est que vers la fin des années1970 que la Radio Frequency Identification fit une percée, lorsque le domaine del’armée qui avait conservé l’usage et la recherche exclusive de cette technologiedurant plusieurs décennies finit par la rendre publique.Utilisée durant les années 1980 essentiellement pour sécuriser l’accès aux sitesnucléaires, et il faudra attendre 1998 pour qu’un système utilise les puces RFID pour Page 24
  • permettre de suivre le bétail au niveau agricole mette sur le devant de la scèneréellement cette technologie. La raison de ces années de silence est essentiellementdue à l’absence de normes et à un devoir de réglementation avant tout usagepublic21.En 2004, après de longues décennies de recherche et fabrication de tags par lesindustrie européennes et américaines essentiellement, la RFID pris tout son senslorsque les entreprise ont entrevue l’utilité des progiciels, architecture orientéeservices et l’enjeu économique au niveau de la logistique que l’apport de nouvellespuces de traçabilité des produits offrait. Ainsi dès fin 2003, WalMart suivi les pistesd’ASA firme de détail anglaise dans l’incorporation de tags RFID sur ses produits. Cequi causa un demi-échec car le coût des puces se posait car bien que permettant unrayon d’action de 50m, elles coutaient en moyenne 15€, ce qui réduisait sonimplantation dans des firmes de grande taille ayant de forte rotation de stocks ouportant sur des produits à fortes marges22. WalMart, leader américain de la grandedistribution du reporter ses ambitions pour 2005, année où il créa la norme EPC, enfréquence 13,56Mhz et 98 bits et dont la portée était estimé à 2 mètres maximumétant donné qu’il s’agissait d’étiquettes RFID passive 23.Ainsi depuis, la RFID est utilisée essentiellement pour contrôler le taux de démarqueinconnue en magasin, la traçabilité des produits depuis le fabricant vers lesentrepôts et surveiller les stocks en magasins.La puce RFID se compose d’une micro-puce renfermant des informations sur leproduit et utilisant l’énergie du signal d’un lecteur RFID qui transmet une requêtepour échanger l’information qu’elle contient. Schéma de fonctionnement d’une puce RFIDLa technologie Verichip, approuvée par la travaille actuellement sur une puce ayantune portée de 300m et permettant d’être implanter sous cutané afin de permettrela localisation des individus par satellite et préoccupe énormément les prisons Page 25
  • américaines pour la surveillance de leur détenus, mais également dans la prise encharge de patients24.Les puces RFID comprennent deux catégories :- Les puces passives, ayant un rayon d’action réduit de 9 cm à 2 mètres et ayant une fréquence de 13,56 Mhz : uniquement lisibles par une lecture, essentiellement pour le stockage d’informations.- Les puces actives, ayant un rayon d’action allant jusqu’à plus de 50 mètres en moyenne, utilisant une fréquence de 2,38 à 2,47Ghz : permettent lecture et écriture, mise à jour de données, utilisée pour le suivi logistique principalement.ApplicationsTransport londonienLa RFID s’inscrivit de plus en plus le principe d’ubiquitous computing ouinformatique omniprésente et très tôt les gouvernements ont saisit ce progrès pourl’application dans les services publics. Le réseau public de Londres ainsi a vu très tôtl’utilité d’une telle technologie pour réduire la congestion du trafic de voyageursquotidien du centre urbain de Londres, où plus de 5 millions d’anglais prennentchaque jour le métro, le bus, le train et le nombre de visiteurs enregistrésaugmentent de 15% chaque année. La gestion optimale du réseau de transport étaitdonc une priorité essentielle à très court terme face à l’engorgement des flux decirculation.Le ministère des transports britannique, et le réseau TfL (Transport for London),réfléchissait à une amélioration de leur système de tickets magnétiques et billetsd’autobus qui engendrait des perturbations et embouteillages dans les heures depointe en journée et de même facilitait la fraude d’individus mal intentionnés et quicoûtait entre 5 et 6 millions de pounds au réseau chaque année.C’est ainsi que naquit le projet Prestige en 2005 25, qui élabora un système decapteur sur les portiques d’entrée et sortie des stations de métro qui à l’aide decapteurs placés près de la zone de passage des individus lisaient leur nouvelle cartemagnétique RFID et leur ouvraient le portique. Ceci engendra un gain de 4 secondespar personne en temps de passage car il n’était plus nécessaire d’insérer un couponmagnétique mais de passer simplement suffisamment près des capteurs avec la Page 26
  • carte contenant la puce RFID pour que celle-ci soit reconnu, authentifiée et se voitaccordé l’accès. La carte ne devait pas nécessairement être sortie et les personnespouvaient les conserver sur eux du moment que le capteur détecter un titre valide.Un problème au début du projet se posa sur la difficulté à placer les dispositifs dereconnaissances car la portée était réduite à quelques centimètres uniquement avecune risque d’effet d’angle perpendiculaire qui pouvait empêcher le capteur de lireles puces RFID contenu dans les cartes des citoyens.Ce système permis de réduire de manière significative la congestion du traficlondonien et fut également mis en place dans plus de 8000 bus londonien quienregistraient en 2005 près de 6 millions de ventes de billets, grâce à ce système etprès de 4 millions supplémentaire de titres concernant le métro.Ce système permis d’enregistrer le parcours des usagers, ce qui souleva égalementle problème de méthode d’écriture « étape par étape » ou « finale » des trajets desindividus pour identifier les différences entre les parcours simples et les allers-retours et valider les droits des usagers par rapport aux informations détenues surleurs cartes individuelle. Ceci facilite grandement les contrôles des agents desurveillance des réseau du métro de Londres dans le contrôle des titres et grâce àune signature électronique propre à chaque pass, la fraude et les tentatives defalsification de titres de transports s’est considérablement résorbé.Portiques RFID à Londres et effets observés sur les ventes de titres de transports26 Page 27
  • Gestion client tokyoïte dans la vente de chaussureAutre exemple pertinent, le support client en plein centre ville de Shibuya à Tokyo dans leflagship (plus grand magasin mondial en termes de superficie) de la firme Mitsukoshi,spécialiste dans la vente de détail et dont le problème de qualité de service auprès de laclientèle de leur département de chaussures était problématique.En effet, l’évasion de clientèle qu’entraînait le traitement de chaque client à cause denombreuses allées et venues des vendeurs et du manque d’information spontanée sur l’étatdes stocks entraînait des pertes chiffrées à 8% des chiffres d’affaires notamment sur la cibleféminine.Appuyé par le METI (Minister of Economy Trade and Industry) du Japon concernant lesrecherches de projets portant sur la technologie RFID, la firme Mitsukoshi aboutit à laconception d’un système de kiosque RFID intégré avec écran tactile qui permettait d’insérerde manière discrète et invisible les lecteurs de puces. Les vendeurs pour leur part utilisaientdes assistant personnels capable de lire les tags des puces collées sur chaque chaussures enmagasin. Les PALM étaient ainsi connectés en réseau sans fil avec les kiosques qui leurtransmettaient en temps réel l’emplacement des produits et de la disponibilité de chaquetaille de chaussure en magasin. Très vite les vendeurs ont manifesté cependant uneappréhension quant au fait de garder en permanence un assistant personnel à la main cequi réduisait leur confort lors de manipulation d’échantillon de vitrine auprès des clients.Le système finit par ne plus utiliser que les kiosques et renseigner de meilleure manière leclient sur leurs demandes. Une autre amélioration au système concernait les pucesimplantées sur les chaussures pour qu’elles puissent être retirées aisément une fois leproduit vendu au client, et l’application de tags RFID détachable facilement a été par la suiteinstauré pour un meilleur confort d’utilisation et éviter tout souci de retour du client.Les kiosques ont retirés des bénéfices également du fait qu’ils permettaient de reconnaîtreune chaussure à son tag RFID chaque fois qu’elle était posée sur le kiosque à proximité dulecteur et de l’écran informatique. Page 28
  • Exemple de kiosque MitsukoshiLa RFID ainsi nous montre une très forte avancée technologie possible dans le domainede la traçabilité logistique des produits et dans la transparence des stocks, avec unemeilleure gestion des flux de personnes ou de produits mais se heurte encore à unobstacle de taille : la liberté individuelle.En effet, la RFID utilisée également au niveau marketing pour recenser les habitudes deconsommation des clients ou les procédures d’affaires entre partenaires, suscite l’émoides association de défenseurs des droits des citoyens et des institutions juridiques de lapropriété industrielle, pour délimiter la frontière de l’accès à l’information à caractèreprivé des individus et des entreprises. En effet, cette technologie apparaît comme outilde puissant pour sonder en profondeur les faits et gestes des individus et manque decadres juridiques, normes et réglementations suffisantes pour protéger les libertésciviles de chaque citoyen. L’autre effet pervers est celui de l’utilisation de cetteapplication dans la veille stratégique des entreprises afin d’obtenir des informations àcaractère confidentiel sur les brevets, secrets de fabrication et stratégies d’affaires desconcurrents.C’est un problème encore majeur qui bien que commençant à être cadré par lesinstitutions gouvernementales dans chaque pays, reste encore en développement àl’heure actuelle. Page 29
  • D) L’informatique omniprésente change les mentalitésL’ubiquitous computing est un concept qui date des années 1970 et regroupe unensemble de technologies dont les systèmes multi-agents, la RFID et bon nombred’autres technologies internet pour exprimer une vision nouvelle de l’informatique :L’accès instantané à l’information.En effet le concept est d’inclure un individu qui se situe dans un environnementgéographique et qui circule avec un appareil prenant la forme d’un assistant personneldigital et tactile et lui informant de toutes les opportunités qui peuvent se présenté enfonction du comportement, des habitudes, du mode de vie de chaque individu.Le principe est de programmer ce « gadget » pour qu’il analyse tout seul la personnalitéles actions de chacun afin de lui faciliter le quotidien.Évidemment cet optique utilise le principe de concepts et de relation s’inscrivant dansl’environnement d’évolution de l’individu et permet une réflexion avancée enconstruisant des ontologies permettant cette facilité d’échange d’informations etconfort d’usage.Un très bel exemple de ce principe a été observé entre 2002 et 2004 dans les hôpitauxdu Danemark en collaboration étroite avec le laboratoire de recherche en technologied’Aalborg au niveau de la gestion des patients.En effet jusqu’alors, l’afflux en constante augmentation de malades, blessés, et patientsadmis aux urgences et soins intensifs devenait préoccupant quand à la surpopulationdes hôpitaux et de la qualité de travail des infirmières auprès de chaque patient pourvérifier de manière optimale l’évolution de leurs conditions de santé.Jusqu’alors selon les tests du laboratoire d’Aalborg, montraient que les allées et venuesdes infirmières jusqu’au terminal de saisie des informations sous poste informatique,engendrait une perte de temps de 3 min par patient et que parfois le manque decoordination des services et entre les relève de gardes pouvait augmenter le temps detraitement de chaque patient.L’idée trouvée fut tout d’abord de recourir à des petits chariots roulants à bonnehauteur sur lesquels les infirmières disposait d’ordinateurs portable, permettant ainsi depouvoir être plus autonome quand à l’enregistrement des données d’évolution et destraitements ingérés au patients et des analyses faites ou restantes à effectuer.L’avantage était la réduction de la perte de temps dû à l’aller-retour des infirmièresentre leur service et les chambres des malades. Ce qui pouvait être critique dans la Page 30
  • gestion des urgences et salles de soins intensifs ou la surveillance minute après minutepouvait avoir une incidence vitale sur la vie du patient et l’évolution favorable de sonétat.Exemples à droite des terminaux classiques fixes, à gauche des chariots mobiles avec ordinateurs portablesHors après de multiples tests visant à analyser la perception du systèmes par lepersonnel des hôpitaux (pris entre 30 et 45 ans avec tout type d’expérience des outilsinformatiques), il s’est avéré que le matériel était encombrant pour effectuer destraitements ou pour le passage entre les lits dans les chambres où l’espace exiguempêchait de procurer les soins dans des conditions d’ergonomie et de confort pour lesinfirmières.L’équipe de chercheurs du laboratoire d’Aalborg ont alors réfléchit un à un système sousforme d’assistant personnel digital de poche qui permettait de proposer une interfaceintuitive et simple de gestion afin d’intégrer les dossiers de clients, les analyses faites, àfaire sans avoir à pousser un chariot et sans réduire leur mobilité dans les chambres lorsde la procuration de soins.Les premiers tests effectués dans le laboratoire avec des infrastructures identiques àcelles d’une section d’un service d’hôpital, ont démontré encore 9 problèmes majeursdont le principal était la compréhension de l’interface. En effet, le personnel quelquesoit son expertise en utilisation informatique à révélé un manque de logique dans laprésentation des informations des données qui étaient formalisés de manièreincohérente par rapport à la pratique des infirmières en temps normal et ne respectait Page 31
  • pas les étapes de traitement des patients dans le même ordre logique que leraisonnement humain.Une reprogrammation a été donc nécessaire afin d’inclure ce facteur en analysantpendant 1h près de 38 personnes afin de comprendre leur parcours, leur comportementet assimiler les étapes de traitement des patients de manière identique sur l’appareilmobile.Ceci abouti au bout de 2 ans de pouvoir implanter en situation réelle cet assistantmobile de poche, qui utilisait un clip de ceinture afin de permettre de garder les mainslibres pour les interventions et de se connecter dans un rayon de 10m aux patients parl’intermédiaires d’étiquettes RFID intégrées dans les bracelets des patients. Ce quipermettait instantanément aux infirmières de savoir quels patients étaient présentsdans chaque chambre, quels médicaments, traitements, soins, avec été prodigué etrestaient à être pourvus. L’assistant par une interface très simple autorisait lesinfirmières simplement en tapotant du doigts sur un menu d’avoir accès à l’historiquede l’état du patient et de vérifier par des couleurs rouges ou vertes de caractères, lesvariations des tests positives ou négatives , effectuées sur leur état de santé et pouvoirréagir en cas de forte différence ou dégradation de santé de manière plus rapide. Ellespouvaient également saisir en tout temps des observations ou des remarquespertinentes au moyen d’un stylet tactile qui leur permettait ainsi d’enregistrer desannotations ou recommandations ultérieures éventuelles sous forme de mémo stockésur l’assistant personnel. Affichage-type d’un assistant sans fil27Le système en place permettait de mettre à jour automatiquement les données d’autresinfirmières lors de relève de garde à partir du système d’information qui actualise les Page 32
  • données en temps réel en fonction des informations saisies par le personnel de l’hôpitalet des données enregistrées par les infirmières sur leur assistant mobile.Cet exemple illustre bien l’adéquation que l’ubiquitous computing permet à l’utilisationhumaine des applications en permettant une meilleure analyse du contexte dans lequelévolue un individu avec une technologie en main et de pouvoir proposer une utilisationqui suggère un comportement optimale en fonction de l’environnement dans lequel ils’inscrit. Cependant bon nombre de limites sont encore présentes notamment auniveau de l’harmonisation des utilisations d’applications et de l’utilisation des standardseux-mêmes qui diffère à un niveau qui dépasse les frontières des pays.III - Limites et perspectives d’un Internet en pleine mutationSi le web sémantique est un formidable chantier d’application pour l’avenir au niveau duquotidien individuel que pour les modèles d’affaires d’entreprises, de nombreusesinterrogations subsistent. A) L’intégration des modèles conceptuels de donnéesL’un des problèmes majeurs existant au niveau de la création d’ontologies, estl’intégration de concepts de modèles conceptuels différents ou n’utilisant pas la mêmelinguistiques du fait de langue maternelle du pays et d’une pluralité de langues parléesau niveau mondial.De nombreux projet comme celui d’IBM Thinking Ontologies ou de DOLCE Projet ducentre de recherche de Trente en Italie ont réfléchit à une façon de redéfinir lesontologies de manière à permettre un « alignement » des termes, éléments, classes,attributs par rapports à des domaines d’application en définissant des correspondanceset des outils de traduction linguistiques de termes sémantiques d’un pays à un autreafin de permettre l’interaction entre ces ontologies.Ce projet entrevu dès 1999, consiste à décrire une ontologie supérieure, une sorte delangage universel qui permettrait à n’importe quelle ontologie de communiquer avec uneautre via des termes standardisé qui permettrait de dépasser la barrière linguistique oucontextuelle propre à chaque ontologie. Définit par le laboratoire de recherche entechnologies et sciences cognitives de Trente en Italie, le DAML+OIL est vu commetremplin à la redéfinition d’instances, classes, substituts, relations afin de faire convergeren un même point toutes les ontologies et permettre leur échange et intégration. Page 33
  • Dolce souvent vu comme le mythe de l’ontologie universelle est pour l’instant étudiéeafin de voir les points de connexions entre ontologies, leur qualité de contenu et defonctionnement et définir des ontologies catégorielles. Celles-ci se basent sur un domaineen particulier d’un univers (pour la médecine le domaine génétique, bio-moléculaire,etc..) et permettent à plusieurs ontologies d’un même domaine de l’utiliser commeintermédiaire pour communiquer via une structure et une abstraction commune.Le projet vise à définir une hiérarchie d’ontologies également : ontologie de domaine,core-ontology et top-ontology. La core-ontology étant encore plus basique quel’ontologie de domaine permettant à l’entendement humain d’être comprise, la top-ontology qui se situe au niveau de l’univers (science, finance, économie…).Dolce permet de définir des classes d’ontology de manière itérative de l’ontologie la plusspécialisée à l’ontologie la plus globale. Cette catégorisation va permettre d’harmoniserles ontologies entre elles pour améliorer leur alignement et la traduction d’élémentssynonymes afin d’accroître l’interopérabilité entre ontologies 28.Néanmoins, les limites constatées sont une « librairie » d’éléments, classes, définis sousformes de framework, standards qui reste limitée et pauvre. Dolce se sert des ontologiesdites matérielles et plus spécialisées pour alimenter sa propre ontologie et permettrel’échange commun de données. Elle ne peut être utilisée qu’à un stade intermédiaire pourrassembler des ontologies de domaines simples mais se limite à un échange trèssommaire d’informations et de processus entre ontologies. Elle utilise le SPARQL pourpermettre la traduction des requêtes considérées comme similaires ou pouvant opérerentre elles entre ontologies mais cela reste à un niveau encore trop limité pour le momentpour envisager une communication plus détaillée et aboutie. Schéma explicatif du projet Page 34
  • Ainsi si les protocoles tels que SPARQL , les plug-ins Watson Gateway de logiciels tels que Protégé permettent d’effectuer l’intégration de raisonnement entre concepts de deux ou plusieurs ontologies, la fusion des base de connaissance reste difficile à établir, car la description des métadonnées supporte une pluralité de sens au niveau du web sémantique qui n’est pas différenciable par les outils d’analyse et de conceptualisation, tant qu’un sens commun, une entité commune n’est pas instauré et compréhensible de manière standard. C’est ainsi que l’on constate que 90% des outils tels que Watson ou et Poweraqua, Power Magpie donne un sens erroné au terme « assumption », lorsque quasiment toutes les revues écrites académiques cernent le sens commun et authentique. La « désambigüisation » des concepts est un des domaines de travaux actuels. Des chercheurs autrichiens de Vienne sont depuis 200629 sur un projet d’outil d’annotation qui permet de réfléchir à la manière dont doivent être perçus les concepts avant d’être incorporés dans des ontologies, en s’intéressant à la manière dont ils sont catégoriser, la nature des informations, attributs, inférence devant accompagner chaque notion, chaque services d’entreprise au niveau des ontologies d’entreprise. La difficulté est également de permettre une plateforme logicielle qui établissent les échanges et similarités de concepts pour soit éliminer les redondances entre ontologies soit permettre l’échange d’information et les relations entre les attributs d’ontologies différentes au sein d’un même modèle fonctionnant grâce à des standards XML,HTML,JAVA,OWL,RDF. B) Le traitement des données incertainesAutre frein observé au niveau de la gestion de la connaissance et du fonctionnement desontologies et de l’analyse des informations au niveau sémantique et plus globalement dela compréhension des informations porte sur l’incertitude, l’improbabilité.En effet, le web sémantique s’appuie sur des concepts, des processus dont le sens estformalisé, commun, irréfutable ou à très forte probabilité quand à la nature desinformation que les concepts et leurs attributs renferment.Hors, ne pas pouvoir prévoir d’un ouragan s’abat en Floride à telle heure, tel jour,détruisant les principales plateforme pétrolière maritimes, est synonymes de millions dedollars de pertes pour les industries qui opèrent dans ce domaine et a une incident encoreplus vaste sur l’inflation du baril de pétrole et la consommation des ménages ensuite. Page 35
  • Ce type d’événement définit une première catégorie d’informations incertaines : lesdonnées bien définies mais imprévisibles. Ceci est du au caractère aléatoire et spontané,insondable d’informations.Le second type d’information, tout autant problématique concerne les concepts, lesdonnées, sur lequel le doute se porte à la fois sur le contenu de l’information, sur sonchamp d’action, sur la source qui fournit l’information mais aussi sur la fiabilité.Cet type de données peu ainsi révéler une erreur de saisie, mais également porter sur unepluralité de sens quand au concept en lui-même sur lequel des avis divergents feignent dese ranger à un avis commun, ou encore le manque d’expérience ou d’avis concernant unfait, un données ne permet pas de qualifier, certifier l’exactitude d’une information, parcequ’elle touche un domaine trop pointu ou émergent sur lequel la réflexion de chercheurs,d’analystes, n’ont pas encore pointé dessus et une signification réelle, une élaboration demétadonnées restent à produire.Il s’agit dans ce cas soit de créer une probabilité fondée sur l’ « endorsement » ouralliement, c’est-à-dire sur le nombre et la qualité des personnes exprimant un mêmepoint de vue sur une information, ce que l’on appelle la technique des « logiques floues »,ou encore en utilisant des avis de personnes ayant l’expertise du domaine du concept etpermettant de créer des métadonnées qui autoriseront à donner une meilleur probabilité àla certitude et exactitude des données. Le modèle conceptuel de ces probabilitéss’effectue alors de manière inversée, en partant de l’information la plus incertaine pourapporter une clarification à son sens à la véracité attribuable à celle-ci pour remonterjusqu’au concept et au domaine d’incertitude de l’information et pouvoir ainsi créer lafonction de croyance ou belief fonction.A mi-chemin de la conceptualisation, un autre souci plus subjectif lui aussi poseproblème quand au véritable sens d’une information : l’ambigüité. En effet, uneinformation peut changer totalement de signification selon le contexte ou le domained’application. Un titre de journal qui annonce « Microsoft a dit bonjour au logiciellibre » peut être compris au Québec comme « Microsoft a fermé la porte au monde dulogiciel libre », tandis que les autres francophones comprendront que « Microsoft acceptede collaborer avec le monde des logiciels libres ». La même information en fonction deson contexte économique, culturel peut amener à une compréhension erronée ouimprécise de l’information ce qui instaure une improbabilité que l’information soit fiableet exacte dans le sens commun où elle est voulue au départ. Page 36
  • Modèle conceptuel de Fischer en 2005 sur le traitement de l’incertitude C’est ainsi qu’au niveau des architecture d’entreprises, en 1987, un employé d’IBM nommé John Zachman, mis en place un cadre de travail sur l’incohérence au niveau des systèmes d’information des architectures d’entreprise en proposant un cadre avec des entrées horizontales et verticales définissant les 6 différentes questions à se poser sur les informations (qui, pourquoi, où, comment, quand et quoi) ainsi que 6 modèles possiblesde représentation des différentes perceptions de concepts dans l’entreprise. Ce modèle fut très utilisés pour la transversalité qu’il offrait au niveau de la réflexions sur les incohérences de systèmes30. Modèle de Zachman31 Le cadre Zachman Données - Activités - Emplacement - Quoi ? Comment ? Où ? Portée (contextuelle) Liste des éléments Liste des processus exécutés Liste des lieux où est Planificateur importants pour lactivité par lactivité exercée lactivité Modèle de données Modèle métier (conceptuel) Modèle métier Modèle logistique conceptuelles Modèle système (logique) Modèle de données logiques Architecture de programmes Architecture SI distribuée Modèle de technologie Modèle de données Modélisation de systèmes Architecture (physique) physiques (fonction informatique) technologique Représentation détaillée Définition des données Programmes Architecture réseau (hors contexte) Le fonctionnement "réel" Données métier réelles Code du programme Réseau physique réel de lentreprise Source : BPMS / 2007 Page 37
  • Le cadre Zachman (suite) Personnel - Temps - Motivation - Pourquoi Qui ? Quand ? ? Portée (contextuelle) Listes des organisations Liste des évènements Liste des objectifs Planificateur importantes pour lactivité significatifs pour le métier métiers stratégiques Modèle métier Modèle hiérarchique Modèle temporel Modèle dobjectifs (conceptuel) Modèle système (logique) Interface homme / document Structure de traitement Modèle de règle métier Modèle de technologie Matrice organisation / Structure de contrôle Modélisation des règles (physique) processus Représentation détaillée Architecture de sécurité Définition du calendrier Spécification des règles (hors contexte) Le fonctionnement "réel" Organisation métier réelle Planning Stratégie réelle de lentreprise Source : BPMS / 2007Autre méthode utilisée pour le traitement de l’incertitude, le processus MDA ouModel Driven Architecture, qui fut créé sur les base du langage de modélisation desobjects OCL, créé en 1995 par Cook et Warmer chez IBM, et qui travaillèrent par la suitedans l’Object Management Group pour construire un modèle qui tendrait versl’abstraction des éléments afin de pouvoir mieux assigner du sens et une perceptionunique des objets. Ce modèle considérait les programmes informatiques eux-mêmesaussi comme des abstractions et définit plusieurs niveaux partant de l’aspect générald’une donnée vers un modèle expressif et contextuel. Cela passe par un changementd’état des concepts en y ajoutant un degré de sens et de raisonnement pour accéder àun modèle MDA final. Les étapes intermédiaires passent par l’enrichissement de sensdes concepts et l’ajout de métadonnées de haute qualité pour pouvoir cerner lecontenu de l’information sans avoir à l’analyser en profondeur32.Enfin, il est à noter que les agents intelligents sont souvent utiliser pour leur capacité à se créerleur propres fonctions de croyances et à utilisés les logiques floues en adaptant le langage desontologie en langage Pr-OWL qui raisonne en utilisant des algorithmes de calculs pour définirdans des tableaux des probabilités quant à l’exactitude des informations et à leur fiabilité. C) E-gouvernement : un enjeu internationalDès 1998, le Secrétariat Général du Trésor du gouvernement du Canada a instauré uneadministration compétente nommée Service Canada pour gérer les services en ligne auxcitoyens et faciliter leurs demandes dans les deux langues : français et anglais.L’e-gouvernement bien au-delà de voir l’aspect Internet des ministères a pour finalité depermettre une meilleur coordination des systèmes administratifs afin d’offrir une meilleur priseen charge des citoyens dans leur demandes officielles. Page 38
  • L’objectif essentiel se situe à 3 niveaux essentiellement : - Du gouvernement vers les administrations publiques et collectivités - Entre administrations et entre ministères - Des administrations publiques vers les citoyensConcernant le plus ce dernier niveau, il a été important d’abandonner l’utilisation de servicesorganiser en silo épars qui entraînaient une rigidité et une lenteur des services rendus auxcitoyens et constituer des base de connaissances disparates sans connexions entre elles et selimitant à une application précise et sans lien avec les autres applications externes.Il a fallu réorganiser cette structure sous forme de « grappes » qui regroupe en rubriques, puisen domaine principaux les services des différentes administration afin de permettre unregroupement des personnels affectés et d’instaurer une coordination commune.L’objectif est à un niveau supérieur concernant le gouvernement en lui-même car les ministèressont très réticents face au changement, appuyés par le lobbying de principale société commeBombardier, Industrielle Alliance qui sont des exemples de poids lourds du Produit IntérieurBrut national au Canada et donc la résistance au changement met un frein au déploiement denouvelles technologies afin d’améliorer les systèmes administratifs et gouvernementaux.Mis à part cette résistance au changement, cette nouvelle architecture de l’informationnécessite de réviser en profondeur les processus comme c’est le cas pour le vote électronique.En effet, ce cas d’application de gouvernement électronique a soulevé d’énormes débatsconcernant la réglementation de ce type de service, qui se différenciait des procédures de voteset de décomptage manuels. La sécurité fut ainsi au cœur de la réingénierie des processus enAngleterre par exemple, où des problèmes se posaient quand à la préservation de l’anonymatet à la gestion de la fraude et de défaillances informatiques des machines à voter.Il fallu également créer un cadre de responsabilisation des autorités locales en charge de cetype d’événements politique et définir le rôle précis de chacun pour veiller au bon déroulementdes votes33.Des applications professionnelles voient le jour parmi les administrations européennes,notamment les pionniers que furent la Finlande, Belgique et Italie. Elles touchent le domainedes affaires électroniques avec notamment la disparition de la carte d’identité papier au profitd’une carte électronique à puce assurant une sécurité accrue. Les entreprises y ont vu un intérêtsubstantiel lors de signatures de contrat. Étant donné la valeur juridique reconnue depuis 2001de la signature électronique, la combinaison avec une pièce d’identité du même format, permetd’authentifier les transactions professionnelles. C’est ainsi que les compagnies européennes ontfait la demande d’un accord avec la société Adobe pour utiliser le format PDF dans les contratsd’entreprise et pouvoir vérifier de manière sure l’identité des contractants avec la signature et Page 39
  • l’eID, nom de la futur carte d’identité qui est en réflexion depuis 200534.Le sujet du dédouanageou de la défiscalisation en ligne a été entrevue comme futurs services aux particuliers etentreprises à venir.Le potentiel est énorme lorsque l’on sait que par exemple 45% des européens ont consultés au moins une fois des informations sur les sites de l’administration publique en ligne, avec laFinlande en tête (62%), et que la Suède par exemple est en tête des utilisation professionnelles des administrations en ligne avec un taux de 94% constaté sur l’année 2005,selon le cabinet d’analyses statistiques Eurostat35.Cependant l’absence d’uniformisation des législations et des réglementations internationalesopèrent des obstacles à la collaboration entre les gouvernements nationaux, notamment enAmérique du Nord où affecté par la culture, les pratiques disparates des gouvernements, desdifficultés d’échanges d’information et de correspondances de normes s’établit entre Canada,États-Unis et Mexique. D’autant plus que le manque de transparence bloque les échanges etempêche des services d’êtres mis en place.La solution doit passer par l’élargissement de standards tels que l’ISO 15489 concernant lesdocuments électroniques ou l’amélioration de l’éthique au niveau de la gouvernance desnations afin d’accélérer ce changement de mentalité et restructurer de manière homogène lesfonctionnements de gouvernement en ligne entre les continents.Le président Obama a essayé d’entrevoir une possible entente et intégration du Canada au seinde la NAFTA ou ALENA (Association de Libre 2change Nord Atlantique) afin de travailler sur uneplus grande collaboration du commerce continental et harmoniser les procédures, ce qui auranécessairement des répercussions sur la vision d’e-gouvernement entre Canada et États-Unis.Ce document ne présente qu’un bref aperçu des possibilités et un excellent document émanantde la société Gemalto, leader mondial de la sécurité informatique, explique de manière trèsdétaillée par secteur et applications les avancés récentes au niveau européen surl’administration en ligne, que vous pourrez parcourir avec le lien suivant :http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf. Page 40
  • ConclusionInternet a connu durant les années 1990 un progrès essentiellement technique. Le websémantique et les nouvelles technologies, d’e-gouvernement, d’informatique omniprésente,nous ont montré en quoi Internet convergeait vers un progrès désormais organisationnel à tousles niveaux, que ce soit au niveau fondamental de la connaissance, avec une perceptionnouvelles des concepts et la recherche essentielle du sens, de la qualité des informations et del’interopérabilité des services webs en réseau.L’apparition d’outil permettant une plus grande flexibilité et rapidité de traitement desinformations permet de remodeler les processus d’affaires électroniques et de faciliterl’émergence de standards et cadres de travaux communs afin de développer un monded’affaires plus collaboratif et basé sur l’interaction, l’échange d’information et une meilleurequalité des informations, et une meilleur compréhension de l’utilité de développer toujours plusles infrastructure en technologies de l’information afin de parer à la complexité et densité desflux de données qu’intègres les systèmes et bases de données de manière exponentielle.La collaboration passe également par l’adaptation des réseaux à une logique d’affaires, à uncomportement social afin de faciliter l’intégration de solutions nouvelles dans l’atteinte desobjectifs professionnelles, publiques, ou privés.Un meilleur partage de l’expérience sur les connaissances permettra de développer sans aucundoute d’ici une vingtaine d’années un Internet plus autonome, coopératif, simple d’accès etqualitatif. En ce sens ils se décisifs de toujours adapter la technologie par rapport à une finalitécommune et non prendre celle-ci pour un but en soi. Internet, quelque soit l’ampleurgrandissante qui lui sera attribuée ne devra pas occulter de nos esprits qu’un progrès ducommerce électronique et d’Internet passe d’abord par une réflexion sur les besoins, lesfaiblesses, l’analyses de nos ressources et un cadre de travail et de planification précis afind’atteindre ce but et utiliser internet comme tremplin de développement d’opportunitésd’affaires. Page 41
  • Bibliographie et Webographie1 Semantic Web, d’après une entrevue entre le magazine Scientific American et TimBerners-Lee en mai 2001 :http://www.sciam.com/article.cfm?id=the-semantic-web2 Article Extensible Markup Language (XML) 1.0 (Second Edition),W3C Recommendation,6 October 2000:http://www.w3.org/TR/2000/REC-xml-200010063 “Fact system”, université de Manchester, Ian Horrock:http://www.cs.man.ac.uk/~horrocks/FaCT/4 Présentation du projet Enersearch :www.ontoknowledge.org/downl/3review-del28.ppt5 Voir l’article « Sears peut-elle se réinventer? » :http://www.polytech.unice.fr/~hugues/MIS/EDHEC1/Etude%20de%20cas%20SEARS.pdf6 “Service Oriented Architecture Standards”,Jim Rubert :http://www.w3.org/2007/01/wos-papers/boeing7 Plus de détails dans l’article Service Oriented Enterprise téléchargeable à l’adresse suivante :http://www.zdnet.fr/livres-blancs/0,39035134,60243299p-39002695q,00.htm8 « Réussir une transformation bancaire », d’après une interview réalisée en 2006 auprès duvice-président de la direction du centre de l’excellence de l’Architecture Orientée Service duréseau Nordea, M.Siamak Amjadi :http://www.atelier.fr/applications-it/7/23102007/accenture-bea-soa-banque-35430-.html Page 42
  • 9 D’après l’article “Swedish Railways Implements JBoss Enterprise SOA Platform For ImprovedPerformance and Customer Service”:http://www.jboss.com/pdf/SwedishRailroads_casestudy.pdf10 schéma extrait de l’article “Methodology for Development and Employment of Ontologybased Knowledge Management Applications”, rédigé en 2002 par York Sure, Steffen Staab etRudi Studer membres de l’ Institut für Angewandte Informatik und FormaleBeschreibungsverfahren aus Karlsruhe: http://lsdis.cs.uga.edu/SemNSF/SIGMOD-Record-Dec02/Sure.pdf11 Présentation du logiciel plus en détails: http://watson.kmi.open.ac.uk/Overview.html12 Schéma extrait de l’article « Toward a New Generation of Semantic web Applications »,rédigé par Mathieu d’Aquin, Enrico Motta, Marta Sabou, Sofia Angeletou, Laurian Gridinoc,Vanessa Lopez, and Davide Guidi, Open University, paru en mai 2008 sur le site IEEE computerElectronic.13 Information relevée sur le site internet du logiciel : http://protege.stanford.edu14 Artificial Intelligence: A Modern Approach by Stuart Russell and Peter Norvig, 1995 Prentice-Hall, Inc : http://www.cs.berkeley.edu/~russell/aima1e/chapter02.pdf15 “A framework for dynamic knowledge exchange among intelligent agents”,publié auAmerican Association for Artificial Intelligence (AAAI) Symposium Control of the Physical Worldby Intelligent Agents, New Orleans, LA, USA, November 1994 :http://www.cengeloglu.com/pub1.html16 « Multi-agents et CORBA », rédigé par Philippe Merle Jean-Marc Geib, Laboratoired’Informatique Fondamentale de Lille en France :: www2.lifl.fr/~merle/papers/95_GANYMEDE.ps.gz17 D’après l’article «On the Architectures of Complex Multi-Agent Systems », Huaglory Tianfield *,Jiang Tian, de l’université de Glasgow en Ecosse et Xin Yao, de l’université de Birminghamau Royaume-Uni, publié en 2003 : Page 43
  • http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.58.39318 Next-link project : http://www-cdr.stanford.edu/html/NextLink/NextLink.html19 Schéma extrait de l’article « Traffic Signal Using Smart Agent System », publié en 2008 dansl’American Journal of Applied Sciences, rédigé par Cheonshik Kim et You-Sik Hong, chercheursde l’université d’Anyang en Corée du Sud:http://www.scipub.org/fulltext/ajas/ajas5111487-1493.pdf20 L’avenir de la RFID, centre de recherche public Henri Tudor, paru le 29 novembre 2005 par le journalQuotidien:http://www.tudor.lu/cms/henritudor/content.nsf/id/WEBR-7DSGJN?opendocument&language=fr21 « RFID, mode d’emploi »,livre blanc, mai 2005, Stéphane Boss,responsable de la distributionMicrosoft :http://www.logistique.com/image/stock-distribution/Microsoft-Distribution-RFID.pdf22 RFID et logistique, site internet ZDnet :http://www.zdnet.fr/actualites/informatique/0,39040745,39139364,00.htm23 RFID, Normes et Standards, Xavier Barras, directeur EPCglobal France :http://www.tracabilite.org/Media/pdf/documentation/presentations/Salon06/ME1_GS1_Xavier_BARRAS.pdf24 Site internet Atelier : http://www.atelier.fr/article.php?artid=2847425 D’après le livre “Ubiquitous computing in the real world: lessons learnt from large scale RFIDdeployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8 Novembre 2006.26 D’après « Group Transport Planning and London Travel Report 2005 », émanant du Transportfor London et de la note 25 précédente. Page 44
  • 27 Capture extraite de l’article : “Ubiquitous computing in the real world: lessons learnt fromlarge scale RFID deployment”, rédigé par Shin’ichi Konomi et George Roussos, publié le 8Novembre 2006.28 D’après les recherches suivantes :Semantic Integration: A Survey Of Ontology-Based“Approaches” (Natalya F. Noy, Stanford Medical Informatics, Stanford University,SIGMOD Record, Vol. 33, No. 4, December 2004):http://www.sigmod.org/sigmod/record/issues/0412/13.natasha-10.pdfWonderWeb Deliverable D17, The WonderWeb Library of Foundational Ontologies,Preliminary Report (Claudio Masolo, Stefano Borgo, Aldo Gangemi, Nicola Guarino, AlessandroOltramari, Luc Schneider, ISTC-CNR):http://www.loa-cnr.it/Papers/DOLCE2.1-FOL.pdf29 Présentation d’outils d’annotation sémantique donnée faite au “2nd International Workshopon Enterprise and Networked Enterprises Interoperability”,ENEI’2006 – Vienna – September, 42006:http://www.loria.fr/~nacer/ENEI06/10-Invited-Talk.pdf30 Article publié le 4 avril 2008 sur le site internet JDN Solution :http://www.journaldunet.com/solutions/acteurs/classement/08/bpms/0404-zachman.shtml31 Tiré de BPMS,2007.32 École de technologie supérieure Département de Génie logiciel et des TI de l’université UQAMde Montréal, « Document thématique OCL et MDA » :https://cours.ele.etsmtl.ca/academique/mgl/mgl806/Cours/Theme06_OCL.pdf33 Page 45
  • Voir l’article: “Using Business Process Re-engineering (BPR) for the Effective Administration ofElectronic Voting”,rédigé par Alexandros Xenakis et Ann Macintosh, InternationalTeledemocracy Centre, Napier University, Edinburgh Scotland UK:http://www.ejeg.com/volume-3/vol3-iss2/XenakisAlexandrosandMacintoshAnn.pdf34 Article paru sur le site Pcimpact le 10 avril 2005 :http://www.pcinpact.com/actu/news/La_carte_didentite_garante_des_formats_PDF_en_Belg.htm35 « E-gouvernement 2.0 »,Gemalto, septembre 2007 :http://www.gemalto.com/brochures/download/wp-egov2_0_fr.pdf Page 46