Big Data, kesako ?
Upcoming SlideShare
Loading in...5
×
 

Like this? Share it with your network

Share

Big Data, kesako ?

on

  • 1,269 views

Christophe Aran, spécialiste de la BI nous présente le Big Data : ...

Christophe Aran, spécialiste de la BI nous présente le Big Data :

Du premier jour de l'humanité jusqu'à l'an 2003, les hommes ont produit quelque 5 millions de téraoctets de données. En 2012, deux jours suffisent pour produire la même quantité. Ces données proviennent de partout : de messages sur les médias sociaux, d'images et de vidéos publiées en ligne, d'enregistrements transactionnels d'achats en ligne, de signaux GPS de téléphones mobiles… pour ne citer que quelques sources. Ces données sont appelées Big Data ou volumes massifs de données.

Les sociétés du Web tels que Google, Facebook et Amazon ont investi massivement afin de gérer ces Big Data. En effet, leur survie en dépend. C’est ainsi qu’un ensemble de technologies open source et de concepts est né : MapReduce, Apache Hadoop, bases de données NoSQL,…

Qu’est-ce que le big Data et quels en sont les différents concepts ?
Comment utiliser ces technologies dans des applications opérationnelles ou décisionnelles ?
Pourquoi le Big Data ouvre-t-il de nouvelles perspectives ?
Est-ce une révolution technologique ou un effet de mode ?

Statistics

Views

Total Views
1,269
Views on SlideShare
1,253
Embed Views
16

Actions

Likes
1
Downloads
65
Comments
1

1 Embed 16

http://www.scoop.it 16

Accessibility

Categories

Upload Details

Uploaded via as Microsoft PowerPoint

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
  • Simple et clair !! Merci.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment
  • Présentation : Du premier jour de l'humanité jusqu'à l'an 2003, les hommes ont produit quelque 5 millions de téraoctets de données. En 2012, deux jours suffisent pour produire la même quantité. Ces données proviennent de partout : de messages sur les médias sociaux, d'images et de vidéos publiées en ligne, d'enregistrements transactionnels d'achats en ligne, de signaux GPS de téléphones mobiles… pour ne citer que quelques sources. Ces données sont appelées Big Data ou volumes massifs de données. Les sociétés du Web tels que Google, Facebook et Amazon ont investi massivement afin de gérer ces Big Data. En effet, leur survie en dépend. C’est ainsi qu’un ensemble de technologies open source et de concepts est né : MapReduce, Apache Hadoop, bases de données NoSQL,… Qu’est-ce que le big Data et quels en sont les différents concepts ? Comment utiliser ces technologies dans des applications opérationnelles ou décisionnelles ? Pourquoi le Big Data ouvre-t-il de nouvelles perspectives ? Est-ce une révolution technologique ou un effet de mode ?
  • http://www-01.ibm.com/software/fr/data/bigdata/ http://fr.slideshare.net/PhilippeJulio/big-data-architecture Définition du Big Data Chaque jour, nous générons 2,5 trillions d’octets de données. A tel point que 90% des données dans le monde ont été créées au cours des deux dernières années seulement. Ces données proviennent de partout : de capteurs utilisés pour collecter les informations climatiques, de messages sur les sites de médias sociaux, d'images numériques et de vidéos publiées en ligne, d'enregistrements transactionnels d'achats en ligne et de signaux GPS de téléphones mobiles, pour ne citer que quelques sources. Ces données sont appelées  Big Data ou volumes massifs de données. Le Big Data couvre trois dimensions : volume, vélocité et variété. Volume :  les entreprises sont submergées de volumes de données croissants de tous types, qui se comptent en téraoctets, voire en pétaoctets. Transformer les 12 téraoctets de Tweets créés quotidiennement en analyse poussée des opinions sur un produit Convertir les 350 milliards de relevés annuels de compteurs afin de mieux prédire la consommation d'énergie Vélocité :  parfois, 2 minutes c'est trop. Pour les processus chronosensibles tels que la détection de fraudes, le Big Data doit être utilisé au fil de l'eau, à mesure que les données sont collectées par votre entreprise afin d'en tirer le maximum de valeur. Scruter 5 millions d'événements commerciaux par jour afin d'identifier les fraudes potentielles Analyser en temps réel 500 millions d’enregistrements détaillés d’appels quotidiens Variété :  le Big Data se présente sous la forme de données structurées ou non structurées (texte, données de capteurs, son, vidéo, données sur le parcours, fichiers journaux, etc.). De nouvelles connaissances sont issues de l’analyse collective de ces données. Utiliser les centaines de flux vidéo des caméras de surveillance pour contrôler les points d'intérêt Tirer parti de la croissance de 80 % du volume de données image, vidéo et documentaires pour améliorer la satisfaction client Le Big Data va bien au-delà de la seule notion de volume : il constitue une opportunité d'obtenir des connaissances sur des types de données et de contenus nouveaux, afin de rendre votre entreprise plus agile et de trouver enfin une réponse aux questions laissées en suspens. Jusqu'à présent, il n'y avait aucun moyen d'exploiter cette opportunité. Aujourd'hui, la plateforme Big Data d'IBM a recours aux technologies les plus pointues et à des solutions d'analyse brevetées, afin d'ouvrir la porte à de nouvelles possibilités.
  • http://blog.inovia-conseil.fr/?p=46

Big Data, kesako ? Presentation Transcript

  • 1. Big Data, Kesako ?Christophe Aran, Consultant décisionnel Référence : ASO-XXX Version : 1.0 Du : 06/11/2012 www.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 2. Sommaire • Contexte actuel • Définition du Big Data • L’écosystème Hadoop • Les intérêts business du Big Data • Un cas concret : Karma chez Air France • Conclusionwww.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 3. Un déluge de données YouTube reçoit 24h de vidéo toutes les minutes 500 téraoctets de données transitent chaque jour sur Facebook 140 millions de tweets par jour 6 milliards de téléphones mobiles en activité en 2012 Des pics de 22 commandes à la seconde chez Spartoo pendant les soldeswww.groupeastek.com 90% des données créées dans le monde l’ont été au cours des 2 dernières années Modèle : ASO-2007-M_PPT-0012 v2.1
  • 4. Et une collecte de données incessantes Données commerciales • Transactions Informations Client • CRM • Dossiers médicaux Informations Produits • Codes barres • RFID Web • Pageswww.groupeastek.com • Journaux d’accès Informations non structurées • Réseaux sociaux • GPS • Mobile Modèle : ASO-2007-M_PPT-0012 v2.1
  • 5. Les limites des SGBD actuels Coût du stockage Scalabilité Performance Format des données Schémas figéswww.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 6. Le besoin Système qui peut gérer de gros volumes de données Scalable Robuste Haute disponibilité Economiquewww.groupeastek.com Nouvelle approche Modèle : ASO-2007-M_PPT-0012 v2.1
  • 7. Définition du Big Data « Le Big Data fait référence à lexplosion du volume des données dans lentreprise et des nouveaux moyens technologiques proposés par les éditeurs pour y répondre » Gartnerwww.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 8. Le concept des 3 V Volume Les entreprises sont submergées de Vitesse Parfois, 2 minutes cest trop. Pour la volumes de données croissants de détection de fraudes par exemple, le tous types, qui se comptent en Big Data doit être utilisé au fil de leau, téraoctets, voire en pétaoctets. à mesure que les données sont collectées par l’entreprise afin den tirer le maximum de valeur. Valeurwww.groupeastek.com Variété Le Big Data se présente sous la forme de données structurées ou non structurées (texte, données de capteurs, son, vidéo, fichiers journaux, etc.). Modèle : ASO-2007-M_PPT-0012 v2.1
  • 9. Hadoop, kesako ? Inspiré de publications Google (2004) Google Filesystem Google Map Reduce Créé par Doug Cutting, salarié chez Yahoo Framework Open Source écrit en Java Géré sous légide de la fondation Apache Communauté très active, développement rapide Un périmètre qui s’élargit constammentwww.groupeastek.com Orienté « batch » Modèle : ASO-2007-M_PPT-0012 v2.1
  • 10. L’écosystème Hadoopwww.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 11. HDFS Système de fichiers distribué Traitement de volumes de données considérables Découpage des fichiers par blocs Fonctionne sur des serveurs “low cost” (au minimum 3) Fault Tolerant Scalable NameNode : gestion des métadonnéeswww.groupeastek.com DataNode : stockage des données Modèle : ASO-2007-M_PPT-0012 v2.1
  • 12. Map Reduce Calcul distribué Input | Map() | Sort | Reduce() | Output JobTracker : gestion des jobs TaskTracker : exécution des tâches Map() et Reduce() sur chaque noeudwww.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 13. Cas pratique (1/2) : stockage dans le HDFS Notre fichier sera réparti en un ensemble de blocs répliqués dans les nœuds du HDFS. La réplication des blocs est configurable, dans notre exemple elle est de 3.www.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 14. Cas pratique (2/2) : comptage des motswww.groupeastek.com Parallélisation des traitements sur l’ensemble des nœuds du HDFS grâce à Map Reduce Modèle : ASO-2007-M_PPT-0012 v2.1
  • 15. Pig vs Hive Objectif commun : s’abstraire de la complexité de Map/Reduce PIG HIVE • Langage de script • Pseudo-SQL • Né chez Yahoo • Né chez Facebook • Flexible / simple • Rigide / Connu • ETL • Interrogation • Mise en œuvre UDF • JDBC / ODBCwww.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 16. Hbase et le NoSQL Montée en puissance du mouvement NoSQL Pour contourner les contraintes du modèle relationnel Pas de jointures, très flexible Forte scalabilité horizontale Une éclosion de différents paradigmes HBase Implémentation open source de Google BigTable Basé sur HDFS (non obligatoire) Base de données orientée colonneswww.groupeastek.com En concurrence avec Cassandra Modèle : ASO-2007-M_PPT-0012 v2.1
  • 17. Exemple : modélisation d’un fichier Achat Format : (Table, RowKey, Family, Column, Timestamp) -> Value Création d’une table : create ‘achat’, {NAME => ‘acheteur’}, {NAME => ‘produit’, {NAME => ‘achat’} Insertion d’une ligne : put ‘achat’, ‘1’, ‘acheteur:nom’, ‘MARIE’ put ‘achat’, ‘1’, ‘acheteur:type’, ‘particulier’ Suppression d’une ligne : delete achat, 1, achat:date‘ deleteall achat, 1 Lecture d’un enregistrement :www.groupeastek.com get achat, 1 get achat, 1, {COLUMN => produit:marque} Modèle : ASO-2007-M_PPT-0012 v2.1
  • 18. Et pour l’intégration au SI existant Sqoop • Import / Export de données • Import automatique • Prise en charge de nombreuses bases relationnelles Flume • Collecte de logs • Data streamingwww.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 19. La solution Big Data de Talend Lancement de Talend Open Studio for Big Data Simplification des développements Big Data • Environnement de développement graphique • Connecteurs Big Data prêts à l’emploi Depuis Octobre 2012, support des bases de données NoSQL et connecteurs disponibles pour : • HBasewww.groupeastek.com • Cassandra • MongoDB Modèle : ASO-2007-M_PPT-0012 v2.1
  • 20. Les intérêts business du Big Data Enfin un supercalculateur à la disposition de tous De nouveaux horizons jusque-là inexplorés • CRM : segmentation en exploitant les goûts et sentiments des clients/prospects récoltés sur les réseaux sociaux • Finance : contrôle en temps réel des transactions frauduleuses ou à risques • RH : exploitation des données LinkedIn (par exemple) pour anticiper la volonté de départ d’un collaborateur clé • Logistique : optimisation des flux de transport en temps réel en fonction du trafic routierwww.groupeastek.com • … Modèle : ASO-2007-M_PPT-0012 v2.1
  • 21. Un cas concret : Karma chez Air France Karma : Revenue Management AF/KLM Composants Hadoop utilisées • HDFS / Map Reduce / Sqoop / Pig • Développement en interne : scheduler + interface web Mise en Production courant 2013 Quelques chiffres : • Un cluster de 90 serveurs pour déployer Hadoop • 80 développeurs à Valbonne pour l’écriture des jobs MRwww.groupeastek.com • 130 jobs déjà développés, 400 d’ici 2 ans • 7h de traitement batch quotidien pour lancer les jobs MR et mettre à jour les bases Oracle • 300 analystes à Roissy pour analyser les données Modèle : ASO-2007-M_PPT-0012 v2.1
  • 22. Conclusion Un bol d’oxygène pour le traitement des données volumineuses et pour la BI en particulier Limites • Un écosystème évoluant très rapidement, nécessite encore du temps pour stabiliser les différents modules • Si les volumes sont faibles (inférieur à 10To), un SGBD classique suffira la plupart du temps A suivre • Google Dremel / Cloudera Impala / Apache Drillwww.groupeastek.com • Positionnement des éditeurs « traditionnels » • Google, futur acteur majeur de la BI ? • Un nouveau métier : Data Scientist Modèle : ASO-2007-M_PPT-0012 v2.1
  • 23. Pour plus d’informations http://hadoop.apache.org/ http://pig.apache.org/ http://hive.apache.org/ https://developers.google.com/bigquery/ http://code.google.com/edu/parallel/mapreduce- tutorial.htmlwww.groupeastek.com http://www.kimballgroup.com/html/articles.html : The Evolving Role of the Enterprise Data Warehouse in the Era of Big Data Analytics (Ralph Kimball) Modèle : ASO-2007-M_PPT-0012 v2.1
  • 24. Merci. Des questions ?www.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 25. Annexe 1 : un autre exemple Map Reduce Jeu de données : Algorithme MapReduce afin de sortir le nombre d’occurrences des mots constituant le texte :www.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1
  • 26. Annexe 2 : une architecture BI transforméewww.groupeastek.com Modèle : ASO-2007-M_PPT-0012 v2.1