La solution Hitachi Data Ingestor (HDI) propose un accès normalisé CIFS, NFS et FTP intégrée aux annuaires Active Directory (AD) et Lightweight Directory Access Protocol (LDAP). HDI se présente comme un serveur de fichiers standard, c’est-à-dire une solution NAS Fichier, mais avec une spécificité, puisque HDI synchronise les fichiers vers la solution Hitachi Content Platform (HCP). HDI se comporte comme un périphérique réseau (LAN et WAN) du HCP dans une architecture Remote Office Branch Office (ROBO), favorisant la protection automatisée et le partage multi-sites intégré Cloud Storage.
Hitachi File & Content Solutions - HCP est le portail Cloud Storage de vos données partagées primaires et d’archivage. Information produit sur le fonctionnel et les capacités de gestion d'un Stockage Objet ou Object Storage.
La solution Hitachi Content Platform (HCP, anciennement nommé Hitachi Content Archive Platform - HCAP) a fortement évoluée depuis 2006. D’une solution orientée principalement Archivage à Valeur Probatoire, HCP est devenu une solution Cloud Storage, tout en conservant ses fonctionnels guidés par l’intégrité, la conservation, la pérennité et la gestion des rétentions sur les données et les métadonnées.
Hitachi Content Platform AnyWhere (HCP AW) est une réponse, matérielle et logicielle (tout-en-un), aux nouvelles préoccupations de partages sécurisés de fichiers, dans un cadre moderne de Cloud Storage privé. Au même titre que les solutions grand public, l’entreprise a désormais sa solution automatisée prête à l’emploi et le choix du lieu d’hébergement du site principal et du ou des sites de redondance.
Le stockage des données a toujours été une des problématiques les plus difficiles à maitriser. L’augmentation massive de la quantités de données disponibles, le phénomène Big Data, incite les sociétés à moderniser leur environnement décisionnel. Dès lors, beaucoup se posent la question du choix entre SQL et NoSQL. Microsoft, avec son offre SQL Server Parallel Data Warehouse 2012 réconcilie le meilleur des technologies actuelles. Un seul moto ‘Insights on Any Data of Any Size’
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3lnhMel
Découvrez la Data Virtualization lors d'un atelier organisé à distance pour les professionnels de la donnée le 26 novembre. Quel que soit votre rôle, responsables IT, architectes, data scientists, analystes ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Les solutions Hitachi NAS sont exclusivement orientées service de données en réseau IP, avec 3 déterminants forts : performance, volumétrie et Cloud. Il s’agit d’aller au-delà de la commodité des standards de partage CIFS/NFS/FTP, en proposant de passer les limites en taille de volume partagé (32 Po), en nombre de fichiers (16 millions par répertoire), en performance (SPECsfs) et en externalisation (S3 et HTTPs).
Hitachi File & Content Solutions - HCP est le portail Cloud Storage de vos données partagées primaires et d’archivage. Information produit sur le fonctionnel et les capacités de gestion d'un Stockage Objet ou Object Storage.
La solution Hitachi Content Platform (HCP, anciennement nommé Hitachi Content Archive Platform - HCAP) a fortement évoluée depuis 2006. D’une solution orientée principalement Archivage à Valeur Probatoire, HCP est devenu une solution Cloud Storage, tout en conservant ses fonctionnels guidés par l’intégrité, la conservation, la pérennité et la gestion des rétentions sur les données et les métadonnées.
Hitachi Content Platform AnyWhere (HCP AW) est une réponse, matérielle et logicielle (tout-en-un), aux nouvelles préoccupations de partages sécurisés de fichiers, dans un cadre moderne de Cloud Storage privé. Au même titre que les solutions grand public, l’entreprise a désormais sa solution automatisée prête à l’emploi et le choix du lieu d’hébergement du site principal et du ou des sites de redondance.
Le stockage des données a toujours été une des problématiques les plus difficiles à maitriser. L’augmentation massive de la quantités de données disponibles, le phénomène Big Data, incite les sociétés à moderniser leur environnement décisionnel. Dès lors, beaucoup se posent la question du choix entre SQL et NoSQL. Microsoft, avec son offre SQL Server Parallel Data Warehouse 2012 réconcilie le meilleur des technologies actuelles. Un seul moto ‘Insights on Any Data of Any Size’
Discovery Session France: Atelier découverte de la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3lnhMel
Découvrez la Data Virtualization lors d'un atelier organisé à distance pour les professionnels de la donnée le 26 novembre. Quel que soit votre rôle, responsables IT, architectes, data scientists, analystes ou CDO, vous découvrirez comment la Data Virtualization permet de livrer des données en temps réel et accéder à tout type de source de données pour en tirer de la valeur.
Les solutions Hitachi NAS sont exclusivement orientées service de données en réseau IP, avec 3 déterminants forts : performance, volumétrie et Cloud. Il s’agit d’aller au-delà de la commodité des standards de partage CIFS/NFS/FTP, en proposant de passer les limites en taille de volume partagé (32 Po), en nombre de fichiers (16 millions par répertoire), en performance (SPECsfs) et en externalisation (S3 et HTTPs).
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsJoseph Glorieux
Présentation de ma session à l'USI 2013 : www.usievents.com
Les principes des architectures décisionnelles ont... 20 ans.
Si on peut leur souhaiter de vivre aussi longtemps que le mainframe, il va être nécessaire de s’adapter à un contexte riche en changement :
- L'explosion de la volumétrie, des usages, de la diversité, l'instantanéité, bref Big Data
- La réduction du time to market dans un contexte de baisse du budget
- La volonté d'indépendance des utilisateurs et des métiers
- Le raz de marée apporté par de nouveaux paradigmes et solutions (NoSQL, in memory, dataviz, R....)
Ce que je propose donc dans cette session c'est un petit guide de survie en 7 points touchant aussi bien à l'architecture, qu'aux pratiques de développements ou à l'organisation.
Mon objectif est de redonner de l'espoir, ou au moins de faire persister encore quelques années les systèmes d'information décisionnels afin de fêter les noces de perles !!
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...Modern Data Stack France
Hadoop User Group du lundi 6 oct 2014:
Talk #3: Administration Hadoop et retour d’expérience BI avec Impala, limites et recommandations par Abed Ajraou et Cherif Tifrani de Solocal (Pages Jaunes).
La plateforme logicielle BlueData EPIC™ simplifie, accélère et rend plus rentable le déploiement d’infrastructures et d’applications Big Data telles que Hadoop, Spark, Kafka, Cassandra, et plus, dans l’infrastructure locale ou dans le cloud public.
Hitachi Data Systems décline sa proposition pour le Big Data via une solution Software-Defined Data Center (SDDC), nommée Hyper Scale-out Platform (HSP). Elle assure une orchestration des Services de calcul, réseau et stockage, avec des technologies Open Source de machines virtuelles (KVM) et un système distribué Hadoop (HDFS).
Avec UCP pour SAP HANA, HSP est une autre réponse Hitachi dédiée à l’Analytique. L’acquisition de Pentaho par HDS accompagne cette stratégie de délivrer au-delà du simple matériel. La solution Pentaho est intégrée au HSP, afin de bâtir une solution logicielle et matérielle complète et d'accompagner la transformation digitale des entreprises au plus proche de leur Métier.
Déployer et valider un environnement de traitement orienté Big Data sur des solutions Open Source est une tâche complexe, longue, plus couteuse qu'on ne le croit et peu valorisante au regard du métier. HSP répond à cette problématique à travers des composants logiciels et matériels certifiés et maintenus, assurant une meilleure disponibilité vers la réalisation d’un projet piloté par les décisionnaires des projets et les propriétaires des données.
La finalité de la solution HSP est d’être au service des besoins de l’entreprise en traitements analytiques. Au sein de la solution, Hitachi développe et déploie des technologies pour assurer des services nécessitant de haute performance, en partant de l’ingestion multi flux jusqu'à la restitution visuelle des données. Cette gestion évoluée permet de construire des solutions basées sur la recherche, la corrélation et la mise en perspective de flux important d’information dans un cadre temps réel.
Démo des nouvelles versions Dynamics CRM, L'utilisateur au centre des innovat...Microsoft Décideurs IT
Venez découvrir les toutes dernières nouveautés de Microsoft Dynamics CRM : Nouvelle ergonomie, s-commerce, collaboration via Skype et Yammer, Mobilité, BI dernière génération, Apps, ... Les innovations au service des usages métiers
Les nouveautés stockage dans Windows Server 2012 R2Microsoft
Les nouveautés des composants stockage dans l’édition Windows Server 2012 R2 ont pour objectif de rendre les déploiements encore plus évolutifs mais également de simplifier les déploiements d’Hyper-V et d’en améliorer les performances et la disponibilité. Microsoft renforce ainsi sa stratégie de Cloud OS visant à permettre aux entreprises de consommer les technologies serveurs dans une typologie de déploiement Cloud. Dans le cadre de cette session, la plupart de ces nombreuses améliorations ou nouveautés seront abordées et sera démontré comment la déduplication, Automated Storage Tiering, Storage Spaces, le nouveau format VHDX ou encore la cible iSCSI permettent de déployer de puissantes infrastructures. Certaines de ces composants introduits avec Windows Server 2012 ont été largement améliorés qui rendent ainsi les composants stockage de cette édition à un haut niveau de maturité et de fonctionnalités.
Speakers : Christophe Dubos (Microsoft), Cédric Georgeot (Sogeti), Pierre Chesné (Microsoft)
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigDataMarc Bojoly
Big Data, MapReduce, calculs distribués, sont autant de buzz words et de concepts cantonnés jusqu’à maintenant à quelques acteurs spécifiques. Pourtant, il est un état de fait : nous sommes assis sur une quantité gigantesque de données dont il est difficile d’extraire l’information… D’autre part MapReduce est une solution éprouvée pour analyser d’énormes quantités de données (ou Big Data). Elle a, par exemple, été mise en œuvre par Google pour indexer le web, par LinkedIn pour calculer ses campagnes d’email… Dans ces conditions, ces concepts ont-ils un intérêt dans nos SI ? Quel est le niveau de maturité de ces solutions ? Cet atelier, co-organisé par OCTO Technology (www.octo.com) et Plaform (www.platform.com), démontrera que de telles solutions font sens dans nos projets SI. - See more at: http://blog.octo.com/petit-dejeuner-mapreduce-la-revolution-dans-lanalyse-des-bigdata-le-27-septembre/#sthash.GvRo8gOQ.dpuf
Big Data : Hadoop
- Généralité
- Architecture HDFS
- Algorithme MapRduce
- Architecture YARN
- Hadoop v3.x vs Hadoopv2.x
Cours Big Data - Chap2 - GI3 - ENIS
Big Data ou comment retrouver une aiguille dans une botte de foinPALO IT
Un parc informatique d’un millier de machines génère de nombreux Terra Octets de logs. Comment parvenir à y retrouver une information pertinente et comment valoriser les informations contenues dans ces logs ?
Au programme :
- La centralisation des logs : back to basics;
- Cas pratiques : détection d’attaques DoS et refacturation sur plateforme mutualisée;
- Une grille Hadoop : en quoi ça consiste ?
Afin de favoriser l'utilisation HCP par des utilisateurs finaux et augmenter les capacités fonctionnelles du HCP, l’environnement logiciel SEAL, pour Secure Electronic Archive Library, complète HCP par un Portail Web multi langues dédié à l’archivage électronique de documents. SEAL n’est pas une GED, mais propose une interface Content Management Interoperability Services (CMIS) pour assurer une interaction standardisée avec ce type d’applications : CRM, ECM, ERP, etc. L’accessibilité au portail SEAL est réalisée par l’intermédiaire d’un navigateur Web standard. La gestion de comptes est permise à travers un annuaire externe (AD et LDAP). Des comptes de niveaux Administrateur et Audit finalisent la gérance de l’ensemble.
USI 2013 : 7 changements nécessaires pour sauver vos SI décisionnelsJoseph Glorieux
Présentation de ma session à l'USI 2013 : www.usievents.com
Les principes des architectures décisionnelles ont... 20 ans.
Si on peut leur souhaiter de vivre aussi longtemps que le mainframe, il va être nécessaire de s’adapter à un contexte riche en changement :
- L'explosion de la volumétrie, des usages, de la diversité, l'instantanéité, bref Big Data
- La réduction du time to market dans un contexte de baisse du budget
- La volonté d'indépendance des utilisateurs et des métiers
- Le raz de marée apporté par de nouveaux paradigmes et solutions (NoSQL, in memory, dataviz, R....)
Ce que je propose donc dans cette session c'est un petit guide de survie en 7 points touchant aussi bien à l'architecture, qu'aux pratiques de développements ou à l'organisation.
Mon objectif est de redonner de l'espoir, ou au moins de faire persister encore quelques années les systèmes d'information décisionnels afin de fêter les noces de perles !!
Hug france - Administration Hadoop et retour d’expérience BI avec Impala, lim...Modern Data Stack France
Hadoop User Group du lundi 6 oct 2014:
Talk #3: Administration Hadoop et retour d’expérience BI avec Impala, limites et recommandations par Abed Ajraou et Cherif Tifrani de Solocal (Pages Jaunes).
La plateforme logicielle BlueData EPIC™ simplifie, accélère et rend plus rentable le déploiement d’infrastructures et d’applications Big Data telles que Hadoop, Spark, Kafka, Cassandra, et plus, dans l’infrastructure locale ou dans le cloud public.
Hitachi Data Systems décline sa proposition pour le Big Data via une solution Software-Defined Data Center (SDDC), nommée Hyper Scale-out Platform (HSP). Elle assure une orchestration des Services de calcul, réseau et stockage, avec des technologies Open Source de machines virtuelles (KVM) et un système distribué Hadoop (HDFS).
Avec UCP pour SAP HANA, HSP est une autre réponse Hitachi dédiée à l’Analytique. L’acquisition de Pentaho par HDS accompagne cette stratégie de délivrer au-delà du simple matériel. La solution Pentaho est intégrée au HSP, afin de bâtir une solution logicielle et matérielle complète et d'accompagner la transformation digitale des entreprises au plus proche de leur Métier.
Déployer et valider un environnement de traitement orienté Big Data sur des solutions Open Source est une tâche complexe, longue, plus couteuse qu'on ne le croit et peu valorisante au regard du métier. HSP répond à cette problématique à travers des composants logiciels et matériels certifiés et maintenus, assurant une meilleure disponibilité vers la réalisation d’un projet piloté par les décisionnaires des projets et les propriétaires des données.
La finalité de la solution HSP est d’être au service des besoins de l’entreprise en traitements analytiques. Au sein de la solution, Hitachi développe et déploie des technologies pour assurer des services nécessitant de haute performance, en partant de l’ingestion multi flux jusqu'à la restitution visuelle des données. Cette gestion évoluée permet de construire des solutions basées sur la recherche, la corrélation et la mise en perspective de flux important d’information dans un cadre temps réel.
Démo des nouvelles versions Dynamics CRM, L'utilisateur au centre des innovat...Microsoft Décideurs IT
Venez découvrir les toutes dernières nouveautés de Microsoft Dynamics CRM : Nouvelle ergonomie, s-commerce, collaboration via Skype et Yammer, Mobilité, BI dernière génération, Apps, ... Les innovations au service des usages métiers
Les nouveautés stockage dans Windows Server 2012 R2Microsoft
Les nouveautés des composants stockage dans l’édition Windows Server 2012 R2 ont pour objectif de rendre les déploiements encore plus évolutifs mais également de simplifier les déploiements d’Hyper-V et d’en améliorer les performances et la disponibilité. Microsoft renforce ainsi sa stratégie de Cloud OS visant à permettre aux entreprises de consommer les technologies serveurs dans une typologie de déploiement Cloud. Dans le cadre de cette session, la plupart de ces nombreuses améliorations ou nouveautés seront abordées et sera démontré comment la déduplication, Automated Storage Tiering, Storage Spaces, le nouveau format VHDX ou encore la cible iSCSI permettent de déployer de puissantes infrastructures. Certaines de ces composants introduits avec Windows Server 2012 ont été largement améliorés qui rendent ainsi les composants stockage de cette édition à un haut niveau de maturité et de fonctionnalités.
Speakers : Christophe Dubos (Microsoft), Cédric Georgeot (Sogeti), Pierre Chesné (Microsoft)
Petit-déjeuner MapReduce-La révolution dans l’analyse des BigDataMarc Bojoly
Big Data, MapReduce, calculs distribués, sont autant de buzz words et de concepts cantonnés jusqu’à maintenant à quelques acteurs spécifiques. Pourtant, il est un état de fait : nous sommes assis sur une quantité gigantesque de données dont il est difficile d’extraire l’information… D’autre part MapReduce est une solution éprouvée pour analyser d’énormes quantités de données (ou Big Data). Elle a, par exemple, été mise en œuvre par Google pour indexer le web, par LinkedIn pour calculer ses campagnes d’email… Dans ces conditions, ces concepts ont-ils un intérêt dans nos SI ? Quel est le niveau de maturité de ces solutions ? Cet atelier, co-organisé par OCTO Technology (www.octo.com) et Plaform (www.platform.com), démontrera que de telles solutions font sens dans nos projets SI. - See more at: http://blog.octo.com/petit-dejeuner-mapreduce-la-revolution-dans-lanalyse-des-bigdata-le-27-septembre/#sthash.GvRo8gOQ.dpuf
Big Data : Hadoop
- Généralité
- Architecture HDFS
- Algorithme MapRduce
- Architecture YARN
- Hadoop v3.x vs Hadoopv2.x
Cours Big Data - Chap2 - GI3 - ENIS
Big Data ou comment retrouver une aiguille dans une botte de foinPALO IT
Un parc informatique d’un millier de machines génère de nombreux Terra Octets de logs. Comment parvenir à y retrouver une information pertinente et comment valoriser les informations contenues dans ces logs ?
Au programme :
- La centralisation des logs : back to basics;
- Cas pratiques : détection d’attaques DoS et refacturation sur plateforme mutualisée;
- Une grille Hadoop : en quoi ça consiste ?
Afin de favoriser l'utilisation HCP par des utilisateurs finaux et augmenter les capacités fonctionnelles du HCP, l’environnement logiciel SEAL, pour Secure Electronic Archive Library, complète HCP par un Portail Web multi langues dédié à l’archivage électronique de documents. SEAL n’est pas une GED, mais propose une interface Content Management Interoperability Services (CMIS) pour assurer une interaction standardisée avec ce type d’applications : CRM, ECM, ERP, etc. L’accessibilité au portail SEAL est réalisée par l’intermédiaire d’un navigateur Web standard. La gestion de comptes est permise à travers un annuaire externe (AD et LDAP). Des comptes de niveaux Administrateur et Audit finalisent la gérance de l’ensemble.
Une description de X-DB Modernize, qui est au coeur du module de Modernisation de bases de données de X-Analysis. X-DB Modernize assure la conversion de DDS à DDL en entier, en plus de fournir une gamme complète d’options pour profiter des technologies de bases de données modernes dans l’environnement IBM i.
Petit-déjeuner OCTO : Hadoop, plateforme multi-tenant, à tout d'une grande !OCTO Technology
Hadoop, initialement conçu pour traiter les (très) gros batchs, a été victime de son succès : il s'affirme de plus en plus comme la plateforme à tout faire du Big Data. On lui demande désormais de supporter plusieurs utilisateurs, les traitements interactifs, la ségrégation ou le partage de données entre entité, et, évidemment... la sécurité qui va avec ces nouveaux usages !
D'une solution de geeks, Hadoop est devenu une plateforme business stratégique pour les entreprises.
Pour aller chatouiller des Oracle ou des Teradata sur leur terrain, Hadoop a dû muscler son jeu avec de nouvelles fonctionnalités.
Ce petit déjeuner est l'occasion de faire un point sur les dernières évolutions d'Hadoop, l'état de l'art de sa mise en oeuvre chez nos clients, et sur les éléments clés de la roadmap des principales distributions.
Simplifier la mise en place d'une stratégie Data Mesh avec DenodoDenodo
Watch full webinar here: https://bit.ly/3EbMWSe
Le Data Mesh est un nouveau paradigme, essentiel pour la gestion des données aujourd’hui, par une approche distribuée et décentralisée, dans lequel des domaines autonomes exposent leurs propres données en tant que "produits" au reste de l'organisation. Pourquoi mettre en place un Data Mesh ? Le Data Mesh tente de réduire les goulots d'étranglement dus à une dépendance excessive des utilisateurs à des équipes informatiques centralisées, et tire parti des connaissances spécialisées en matière de données que possèdent déjà les experts métier du domaine.
La littérature sur le Data Mesh laisse la mise en œuvre de ces idées très ouverte à chaque organisation ; plus qu'une architecture figée ou une technologie attitrée, c'est une méthode d'organisation pragmatique. Le Data Mesh peut être considéré comme la face organisationnelle des architectures techniques du Data Fabric.
Participez à ce webinar pour en savoir plus sur :
- Les idées clés du Data Mesh et du Data Fabric
- Comment Denodo peut vous aider à mettre en œuvre un Data Mesh
- Comment nos clients utilisent Denodo pour passer de la théorie à la pratique
Le Big Data offre la capacité de traiter des volumes de données conséquents à l’aide d’architectures techniques nouvelles, comment les utilisateurs traditionnels (datamanager, datasteward, dataminers) accèderont et traiteront les données dans ces nouvelles architectures ?
1. Hitachi Data Ingestor
Service de
Fichiers en
architecture
Edge & Core
La solution Hitachi Data Ingestor (HDI) propose un accès normalisé
CIFS, NFS et FTP intégrée aux annuaires Active Directory (AD) et
Lightweight Directory Access Protocol (LDAP). HDI se présente comme
un serveur de fichiers standard, c’est-à-dire une solution NAS Fichier,
mais avec une spécificité, puisque HDI synchronise les fichiers vers la
solution Hitachi Content Platform (HCP). HDI se comporte comme un
périphérique réseau (LAN et WAN) du HCP dans une architecture
Remote Office Branch Office (ROBO), favorisant la protection
automatisée et le partage multi-sites intégré Cloud Storage.
L’objectif principal est de répondre à la problématique de mise à
disposition d’espaces de stockage NAS au plus près de sites répartis,
tout en assurant une protection complète : sauvegarde et
disponibilité. Ainsi, la solution HDI est interfacée nativement à la
solution HCP, en proposant un fonctionnel moderne de partage de
fichiers CIFS et NFS, mais en assurant une protection transparente,
intégrée et cohérente, par copie dynamique des modifications vers un
espace sécurisé (Tenant/Namespace) et centralisé d’une solution HCP,
assurant tous les services de compression, déduplication, réplication,
historisation des fichiers et de volumétrie de plusieurs dizaines de Po.
En tant que solution périphérique, HDI offre aux utilisateurs distribués une solution de stockage
évolutive, auto-sécurisée. Présentant un faible encombrement, HDI envoie, via HTTPS, les
données vers une infrastructure centrale, en utilisant des fonctions avancées du stockage.
Cette solution permet aux entreprises de réduire les coûts et la complexité engendrés par la
fourniture de services IT à des sites ou à des utilisateurs géographiquement dispersés.
Stockage Elastique et Autoprotection des Données
Avec Hitachi Data Ingestor, l’entreprise n'a plus besoin de sauvegarder ses volumes périphériques
réseau, car tous les fichiers sont synchronisés sur le HCP. HDI est un stockage élastique quasi illimité,
tant du point de vue des utilisateurs que de celui des applications. Il procède en effet au déplacement
automatique du contenu, de son cache disque interne vers HCP, augmentant ainsi la capacité de
stockage de nouveau contenu. Il permet d'abaisser les temps et les coûts de gestion en éliminant la
nécessité de gérer la capacité, le taux d'utilisation, les performances du système et la sauvegarde.
Par défaut, HDI embarque un mécanisme d’encryption et assure des transferts sécurisés vers HCP. De
base, HCP embarque aussi un fonctionnel d’encryption, pour la protection des contenus, mais aussi des
services de Réplication (bidirectionnel, cascade, etc.), de multi-copies (DPL) et de Versioning. Ces services
sont activés sur une partie ou la totalité des données au regard de politiques de protection automatique.
Une fois un fichier déplacé de HDI vers le HCP, il est remplacé par un lien qui permet aux utilisateurs ou
aux applications d'y accéder de manière transparente, quelle que soit la localisation physique du HCP. En
cas de déplacement des utilisateurs sur les sites possédant un HDI, les données du Home-Dir sont
accessibles en lecture/écriture.
Étroitement intégré avec Hitachi Content Platform, Hitachi Data Ingestor utilise le protocole
HTTPS pour déplacer des données, en toute sécurité, sur des réseaux locaux ou étendus.
Cette association HDI et HCP répond parfaitement aux besoins en termes de prise en charge
des données non structurées des modèles informatiques distribués tels que les bureaux
distants et les succursales ou les fournisseurs de services Cloud.
HDI se comporte comme une solution multi-classes : il déplace ses fichiers résidents vers le
HCP et crée des liens vers ces derniers. HDI est aussi capable de migrer sans interruption de
service les données de vos anciens serveurs de fichiers vers ses volumes.
2. Hitachi Data Ingestor, principales innovations
Simplification
En fonction des attentes de l’entreprise, HDI est disponible en 4 modèles Serveur : unique (Single),
cluster Appliance, cluster DiskLess et Virtual Machine Appliance (VMA : image VMware).
HDI ne nécessite pas une administration évoluée, en effet, à l’exception de la définition standard des
partages réseau, aucune spécificité n’est requise. La liaison HTTPs avec un ou plusieurs HCP est
assurée directement par le système interne du HDI. Le cache disque assure un accès direct aux
données récentes, même en cas de coupure réseau avec le HCP.
Au-delà du seuil d’espace libre de la volumétrie interne ou d’une règle de transfert paramétrable
(type de fichier, répertoire cible, …), les informations sont rapatriées automatiquement (recall) et de
manière transparente, pour les utilisateurs ou les applications.
La configuration d’un HDI est aussi sauvegardée dans le HCP. Après remplacement physique d’un HDI,
sa configuration est rapatriée directement depuis le HCP. Les fichiers le sont en fonction des accès
utilisateurs et des règles de classification. L’ensemble Données et Configuration est donc sécurisé
dans un HCP qui assure les redondances nécessaires à une protection optimale et complète.
Evolutivité et Performance
Via son cache disque, la solution Hitachi Data Ingestor garantit une disponibilité directe jusqu’à 400
millions de fichiers. Sans atteindre les performances de la solution HNAS, chaque HDI assure un niveau
de performance réseau digne des principaux besoins en partage réseau CIFS et NFS, pour une
structure d’entreprise jusqu’à 12 000 connections clientes CIFS, pour une configuration HDI Single.
Il est ensuite permis d’associer plusieurs plates-formes HDI à un HCP, afin d’assurer un accès via
plusieurs sites et d’augmenter les capacités d’un site important. Les limites du nombre d’HDI et de la
volumétrie globale sont celles du HCP, c’est-à-dire jusqu’à 80Po et 10 000 Namespaces. Un serveur
HDI est associé à un Tenant et un partage réseau d’un HDI correspond à un Namespace.
Optimisation du placement des informations
Par défaut et telle une sauvegarde classique, HDI procède à une copie régulière des données et
réalise, éventuellement, les remplacement des fichiers par des liens (Stub) vers un HCP. Cet
ordonnancement peut être étendu et favoriser des cycles plus important de sauvegardes. La garantie
d’une cohérence des données est réalisée par une procédure équivalente à un Snapshot local, afin de
figer un état des fichiers avant leur copie.
Tant que le volume de données ne dépasse pas un seuil paramétrable, les fichiers sont en
permanence présents dans le HDI et dupliqués vers le HCP. Le remplacement par un lien intervient
principalement pour les données anciennes non utilisées, non accédées ou liés à une politique. Le lien
assure une vue de présence (nom et attributs du fichier) auprès des utilisateurs et des applications,
ainsi qu’une liaison directe avec la solution HCP cible et, éventuellement, vers une solution HCP
servant de réplication.
Ainsi, même en cas d’indisponibilité de la solution centrale, la plate-forme HDI est à même de
s’adresser à un réplica.
Réduction des coûts
Comme Hitachi Data Ingestor, situé en périphérie, envoie des données à des structures HCP
centralisées, les environnements distribués deviennent moins dépendants vis-à-vis de leur stockage
local. Résultat : une baisse des coûts et de la complexité notamment associés à la gestion, à la
sauvegarde, à l'archivage et à la conformité (valeur probatoire).
La gestion de version sur les fichiers permet soit d’accéder aux anciennes données sans altération des
originaux, soit de réaliser une restauration partielle ou en totalité des fichiers. Les fichiers actuels et
passés sont tous enregistrés dans le HCP. Un équipement de sauvegarde est alors totalement inutile.
Placé dans les Data Center principaux, Hitachi Content Platform garantit protection, sécurité, fiabilité
des accès, conservation, conformité et respect des stratégies. La solution possède également une
multitude d'autres fonctions destinées à simplifier la gestion et à automatiser les processus
complexes. L'association d'Hitachi Data Ingestor et d'Hitachi Content Platform permet de maîtriser les
coûts de l'architecture distribuée au sein de l'environnement Cloud et d’en réduire les risques
inhérents.