SQL Saturday Bogota - Big Data HDInsight Server

  • 447 views
Uploaded on

En esta presentación vemos los conceptos de Big Data y cómo podemos integrar las herramientas de BI de SQL Server 2012 con Hadoop y con HDInsigth Server y con PowerPivot. …

En esta presentación vemos los conceptos de Big Data y cómo podemos integrar las herramientas de BI de SQL Server 2012 con Hadoop y con HDInsigth Server y con PowerPivot.

Saludos

Ing. Eduardo Castro
Microsoft SQL Server MVP

  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
No Downloads

Views

Total Views
447
On Slideshare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
0
Comments
0
Likes
2

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. #SQLSat247
  • 2. Ing. Eduardo Castro, PhD Microsoft SQL Server MVP ecastro@simsasys.com http://www.youtube.com/eduardocastrom Comunidad Windows Costa Rica Big Data HDInsight Explorando con Excel 2013
  • 3. Canal en YouTube  http://www.youtube.com /eduardocastrom
  • 4. Más detalles sobre Big Data  http://tinyurl.com/BigDataEduardoCastro
  • 5. Objetivos de la sesión  Qué es Big data  Introducción a HDInsight  Autoservicio de Inteligencia de Negocios (BI):  Excel 2013 PowerPivot  Excel 2013 Power View  Características de BI de Excel 2013  Creación de un solución de BI con Big Data BI dentro de Excel 2013
  • 6. Esquema  Introducción:  Big Data y Hadoop  HDInsight  PowerPivot en Excel 2013  Power View en Excel 2013  Modelaje de “Big Data” con PowerPivot:  Beneficios  Consideraciones  Demostraciones
  • 7. Introducción a Big Data y Hadoop Big data es una colección de conjuntos de datos tan grande y complejo que se vuelve difícil para trabajar con el uso de herramientas de gestión de base de datos tradicionales. Las dificultades incluyen la captura, almacenamiento, búsqueda, intercambio, análisis y visualización
  • 8. Qué es Big Data? Megabytes Gigabytes Terabytes Petabytes Purchase detail Purchase record Payment record ERP CRM WEB BIG DATA Offer details Support Contacts Customer Touches Segmentation Web logs Offer history A/B testing Dynamic Pricing Affiliate Networks Search Marketing Behavioral Targeting Dynamic Funnels User Generated Content Mobile Web SMS/MMSSentiment External Demographics HD Video, Audio, Images Speech to Text Product/Service Logs Social Interactions & Feeds Business Data Feeds User Click Stream Sensors / RFID / Devices Spatial & GPS Coordinates Incremento de variedad y cantidad de datos Transacciones + Interacciones + Observaciones = BIG DATA
  • 9. Procesamiento de datos y análisis: The Old Way
  • 10. La naturaleza cambiante del Big Data  Big Data tiene importantes cualidades distintivas que lo diferencian de los datos corporativos "tradicionales".  Los datos no son centralizadas, muy estructurados y de fácil manejo, ahora más que nunca los datos están muy dispersos, poco estructurados (o no tiene estructura en absoluto), y cada vez más con volúmenes más grandes
  • 11. La naturaleza cambiante del Big Data  Volumen - La cantidad de datos que han creado las empresas a través de  La web  Dispositivos móviles  Infraestructura de TI  y otras fuentes está creciendo exponencialmente cada año.
  • 12. La naturaleza cambiante del Big Data  Tipo - La variedad de tipos de datos es cada vez mayor,  No estructurados de datos basados ​​en texto  Datos semi-estructurados como los datos de los medios sociales  Los datos basados ​​en la localización  Datos de logs, ejemplo servidores Web
  • 13. La naturaleza cambiante del Big Data  Velocidad  La velocidad a la que se está creando nuevos datos  La necesidad de análisis en tiempo real para obtener valor de negocio de ella - es cada vez mayor gracias a la digitalización de las transacciones, la informática móvil y el gran número de usuarios de dispositivos de Internet y el móvil.
  • 14. Principales fuentes de datos  Redes sociales y medios de comunicación  700 millones de usuarios de Facebook, 250 millones de usuarios de Twitter y 156 millones de blogs públicos  Dispositivos móviles  Más de 5 mil millones de teléfonos móviles en uso en todo el mundo  Transacciones en Internet  miles de millones de compras en línea, operaciones de bolsa y otras transacciones ocurren todos los días  Dispositivos de red y sensores
  • 15. Big Data
  • 16. Casos en los cuales se utiliza Big Data  Parte de lo que hace Hadoop y otras tecnologías y enfoques Big Data es encontrar respuestas a preguntas que ni siquiera saben que preguntar.  Dar lugar a ideas que conducen a nuevas ideas de productos o ayudar a identificar formas de mejorar la eficiencia operativa.  Casos de uso ya identificadas para Big Data, tanto para los gigantes de internet como Google, Facebook y LinkedIn, y para la empresa más tradicional
  • 17. Casos en los cuales se utiliza Big Data  Sentiment Analysis  Utilizado junto con Hadoop, herramientas avanzadas de análisis de texto analizan el texto no estructurado de las redes sociales y mensajes de redes sociales  Incluyendo los Tweets y mensajes de Facebook, para determinar la confianza del usuario en relación con determinadas empresas, marcas o productos.  El análisis puede centrarse en el sentimiento a nivel macro hasta el sentimiento usuario individual.
  • 18. Casos en los cuales se utiliza Big Data  Modelado de riesgo  Las empresas financieras, bancos y otros utilizan Hadoop y Next Generation Data Warehouse para analizar grandes volúmenes de datos transaccionales para determinar el riesgo y la exposición de los activos financieros  Para preparar la posible "qué pasaría si" los escenarios basados ​​en el comportamiento del mercado simulado, y para puntuación de clientes potenciales por el riesgo.
  • 19. Casos en los cuales se utiliza Big Data  Motor de recomendación  Los minoristas en línea utilizan Hadoop para igualar y recomendar a los usuarios entre sí o con los productos y servicios basados ​​en el análisis del perfil de usuario y los datos de comportamiento.  LinkedIn utiliza este enfoque para potenciar su función de "la gente puede saber", mientras que Amazon utiliza para sugerir productos a la venta a los consumidores en línea.
  • 20. Casos en los cuales se utiliza Big Data  Detección de Fraude  Utilizar técnicas de Big Data para combinar el comportamiento del cliente, históricos y datos de transacciones para detectar la actividad fraudulenta.  Las compañías de tarjetas de crédito, por ejemplo, utilizan tecnologías de Big Data para identificar el comportamiento transaccional que indica una alta probabilidad de una tarjeta robada.
  • 21. Casos en los cuales se utiliza Big Data  Análisis de la campaña de marketing  Los departamentos de marketing a través de industrias han utilizado durante mucho tiempo la tecnología para monitorear y determinar la efectividad de las campañas de marketing.  Big Data permite a los equipos de marketing para incorporar mayores volúmenes de datos cada vez más granulares, como los datos de click-stream y registros detallados de llamadas, para aumentar la precisión de los análisis.
  • 22. Casos en los cuales se utiliza Big Data  Análisis Social Graph  Junto con Hadoop los datos de redes sociales se extraen para determinar qué clientes representan la mayor influencia sobre los demás dentro de las redes sociales.  Esto ayuda a determinar las empresas que son sus clientes "más importantes", que no siempre son los que compran la mayoría de los productos o de los que más gastan, pero los que tienden a influir en el comportamiento de compra de la mayoría de los demás.
  • 23. Casos en los cuales se utiliza Big Data  Customer Experience Analytics  Empresas orientadas al consumidor utilizan Hadoop y tecnologías relacionadas con Big Data para integrar los datos de antes silos canales de interacción con clientes  Tales como centros de llamadas, chat en línea, Twitter, etc, para obtener una visión completa de la experiencia del cliente.
  • 24. Next Generation Data Warehouse  Características de los almacenes de datos de próxima generación
  • 25. Next Generation Data Warehouse  Procesamiento paralelo masivo, o MPP  Emplean el procesamiento paralelo masivo, o MPP, que permite la carga, el procesamiento y la consulta de datos en varias máquinas simultáneamente.  Resultado es un rendimiento significativamente más rápido que los almacenes de datos tradicionales que se ejecutan en una sola caja, grande y están limitados por un solo punto de procesamiento http://blog.treasure-data.com/post/30398632865/five-criteria-of-next-generation-data-warehouse
  • 26. Next Generation Data Warehouse  Arquitecturas compartido-nada  Una arquitectura de no compartición asegura que no hay un único punto de fallo en la generación de entornos de almacenamiento de datos siguientes.  Cada nodo funciona de manera independiente de los otros por lo que si una máquina falla, los otros siguen funcionando  Aprovechamos Hadoop MapReduce se ejecuta en HDInsight para procesar los trabajos de nuestros clientes
  • 27. Next Generation Data Warehouse  Arquitecturas columnares  En lugar de almacenamiento y procesamiento de datos en filas, como es típico con bases de datos relacionales más, la mayoría de los almacenes de datos Next Generation emplean arquitecturas columnares  Esto también significa que los datos no tienen que ser estructurados en tablas ordenadas como las bases de datos relacionales tradicionales
  • 28. Next Generation Data Warehouse  Avanzadas funciones de compresión de datos  Las capacidades de compresión de datos avanzadas permiten ingerir y almacenar grandes volúmenes de datos que de otra manera posible y lo hacen con muchos menos recursos de hardware que las bases de datos tradicionales  Un almacén con 10-a-1 capacidades de compresión, por ejemplo, puede comprimir 10 terabytes de datos hacia abajo a 1 terabyte
  • 29. Next Generation Data Warehouse  Hardware de productos básicos  Basados en Clústers de Hadoop, la mayoría de los almacenes de datos Next Generation se ejecutan en hardware comercial off-the-shelf para que puedan escalar de salida en un costo manera eficaz
  • 30. Nuevos Enfoques para el procesamiento y análisis de datos grandes  Hay varios métodos para procesar y analizar grandes volúmenes de datos, pero la mayoría tienen algunas características comunes  Hadoop  NoSQL  Bases de datos analíticos masivamente paralelo
  • 31. Nuevos Enfoques para el procesamiento y análisis de datos grandes
  • 32. Introducción a Big Data y Hadoop  Big data se enfrenta a complejidades de alto volumen, la velocidad y la variedad de los datos  Apache Hadoop, es un conjunto de proyectos de código abierto que transforman el hardware tradicional en un servicio que puede:  Almacenar petabytes de información  Permite procedamiento distribuido  Principales atributos:  Redundante y confiable (no se pierden datos)  Centrado en el análisis por lotes  Facilidad de crear aplicaciones y procesamiento distribuido  Ejecuta en cualquier hardware
  • 33. Componentes de Hadoop  Hadoop Distributed File System (HDFS): La capa de almacenamiento por defecto en cualquier clúster Hadoop dado;  Nombre de nodo: El nodo de un clúster Hadoop que proporciona la información del cliente en lugar del grupo de datos en particular se almacenan y si los nodos fallan;  Nodo secundario: Una copia de seguridad con el nombre de nodo, se replica periódicamente y almacena los datos del nombre de nodo debe fallar;  Job Tracker: El nodo de un clúster Hadoop que inicia y coordina trabajos MapReduce, o el tratamiento de los datos.  Los nodos esclavos: Los gruñidos de cualquier Hadoop clúster, los nodos esclavos almacenan datos y tomar la dirección de procesarlo desde el gestor de trabajo.
  • 34. Arquitectura de Hardware
  • 35. Arquitectura de Software
  • 36. Hadoop Distributed Architecture
  • 37. MapReduce: Mover Código a los Datos
  • 38. Cómo trabaja?
  • 39. Windows HADOOP  2 Versiones  Cloud  Azure Service  On Permise  Integración con el Hadoop File System with Active Directory  Integración con BI  Herramientas de integración  Sqoop  Integración con SQL Server
  • 40. Introducción a HDInsight  HDInsight es una implementación de Microsoft 100% compatible con la distribución de Apache Hadoop  Disponible tanto para Windows Server y como un servicio Windows Azure  Permite que las empresas analicen datos no estructurados con herramientas bien conocidas tales como Excel
  • 41. Windows Azure HDInsight Service Query & Metadata: Data Movement: Workflow: Monitoring:
  • 42. Windows Azure HDInsight Service
  • 43. HADOOP PARA WINDOWS
  • 44. HDP para Windows Hortonworks Data Platform (HDP) For Windows 100% Open Source Enterprise Hadoop HORTONWORKS DATA PLATFORM (HDP) For Windows PLATFORM SERVICES HADOOP CORE Distributed Storage & Processing DATA SERVICES Store, Process and Access Data OPERATIONAL SERVICES Manage & Operate at Scale Manage & Operate at Scale Store, Process and Access Data Distributed Storage & Processing Enterprise Readiness
  • 45. DEMOSTRACIÓN CREACIÓN DE UN HADOOP CLUSTER
  • 46. ECOSISTEMA DE BIG DATA DE MICROSOFT
  • 47. Plataforma de Big Data Micrsooft
  • 48. Interoperatibilidad Integración con las herramientas de Análisis de Microsoft APPLICATIONSDATASYSTEMS Aplicaciones Microsoft HORTONWORKS DATA PLATFORM For Windows DATASOURCES MOBILE DATA OLTP, POS SYSTEMS Fuentes tradicionales (RDBMS, OLTP, OLAP) Nuevas Fuentes (web logs, email, sensor data, social media)
  • 49. Introducción a PowerPivot  PowerPivot permite que los usuarios creen modelos de datos de autoservicio con Excel  Se logra mediante una versión del lado del cliente de of SQL Server Analysis Services conocido como xVelocity In-Memory Analytics Engine  Puede almacenar de forma eficiente volúmenes de datos más grandes que las hojas típicas de Excel
  • 50. Introducción a PowerPivot  Una ventana se puede utilizar para cargar, explorar, relacionar y enriquecer datos con cálculos personalizados  Puede importar y relacionar datos de la empresa, datos locales, o distintos almacenes de datos  En el Excel 2013 Professional Plus edition, PowerPivot está instalado pero no habilitado
  • 51. Introducción a Power View  Power View una experiencia de exploración de datos, visualización y presentación  Experiencia centrada en la interacción  Interacción con metadatos  Permite que los usuarios creen reportes ad-hoc  Los reportes pueden estár basado en modelos de datos tabulares, incluyen modelos de PowerPivot
  • 52. Introducción a Power View  En Excel 2013, se incluyen nuevas características:
  • 53. Modelando “Big Data” con PowerPivot  Big data puede ser integrado con otras fuentes de datos  Potencial de Autoservicio de BI:  PowerPivot puede cargar Big Data mediante el Table Import Wizard  ODBC para HDInsight  OLE DB para SQL Server con enlace a HDInsight  PowerPivot puede ser fuente para:  Reporte locales en Excel con PivotTables, PivotCharts, CUBE y Power View  Otras herramientas de análisis (una vez publicado en SharePoint)
  • 54. Consideraciones de modelar “Big Data” con PowerPivot  Los resultados de Big Data pueden ser muy grandes para almacenamiento en memoria  Workaround: minizar la cantidad de datos consultados  Recuperar un periodo de tiempo más pequeño  Reducir las dimensiones o ser más granular  Una vez que está cargado el modelo puede ser manipulado con rapidez
  • 55. Formas de carga de datos
  • 56. Cargar datos al blog storage de Windows Azure  Para prototipos y ejemplos: #put  Para producción utilizer el blob storage APIs.  AzCopy Command Line  CopyBlob REST API
  • 57. Cómo consumir Resultados de HDInsight Destino Herramienta / Biblioteca Requiere Active HDInsight Cluster SQL Server, Azure SQL DB Sqoop (Hadoop ecosystem project) Yes Excel Codename “Data Explorer” No Otra Blob Storage Account Azure Blob Storage REST APIs (Copy Blob, etc) No SQL Server Analysis Services Hive ODBC Driver Yes BI Apps Existentes Hive ODBC Driver (assumes app supports ODBC connections to data sources) Yes
  • 58. DEMO CONSUMIR RESULT SETS – EXCEL & “DATA EXPLORER”
  • 59. Hadoop Connectors  SQL Server versions  Azure  PDW  SQL 2012  SQL 2008 R2 http://www.microsoft.com/download/en/details.aspx?id=27584
  • 60. With SQL Server-Hadoop Connector, you can:  Sqoop-based connector  Import  tables in SQL Server to delimited text files on HDFS  tables in SQL Server to SequenceFiles files on HDFS  tables in SQL Server to tables in Hive  Result of queries executed on SQL Server to delimited text files on HDFS  Result of queries executed on SQL Server to SequenceFiles files on HDFS  Result of queries executed on SQL Server to tables in Hive  Export  Delimited text files on HDFS to SQL Server  DequenceFiles on HDFS to SQL Server  Hive Tables to tables in SQL Server
  • 61. Recursos Adicionales http://www.microsoft.com/bigdata https://www.hadooponazure.com Includes an excellent set of BI specific resources in the section named “Using HDInsight with Other BI Technologies” http://social.technet.microsoft.com/wiki/contents/articles/6204.hadoop-based-services-for- windows-en-us.aspx http://blogs.msdn.com/b/microsoft_business_intelligence1/archive/2012/02/24/big-data-for- everyone-using-microsoft-s-familiar-bi-tools-with-hadoop.aspx
  • 62. Patrocinadores 9/14/2013 | SQL Saturday #247 – Bogotá, Colombia65 |
  • 63. Capítulos Organizadores 9/14/2013 | SQL Saturday #247 – Bogotá, Colombia66 |
  • 64. GRACIAS !!!!