En esta charla la idea es ilustrar cómo funciona y qué componentes forman parte de una arquitectura Data Lake clásica pero usando tecnología cloud de Azure. La charla se dividirá en:1. ¿De dónde veníamos? DW clásico y primeras aproximaciones usando Hadoop2. Introducción del concepto de Data Lakea. Cambio de arquitecturab. Desacoplamiento de datos, consumidores y potencia de cálculoc. Descripción de componentes principales: Azure Data Lake Store, HDInsight, Data Factory, Azure SQL database3. Demo end-to-end de la arquitectura funcionando4. Lambda architecture como manera de extender a escenario real time5. Importancia del Data Warehouse en escenarios “big data” (Apache Kylin)