- Adquisición y dominio de conceptos básicos y de conocimientos sobre los avances en Big Data:
- Cómo evoluciona el BI tradicional al Big Data (navegación web, geolocalización, audiencias TV,…) - El Big Data como solución al tratamiento masivo de datos: definición e historia desde su invención. - Hadoop como revolución para el tratamiento paralelo de datos masivo. - Características del Big Data (4 V's y más): volumetría, velocidad, variedad (estructurados/no estructurados), veracidad (calidad del dato), valor del dato, … - Nuevos paradigmas del Big Data: Procesos en Real Time y Cloud Computing. Conocimiento de nociones básicas sobre arquitectura Big Data y principales tecnologías: - El ecosistema Hadoop: HDFS y MapReduce. - Principales lenguajes de programación utilizados: Java, Scala, SQL y Python. - Procesos ETL (extracción, transformación y carga): Flume, Sqoop y HIVE. - Procesos Real Time y bases de datos de alta disponibilidad: Kafka, HBASE y Redis. - Procesamiento y analítica avanzada con Spark. - Seguridad y gobierno del dato. Comprensión de los principales conceptos sobre La “Ciencia de datos” e IA: - Introducción a la “Ciencia de datos” y la Inteligencia Artificial. - Principales lenguajes de programación utilizados: R y Python. - Algoritmos supervisados: ¿Qué son? Algunos Ejemplos. - Algoritmos no-supervisados: ¿Qué son? Algunos Ejemplos. - Introducción al Deep Learning y el Aprendizaje por Refuerzo. - Procesamiento de información no estructurada: Imágenes y Textos. - Visualización de datos: Visualizaciones interactivas y Dashboards. Adquisición de una visión trasversal sobre el futuro del BigData y cómo se aplica actualmente en diferentes áreas: - Ejemplos en las instituciones públicas: OpenData. - Ejemplos en el mundo empresarial: ejemplos de aplicabilidad del Big Data a la eficiencia de las operaciones de una compañía. - “Data for Good”: Big Data para el bien social. - Reflexiones finales sobre el impacto del Big Data en los años venideros. |