Arquitectura Big Data: Diseño de Sistemas Escalables
Especialízate en el diseño y gestión de arquitecturas Big Data robustas. Este programa aborda desde el procesamiento Batch y Streaming hasta sistemas NoSQL y computación en la nube. Aprenderás a implementar soluciones híbridas, gestionar clusters y visualizar datos, adquiriendo las competencias técnicas clave para liderar proyectos de alta complejidad en entornos de datos masivos.
Información del curso
- Duración165 horas lectivas
- UbicaciónEspaña
- EmpresaFEMXA
Requisitos y destinatarios
Requisitos
- Desempleados/as de la Comunidad de Madrid.
Dirigido a
Profesionales del sector tecnológico y desempleados con perfil técnico.
Qué aprenderás
- Dominar paradigmas de procesamiento en sistemas Big Data.
- Diseñar arquitecturas escalables adaptadas a proyectos específicos.
- Implementar sistemas de procesamiento Batch y Streaming con Spark y Kafka.
- Gestionar bases de datos NoSQL como MongoDB, Cassandra y HBase.
- Integrar arquitecturas Lambda y Kappa en entornos reales.
- Desplegar soluciones en la nube con AWS y Google Cloud.
- Optimizar y monitorizar clusters de datos complejos.
- Aplicar herramientas de visualización para el análisis de datos.
Temario
Introducción a las Arquitecturas de Datos
Este módulo establece los cimientos del ecosistema Big Data.
1. Procesamiento de Información
- Batch Processing: Hadoop, Pig, Hive y Spark Core.
- Streaming Processing: Fundamentos, Spark Streaming, Kafka y Apache Pulsar.
2. Ecosistema NoSQL
Exploración de bases de datos especializadas para gran escala:
- Orientadas a documentos: MongoDB.
- Wide-column: Hbase, Cassandra.
- Grafos: Neo4J.
- Clave-valor: Redis, Berkeley DB.
3. Arquitecturas Avanzadas e Híbridas
Diseño de infraestructuras complejas para el procesamiento moderno:
- Arquitecturas Lambda y Kappa: Patrones de referencia.
- Stack Elastic: Integración de ElasticSearch, Logstash y Kibana.
- Consultas interactivas: Lucene y Solr.
4. Cloud y Administración de Sistemas
- Cloud Computing: Implementación práctica en AWS y Google Cloud.
- Administración: Gestión de clusters (Cloudera, Hortonworks) y monitorización.
- Seguridad: Implementación de Apache Knox, Ranger y Sentry para protección de datos.
5. Visualización y Presentación de Datos
Conversión de datos complejos en conocimiento accionable:
- Herramientas: Tableau y CartoDB.
- Librerías de desarrollo: D3.js, Leaflet y Cytoscape.
Este programa está diseñado bajo una metodología 100% online, permitiendo una inmersión técnica profunda en cada tecnología, asegurando que el estudiante comprenda no solo el funcionamiento, sino la estrategia detrás de cada elección arquitectónica en el mundo real.