MATRICÚLATE
OFERTA
¡De regalo un videocurso de 30 sesiones!
- Curso de Data Engineer en Azure +
- Videocurso de Fundamentos de Spark para Big Data
Todo por 129 dólares
🎁 ¿Quieres un 20% de DCTO?, usa el código:
descuentobda
*¿Quieres una mejor oferta?, sigue bajando para obtenerla

¡Llévate mucho más!
Sólo por esta semana, para las 10 primeras matrículas
Te llevas:
- 🧑💻EL CURSO EN VIVO: de Data Engineer en Azure
- 🎁VIDEOCURSO: Fundamentos de Spark para Big Data
- 🎁EDICIÓN GRABADA: Del curso ""Data Engineer & Big Data Multi-Cloud"" de 12 sesiones, valorizado en 119 dólares
- 🎁WORKSHOP GRABADO: De 3 días de ""Construye tu Primera Red Neuronal"" valorizado en 29 dólares
PROMOCIÓN: Sólo a ⚡$209 dólares *
🎁 ¿Quieres un 20% de DCTO?, usa el código:
descuentobda

Horario según tu país
¡Las clases empezaron esta semana! Si te matriculas ahora, tendrás acceso a nuestra plataforma con las grabaciones para ponerte al día.
INICIO: Miércoles 30 de Julio - 8 sesiones en vivo
-
Perú, Colombia, Ecuador, Panamá
- Lunes de 7:30 PM a 10:30 PM y
- Miércoles de 7:30 PM a 10:30 PM
-
Chile, Puerto Rico, Bolivia, Venezuela
- Lunes de 8:30 PM a 11:30 PM y
- Miércoles de 8:30 PM a 11:30 PM
-
Argentina, Uruguay, Paraguay
- Lunes de 9:30 PM a 12:30 AM y
- Miércoles de 9:30 PM a 12:30 AM
-
Ciudad de México, Costa Rica
- Lunes de 6:30 PM a 9:30 PM y
- Miércoles de 6:30 PM a 9:30 PM
¡Un total de 8 sesiones en vivo!
Conoce el temario de 8 sesiones divididas en 8 módulos
-
MÓDULO 1: INTRODUCCIÓN A LA INGENIERÍA DE DATOS EN AZURE
- Introducción al rol de un Data Engineer.
- Visión general de los servicios de Azure para datos (Azure Data Lake Storage, Azure SQL Database, Azure Synapse Analytics, Cosmos DB, Azure Data Factory, entre otros).
- Creación de una cuenta en Azure y configuración inicial.
- Arquitectura de soluciones de datos en la nube con Azure.
- Azure Data Lake Storage Gen2: Almacenamiento escalable y arquitectura.
- Azure Blob Storage - Archive Tier: Almacenamiento en frío y recuperación de datos.
- Fundamentos de bases de datos relacionales y no relacionales en la nube.
- Diferencias entre Azure SQL Database (relacional) y Cosmos DB (NoSQL).
- Introducción a las bases de datos analíticas en Azure (Synapse Analytics).
- Creación de un entorno de trabajo para ingeniería de datos en Azure.
-
MÓDULO 2: ALMACENAMIENTO Y GESTIÓN DE DATOS CON AZURE DATA LAKE STORAGE
- Introducción a Azure Data Lake Storage Gen2 (ADLS Gen2).
- Diferencias entre Hot, Cool y Archive Tiers en Azure Blob Storage.
- Creación y configuración de un container en un Data Lake.
- Ingestión de datos en ADLS desde diferentes fuentes (local, servicios, APIs).
- Estructuración y organización de datos en carpetas jerárquicas
- Políticas de acceso y seguridad
- Gestión de permisos a nivel de directorio y archivo.
- Integración de ADLS con otros servicios de Azure (Data Factory, Synapse, Azure Databricks).
- Mejores prácticas de particionamiento y almacenamiento optimizado en Data Lake.
- Acceso y análisis de datos usando Synapse SQL Serverless o Azure Data Explorer.
-
MÓDULO 3: ETL/ELT CON AZURE DATA FACTORY
- ¿Qué es un proceso ETL/ELT?
- Introducción a Azure Data Factory (ADF).
- Creación de un pipeline ETL básico con Azure Data Factory.
- Conectores y actividades disponibles en ADF (Copy, Data Flow, Lookup, etc.).
- Ingestión de datos desde múltiples fuentes (Azure SQL, Data Lake, Cosmos DB, Blob Storage, APIs, etc.).
- Transformación de datos usando Mapping Data Flows (basado en Spark)
- Automatización de procesos con triggers programados y monitoreo con Azure Monitor.
- Control de versiones y reutilización de componentes mediante plantillas y parametrización.
- Optimización de rendimiento y costos en pipelines de datos.
- Buenas prácticas para manejo de errores y excepciones con actividades de control, logging y alertas.
-
MÓDULO 4: BASES DE DATOS RELACIONALES EN AZURE (AZURE SQL DATABASE)
- Introducción a las bases de datos relacionales en Azure.
- Creación de una instancia de Azure SQL Database desde cero (soporta SQL Server, MySQL, PostgreSQL).
- Opciones de escalabilidad y rendimiento: DTUs, vCores, Elastic Pools y Hyperscale.
- Modelado de datos relacional: Tablas, claves, índices y relaciones.
- Alta disponibilidad y recuperación ante desastres (Geo-replicación, Zonas de disponibilidad, Backup automático).
- Importación y exportación de datos con herramientas como Azure Data Studio, Azure Data Factory.
- Integración de Azure SQL con otros servicios (Data Factory, Synapse).
- Seguridad y cumplimiento en Azure SQL
-
MÓDULO 5: BASES DE DATOS NOSQL CON AZURE COSMOS DB
- Introducción a bases de datos NoSQL y su uso en soluciones Big Data.
- Creación y configuración de Azure Cosmos DB (modo Core SQL, MongoDB API, Cassandra, Gremlin, Table).
- Modelado de datos en Cosmos DB (partitions keys, documentos JSON, relaciones flexibles).
- Elección del modelo de consistencia: Fuerte, Bounded Staleness, Session, Consistent Prefix, Eventual.
- Integración con APIs múltiples: SQL (Core), MongoDB, Cassandra, Table y Gremlin (GraphQL via Azure API Management).
- Optimización de rendimiento: Throughput (RU/s), particionamiento eficiente y control de costos.
- Escalabilidad automática y replicación global en múltiples regiones.
-
MÓDULO 6: AUTOMATIZACIÓN Y ORQUESTACIÓN CON AZURE DATABRICKS Y DATA FACTORY
- Introducción a Apache Spark y Azure Databricks.
- Creación y configuración de un workspace de Azure Databricks.
- Ingestión de datos desde múltiples fuentes (Data Lake, Blob Storage, Event Hubs, etc.).
- Transformación de datos usando Spark SQL y PySpark en notebooks colaborativos.
- Uso de notebooks en Databricks para procesamiento interactivo y automatizado de datos.
- Orquestación de flujos de trabajo de datos con Azure Data Factory y Azure Synapse Pipelines.
- Integración de Azure Databricks con Data Factory, Synapse.
- Escalado automático y manejo de clústeres en Databricks (autoscaling y pools).
- Monitorización y ajuste de rendimiento con Azure Monitor, Logs, y herramientas propias de Databricks.
-
MÓDULO 7: BIG DATA Y ANÁLISIS DISTRIBUIDO CON AZURE SYNAPSE ANALYTICS
- Introducción a Azure Synapse Analytics como solución de análisis distribuido en la nube.
- Comparativa entre Synapse y otras soluciones de Big Data (como Redshift, BigQuery, Snowflake).
- Creación de un entorno de trabajo en Azure Synapse Workspace.
- Uso de SQL Serverless y Dedicated SQL Pools para consultas distribuidas.
- Integración con Azure Data Lake Storage, Blob Storage y otros servicios (Data Factory, Cosmos DB).
- Ejecución de consultas paralelas y procesamiento masivo mediante MPP (Massively Parallel Processing).
- Procesamiento de grandes volúmenes de datos en tiempo casi real o por lotes.
- Creación de un pipeline de datos y análisis completo en Synapse
-
MÓDULO 8: PROCESAMIENTO DE DATOS EN TIEMPO REAL CON AZURE STREAM ANALYTICS
- Introducción al procesamiento de datos en tiempo real con Azure.
- Creación de un streaming job en Azure Stream Analytics.
- Conectores de entrada para datos en streaming: Azure Event Hubs, Blob Storage.
- Transformaciones en tiempo real usando Stream Analytics Query Language (similar a SQL).
- Salidas a Azure SQL Database, Data Lake, Cosmos DB
- Monitorización y optimización de trabajos de streaming
- Escalabilidad y resiliencia de soluciones en tiempo real con autoscaling y unidades de streaming.
Profesor
"He trabajado con todo tipo de proyectos, desde pequeños de unos cuántos miles de dólares, hasta muy grandes de presupuestos de millones de dólares"
✅14 años de experiencia en Big Data e Inteligencia Artificial
✅12 años de experiencia como docente universitario
✅Más detalles de mi perfil: LINKEDIN
Alonso Melgarejo
[email protected]
Profesora
"He trabajado en proyectos de todo tamaño, desde soluciones pequeñas hasta grandes implementaciones, siempre enfocada en transformar datos en valor estratégico para las organizaciones"
✅10 años de experiencia
✅6 años de experiencia como docente universitario
✅Más detalles de mi perfil: LINKEDIN
Layla Scheli
[email protected]
Preguntas Frecuentes
-
¿Qué es Big Data Academy (BDA)?
Somos una empresa que tiene como objetivo desbloquear todo tu potencial en Big Data, Inteligencia Artificial y Cloud Computing
-
¿Hay cursos para principiantes?
Sí, desde workshops de primeros pasos hasta cursos y programas completos
-
¿Hay cursos para empresas o grupos grandes?
Sí, con buenos descuentos, puedes escribirnos a nuestro WhatsApp (+51 907 999 456)
-
¿Cuáles son los cursos en los que puedo matricularme?
Puedes encontrar los cursos y programas desde el siguiente enlace: CURSOS
-
¿Cuáles son los requisitos para matricularme en un curso?
Puedes revisar el brochure o la web de cada curso para conocer su detalle
-
¿Qué tipo de computadora requiero para iniciar un curso?
Una computadora simple, usamos infraestructura en la nube para practicar, puedes acceder incluso desde tu tablet
-
¿Cuántas horas semanales requiero para llevar un curso?
Depende de ti, pero te recomendamos de 2 a 3 horas semanales