AQUÍ, aprende como en la empresa

Creamos este curso diseñado para resolver todos esos desafíos empresariales que una academia normal no toma en cuenta.

Te enseñamos buenas prácticas, codificación, arquitecturas y arquetipos basados en estándares empresariales; lo que aprendas aquí lo aplicarás a la vida empresarial.

BENEFICIOS

✅ Dominarás los principales servicios de Azure para datos: Data Factory, Synapse Analytics, Cosmos DB, Azure SQL, Data Lake Storage, Stream Analytics y más
✅ Los profesores tienen experiencia directa implementando soluciones de Big Data dentro de empresas
✅ Es un curso 100% práctico, orientado a la ejecución de proyectos reales
✅ Implementarás soluciones de procesamiento en tiempo real con Stream Analytics y Event Hubs
✅ Los materiales y grabaciones estarán disponibles de forma permanente
✅ Únete a nuestros alumnos, quienes en promedio completan 3 cursos y obtienen resultados laborales desde el tercer mes
✅ Aprenderás a integrar servicios con Data Factory Pipelines y a optimizar costos en Azure

Al finalizar el curso tendrás las herramientas y el conocimiento disruptivo que te permitirá un alto salario.

¿𝐋𝐢𝐬𝐭𝐨 𝐩𝐚𝐫𝐚 𝐬𝐞𝐫 𝐮𝐧 Data Engineer❓

En menos de 3 meses tendrás la capacidad de:

✅ Construir pipelines de datos ETL/ELT escalables con Azure Data Factory: Diseñar procesos de extracción, transformación y carga eficientes para manejar grandes volúmenes de datos, optimizando el rendimiento y reduciendo costos.

✅ Implementar almacenamiento estructurado y no estructurado con Azure Data Lake Storage y Cosmos DB: Gestionar datos en múltiples formatos y escalarlos automáticamente según la demanda, asegurando alta disponibilidad y acceso rápido.

✅ Crear soluciones de procesamiento en tiempo real con Azure Stream Analytics y Event Hubs: Capturar, procesar y analizar datos en tiempo real para tomar decisiones inmediatas y detectar patrones o anomalías.

✅ Desarrollar bases de datos relacionales con Azure SQL Database: Implementar bases de datos escalables y optimizadas para rendimiento, configurando alta disponibilidad y recuperación ante desastres.

✅ Implementar análisis distribuido con Azure Synapse Analytics: Procesar grandes volúmenes de datos mediante consultas distribuidas y paralelismo, mejorando la velocidad y la precisión en los análisis.

✅ Automatizar y orquestar procesos con Azure Databricks y Data Factory Pipelines: Utilizar Spark y PySpark para crear flujos de trabajo automatizados y optimizar procesos complejos de transformación de datos.

✅ Aplicar buenas prácticas de seguridad y optimización de costos en Azure: Configurar permisos, cifrado y monitoreo para garantizar el uso eficiente y seguro de los servicios de Azure.

No se necesita experiencia previa, ya que se aprende desde cero.

¡Un total de 8 sesiones en vivo!

Conoce el temario de 8 sesiones divididas en 8 módulos

  • MÓDULO 1: INTRODUCCIÓN A LA INGENIERÍA DE DATOS EN AZURE

    • Introducción al rol de un Data Engineer.
    • Visión general de los servicios de Azure para datos (Azure Data Lake Storage, Azure SQL Database, Azure Synapse Analytics, Cosmos DB, Azure Data Factory, entre otros).
    • Creación de una cuenta en Azure y configuración inicial.
    • Arquitectura de soluciones de datos en la nube con Azure.
    • Azure Data Lake Storage Gen2: Almacenamiento escalable y arquitectura.
    • Azure Blob Storage - Archive Tier: Almacenamiento en frío y recuperación de datos.
    • Fundamentos de bases de datos relacionales y no relacionales en la nube.
    • Diferencias entre Azure SQL Database (relacional) y Cosmos DB (NoSQL).
    • Introducción a las bases de datos analíticas en Azure (Synapse Analytics).
    • Creación de un entorno de trabajo para ingeniería de datos en Azure.
  • MÓDULO 2: ALMACENAMIENTO Y GESTIÓN DE DATOS CON AZURE DATA LAKE STORAGE

    • Introducción a Azure Data Lake Storage Gen2 (ADLS Gen2).
    • Diferencias entre Hot, Cool y Archive Tiers en Azure Blob Storage.
    • Creación y configuración de un container en un Data Lake.
    • Ingestión de datos en ADLS desde diferentes fuentes (local, servicios, APIs).
    • Estructuración y organización de datos en carpetas jerárquicas
    • Políticas de acceso y seguridad
    • Gestión de permisos a nivel de directorio y archivo.
    • Integración de ADLS con otros servicios de Azure (Data Factory, Synapse, Azure Databricks).
    • Mejores prácticas de particionamiento y almacenamiento optimizado en Data Lake.
    • Acceso y análisis de datos usando Synapse SQL Serverless o Azure Data Explorer.
  • MÓDULO 3: ETL/ELT CON AZURE DATA FACTORY

    • ¿Qué es un proceso ETL/ELT?
    • Introducción a Azure Data Factory (ADF).
    • Creación de un pipeline ETL básico con Azure Data Factory.
    • Conectores y actividades disponibles en ADF (Copy, Data Flow, Lookup, etc.).
    • Ingestión de datos desde múltiples fuentes (Azure SQL, Data Lake, Cosmos DB, Blob Storage, APIs, etc.).
    • Transformación de datos usando Mapping Data Flows (basado en Spark)
    • Automatización de procesos con triggers programados y monitoreo con Azure Monitor.
    • Control de versiones y reutilización de componentes mediante plantillas y parametrización.
    • Optimización de rendimiento y costos en pipelines de datos.
    • Buenas prácticas para manejo de errores y excepciones con actividades de control, logging y alertas.
  • MÓDULO 4: BASES DE DATOS RELACIONALES EN AZURE (AZURE SQL DATABASE)

    • Introducción a las bases de datos relacionales en Azure.
    • Creación de una instancia de Azure SQL Database desde cero (soporta SQL Server, MySQL, PostgreSQL).
    • Opciones de escalabilidad y rendimiento: DTUs, vCores, Elastic Pools y Hyperscale.
    • Modelado de datos relacional: Tablas, claves, índices y relaciones.
    • Alta disponibilidad y recuperación ante desastres (Geo-replicación, Zonas de disponibilidad, Backup automático).
    • Importación y exportación de datos con herramientas como Azure Data Studio, Azure Data Factory.
    • Integración de Azure SQL con otros servicios (Data Factory, Synapse).
    • Seguridad y cumplimiento en Azure SQL
  • MÓDULO 5: BASES DE DATOS NOSQL CON AZURE COSMOS DB

    • Introducción a bases de datos NoSQL y su uso en soluciones Big Data.
    • Creación y configuración de Azure Cosmos DB (modo Core SQL, MongoDB API, Cassandra, Gremlin, Table).
    • Modelado de datos en Cosmos DB (partitions keys, documentos JSON, relaciones flexibles).
    • Elección del modelo de consistencia: Fuerte, Bounded Staleness, Session, Consistent Prefix, Eventual.
    • Integración con APIs múltiples: SQL (Core), MongoDB, Cassandra, Table y Gremlin (GraphQL via Azure API Management).
    • Optimización de rendimiento: Throughput (RU/s), particionamiento eficiente y control de costos.
    • Escalabilidad automática y replicación global en múltiples regiones.
  • MÓDULO 6: AUTOMATIZACIÓN Y ORQUESTACIÓN CON AZURE DATABRICKS Y DATA FACTORY

    • Introducción a Apache Spark y Azure Databricks.
    • Creación y configuración de un workspace de Azure Databricks.
    • Ingestión de datos desde múltiples fuentes (Data Lake, Blob Storage, Event Hubs, etc.).
    • Transformación de datos usando Spark SQL y PySpark en notebooks colaborativos.
    • Uso de notebooks en Databricks para procesamiento interactivo y automatizado de datos.
    • Orquestación de flujos de trabajo de datos con Azure Data Factory y Azure Synapse Pipelines.
    • Integración de Azure Databricks con Data Factory, Synapse.
    • Escalado automático y manejo de clústeres en Databricks (autoscaling y pools).
    • Monitorización y ajuste de rendimiento con Azure Monitor, Logs, y herramientas propias de Databricks.
  • MÓDULO 7: BIG DATA Y ANÁLISIS DISTRIBUIDO CON AZURE SYNAPSE ANALYTICS

    • Introducción a Azure Synapse Analytics como solución de análisis distribuido en la nube.
    • Comparativa entre Synapse y otras soluciones de Big Data (como Redshift, BigQuery, Snowflake).
    • Creación de un entorno de trabajo en Azure Synapse Workspace.
    • Uso de SQL Serverless y Dedicated SQL Pools para consultas distribuidas.
    • Integración con Azure Data Lake Storage, Blob Storage y otros servicios (Data Factory, Cosmos DB).
    • Ejecución de consultas paralelas y procesamiento masivo mediante MPP (Massively Parallel Processing).
    • Procesamiento de grandes volúmenes de datos en tiempo casi real o por lotes.
    • Creación de un pipeline de datos y análisis completo en Synapse
  • MÓDULO 8: PROCESAMIENTO DE DATOS EN TIEMPO REAL CON AZURE STREAM ANALYTICS

    • Introducción al procesamiento de datos en tiempo real con Azure.
    • Creación de un streaming job en Azure Stream Analytics.
    • Conectores de entrada para datos en streaming: Azure Event Hubs, Blob Storage.
    • Transformaciones en tiempo real usando Stream Analytics Query Language (similar a SQL).
    • Salidas a Azure SQL Database, Data Lake, Cosmos DB
    • Monitorización y optimización de trabajos de streaming
    • Escalabilidad y resiliencia de soluciones en tiempo real con autoscaling y unidades de streaming.

Horario según tu país

¡Las clases empezaron esta semana! Si te matriculas ahora, tendrás acceso a nuestra plataforma con las grabaciones para ponerte al día.

INICIO: Miércoles 30 de Julio - 8 sesiones en vivo

  • Perú, Colombia, Ecuador, Panamá

    • Lunes de 7:30 PM a 10:30 PM y
    • Miércoles de 7:30 PM a 10:30 PM
  • Chile, Puerto Rico, Bolivia, Venezuela

    • Lunes de 8:30 PM a 11:30 PM y
    • Miércoles de 8:30 PM a 11:30 PM
  • Argentina, Uruguay, Paraguay

    • Lunes de 9:30 PM a 12:30 AM y
    • Miércoles de 9:30 PM a 12:30 AM
  • Ciudad de México, Costa Rica

    • Lunes de 6:30 PM a 9:30 PM y
    • Miércoles de 6:30 PM a 9:30 PM

Profesor

"He trabajado con todo tipo de proyectos, desde pequeños de unos cuántos miles de dólares, hasta muy grandes de presupuestos de millones de dólares"

EXPERTO EN IA PARA BANCOS Y FINANCIERAS
✅14 años de experiencia en Big Data e Inteligencia Artificial
✅12 años de experiencia como docente universitario
✅Más detalles de mi perfil: LINKEDIN

Alonso Melgarejo

Profesora

"He trabajado en proyectos de todo tamaño, desde soluciones pequeñas hasta grandes implementaciones, siempre enfocada en transformar datos en valor estratégico para las organizaciones"

EXPERTA EN DATA SCIENCE, ML y CLOUD
✅10 años de experiencia
✅6 años de experiencia como docente universitario
✅Más detalles de mi perfil: LINKEDIN

Layla Scheli

"En , continuamos liderando el avance de proyectos innovadores de Inteligencia Artificial en toda Latinoamérica"




"Melgarejo fue considerado uno de los pocos arquitectos de Big Data en 2016"




MATRICÚLATE

OFERTA

¡De regalo un videocurso de 30 sesiones!

  1. Curso de Data Engineer en Azure +
  2. Videocurso de Fundamentos de Spark para Big Data

Todo por 129 dólares

🎁 ¿Quieres un 20% de DCTO?, usa el código:
descuentobda

*¿Quieres una mejor oferta?, sigue bajando para obtenerla

🚨

¿Quieres una mejor oferta?

Sólo por esta semana tienes acceso a una oferta especial, sigue leyendo y conócela

¡Llévate mucho más!

Sólo por esta semana, para las 10 primeras matrículas

Te llevas:

  1. 🧑‍💻EL CURSO EN VIVO: de Data Engineer en Azure
  2. 🎁VIDEOCURSO: Fundamentos de Spark para Big Data
  3. 🎁EDICIÓN GRABADA: Del curso ""Data Engineer & Big Data Multi-Cloud"" de 12 sesiones, valorizado en 119 dólares
  4. 🎁WORKSHOP GRABADO: De 3 días de ""Construye tu Primera Red Neuronal"" valorizado en 29 dólares

PROMOCIÓN: Sólo a ⚡$209 dólares *

🎁 ¿Quieres un 20% de DCTO?, usa el código:
descuentobda

*Válido hasta agotar las 10 primeras matrículas, agotadas las vacantes el botón se deshabilitará

📋

Requisitos

No se necesita experiencia previa, ya que se aprende desde cero

🎓

Certificación Internacional

Al finalizar el curso obtendrás los certificados de "Data Engineer on Azure", "Data Architect on Azure" y "Data Leader on Azure"

🎞️

¿Y si no puedo asistir en vivo?

No te preocupes, si no puedes asistir o llegas tarde, podrás acceder de por vida a las grabaciones de cada sesión desde nuestra plataforma.

Algunos alumnos incluso llevan las clases sólo con las grabaciones.

Se indispensable para tu empresa y ten un alto salario

¡Las clases empezaron esta semana! Si te matriculas ahora, tendrás acceso a nuestra plataforma con las grabaciones para ponerte al día.

INICIO: Miércoles 30 de Julio - 8 sesiones en vivo

Preguntas Frecuentes

  • ¿Qué es Big Data Academy (BDA)?

    Somos una empresa que tiene como objetivo desbloquear todo tu potencial en Big Data, Inteligencia Artificial y Cloud Computing

  • ¿Hay cursos para principiantes?

    Sí, desde workshops de primeros pasos hasta cursos y programas completos

  • ¿Hay cursos para empresas o grupos grandes?

    Sí, con buenos descuentos, puedes escribirnos a nuestro WhatsApp (+51 907 999 456)

  • ¿Cuáles son los cursos en los que puedo matricularme?

    Puedes encontrar los cursos y programas desde el siguiente enlace: CURSOS

  • ¿Cuáles son los requisitos para matricularme en un curso?

    Puedes revisar el brochure o la web de cada curso para conocer su detalle

  • ¿Qué tipo de computadora requiero para iniciar un curso?

    Una computadora simple, usamos infraestructura en la nube para practicar, puedes acceder incluso desde tu tablet

  • ¿Cuántas horas semanales requiero para llevar un curso?

    Depende de ti, pero te recomendamos de 2 a 3 horas semanales