| Metodología | Virtual |
|---|---|
| Tipo | SEMINARIO |
| Fecha inicio | 21/05/2026 |
| Fecha fin | 21/05/2026 |
Azure Databricks se ha consolidado como una de las plataformas más potentes para construir soluciones modernas de analítica de datos a gran escala. Esta sesión muestra cómo utilizar Databricks y Apache Spark para abordar proyectos de datos de principio a fin, desde la ingestión y transformación de información hasta la automatización de procesos y la preparación de entornos listos para producción. Microsoft orienta este curso a profesionales que quieren desarrollar competencias prácticas en procesamiento distribuido, modelado analítico y construcción de pipelines sobre Azure Databricks.
A lo largo de la sesión se explorará cómo trabajar con Spark DataFrames, Spark SQL y PySpark, cómo moverse por el entorno de Databricks y cómo crear y optimizar tablas Delta. También se abordarán aspectos clave de ingeniería de datos, como el diseño de procesos ETL, la gestión de cambios de esquema, el control de calidad del dato, la orquestación de cargas con Jobs y pipelines, y el uso de mecanismos de gobierno y seguridad como Unity Catalog. El objetivo es ofrecer una visión práctica y estructurada de cómo construir soluciones analíticas robustas, escalables y bien gobernadas sobre Azure Databricks.
- Comprender el papel de Azure Databricks en la construcción de soluciones analíticas modernas
- Aprender a trabajar con Spark DataFrames, Spark SQL y PySpark para procesar grandes volúmenes de datos
- Conocer cómo crear, gestionar y optimizar tablas Delta
- Diseñar procesos ETL y flujos de transformación de datos en entornos distribuidos
- Entender cómo automatizar cargas y procesos mediante Jobs y pipelines
- Descubrir capacidades de gobierno, seguridad y control del dato en Azure Databricks
Profesionales de datos, data engineers, analistas avanzados, desarrolladores y perfiles técnicos que quieran aprender a diseñar, implementar y operar soluciones analíticas modernas sobre Azure Databricks y Apache Spark. Según Microsoft, resulta especialmente útil contar previamente con fundamentos de Python y SQL, así como cierta familiaridad con formatos como CSV, JSON o Parquet.
La ponente será Carmela Quijano.
Carmela Quijano es Microsoft Certified Trainer y cuenta con una amplia trayectoria como formadora técnica especializada en tecnologías Microsoft, con especial foco en entornos de datos, cloud y analítica avanzada. A lo largo de su carrera ha impartido formación oficial y especializada en áreas como Azure, Power Platform, Microsoft Fabric y soluciones de datos, combinando conocimiento técnico, experiencia docente y una clara orientación a la aplicación práctica en entornos profesionales.
Su perfil reúne una sólida base técnica y una fuerte vocación formativa, respaldadas por múltiples certificaciones oficiales de Microsoft. Esta combinación le permite trasladar con claridad conceptos complejos relacionados con plataformas cloud, analítica de datos e inteligencia empresarial, ayudando a profesionales y equipos a adquirir competencias útiles y directamente aplicables en proyectos reales.
- Duración :
2 horas - Metodología :
Virtual - Tecnología :
- Cloud
- Microsoft
- Introducción a Azure Databricks y Apache Spark
- Exploración del workspace y gestión de recursos de proceso
- Ingestión, transformación y análisis de datos con Spark
- Uso de Spark DataFrames, Spark SQL y PySpark
- Creación y optimización de tablas Delta
- Diseño de procesos ETL y tratamiento de cambios de esquema
- Calidad del dato y buenas prácticas en procesamiento distribuido
- Automatización y orquestación con Jobs y pipelines
- Gobierno del dato, seguridad y Unity Catalog
- Conclusiones y siguientes pasos