| Metodoloxía | Virtual |
|---|---|
| Tipo | SEMINARIO |
| Data inicio | 21/05/2026 |
| Data fin | 21/05/2026 |
Azure Databricks consolidouse como unha das plataformas máis potentes para construír solucións modernas de analítica de datos a gran escala. Esta sesión mostra como utilizar Databricks e Apache Spark para abordar proxectos de datos de principio a fin, desde a inxestión e transformación de información ata a automatización de procesos e a preparación de contornas listas para produción. Microsoft orienta este curso a profesionais que queren desenvolver competencias prácticas en procesamiento distribuído, modelado analítico e construción de pipelines sobre Azure Databricks.
Ao longo da sesión explorarase como traballar con Spark DataFrames, Spark SQL e PySpark, como moverse pola contorna de Databricks e como crear e optimizar táboas Delta. Tamén se abordarán aspectos clave de enxeñería de datos, como o deseño de procesos ETL, a xestión de cambios de esquema, o control de calidade do dato, a orquestración de cargas con Jobs e pipelines, e o uso de mecanismos de goberno e seguridade como Unity Catalog. O obxectivo é ofrecer unha visión práctica e estruturada de como construír solucións analíticas robustas, escalables e ben gobernadas sobre Azure Databricks.
- Comprender o papel de Azure Databricks na construción de solucións analíticas modernas
- Aprender a traballar con Spark DataFrames, Spark SQL e PySpark para procesar grandes volumes de datos
- Coñecer como crear, xestionar e optimizar táboas Delta
- Deseñar procesos ETL e fluxos de transformación de datos en contornas distribuídas
- Entender como automatizar cargas e procesos mediante Jobs e pipelines
- Descubrir capacidades de goberno, seguridade e control do dato en Azure Databricks
Profesionais de datos, data engineers, analistas avanzados, desenvolvedores e perfís técnicos que queiran aprender a deseñar, implementar e operar solucións analíticas modernas sobre Azure Databricks e Apache Spark. Segundo Microsoft, resulta especialmente útil contar previamente con fundamentos de Python e SQL, así como certa familiaridade con formatos como CSV, JSON ou Parqué.
A relatora será Carmela Quijano.
Carmela Quijano é Microsoft Certified Trainer e conta cunha ampla traxectoria como formadora técnica especializada en tecnoloxías Microsoft, con especial foco en contornas de datos, cloud e analítica avanzada. Ao longo da súa carreira impartiu formación oficial e especializada en áreas como Azure, Power Platform, Microsoft Fabric e solucións de datos, combinando coñecemento técnico, experiencia docente e unha clara orientación á aplicación práctica en contornas profesionais.
O seu perfil reúne unha sólida base técnica e unha forte vocación formativa, apoiadas por múltiples certificacións oficiais de Microsoft. Esta combinación permítelle trasladar con claridade conceptos complexos relacionados con plataformas cloud, analítica de datos e intelixencia empresarial, axudando a profesionais e equipos a adquirir competencias útiles e directamente aplicables en proxectos reais.
- Duración :
2 horas - Metodoloxía :
Virtual - Tecnoloxía :
- Cloud
- Microsoft
- Introdución a Azure Databricks e Apache Spark
- Exploración do workspace e xestión de recursos de proceso
- Inxestión, transformación e análise de datos con Spark
- Uso de Spark DataFrames, Spark SQL e PySpark
- Creación e optimización de táboas Delta
- Deseño de procesos ETL e tratamento de cambios de esquema
- Calidade do dato e boas prácticas en procesamiento distribuído
- Automatización e orquestración con Jobs e pipelines
- Gobierno do dato, seguridade e Unity Catalog
- Conclusións e seguintes pasos