Descrição
Neste curso você aprenderá a aplicar conceitos avançados de DevOps e automação no Databricks, utilizando o framework oficial Databricks Asset Bundles — a abordagem “workspace como código” que eleva a governança e a padronização dos seus ambientes de dados. Ao longo das aulas, você entenderá como organizar notebooks, jobs, pipelines, configurações de clusters e parâmetros de infraestrutura em um único projeto versionado, garantindo controle total e rastreabilidade entre ambientes. Também aprenderá a criar pipelines de CI/CD para automatizar todo o processo de validação, teste e implantação em múltiplos estágios, levando agilidade e consistência às suas entregas.
O que não realizaremos no treinamento:
- Não resolveremos problemas de trabalho de nenhum participante.
- Não mostraremos assuntos fora do conteúdo programático proposto no treinamento.
- Não realizaremos o provisionamento com os participantes.
- Emitimos NOTA FISCAL para treinamentos comprados pela plataforma.
O que terei de benefícios:
- Treinamento baseado em vivências de projetos reais.
- Networking
- Instrutores com bastante experiência no mercado e em projetos de Big Data com grandes clientes. Todos são certificados Microsoft e com experiência em projetos com clientes nacionais e internacionais.
- Portal com todos os conteúdos do treinamento — VITALICIO, ou seja, PARA SEMPRE.
- Vídeos das aulas gravadas – Ao final de cada dia, disponibilizamos a aula gravada na plataforma
- Slides
- PDFs
- Scripts
- Links de apoio
- Arquivos utilizados nos laboratórios
- Certificado de participação do treinamento. O certificado é validado digitalmente para evitar fraudes e possíveis copias.
- Canal de comunicação com os instrutores e demais alunos.
- Dicas de certificação
Conteúdos
Organizar o Databricks como código: aprenda a estruturar notebooks, jobs, pipelines e configurações em um único projeto versionado com o Databricks Asset Bundles.
Automatizar o ciclo de vida completo: construa pipelines de CI/CD que promovem implantações consistentes do ambiente de desenvolvimento até produção.
Criar e distribuir pacotes Python customizados: desenvolva bibliotecas internas para padronizar funções e acelerar projetos no seu workspace Databricks.
Implementar testes e validações automáticas: garanta qualidade do código com unit tests e validações integradas antes da publicação.
Configurar GitHub Actions para o Databricks: monte workflows automatizados de build, teste e deploy contínuo.
Aplicar as melhores práticas de DevOps: leve governança, versionamento e rastreabilidade total para seus projetos de dados.



Avaliações
Não há avaliações ainda.