Responsabilidades:
– Projetar, desenvolver e manter pipelines de dados escaláveis e infraestrutura.
– Colaborar com equipes multifuncionais para garantir a integridade e usabilidade dos dados.
– Documentar fluxos de trabalho, processos e arquiteturas de dados.
– Integrar a qualidade dos dados nos pipelines de dados.
– Desenvolver pipeline de CI/CD para processos ETL.
– Implementar modelagem de dados dimensionais.
– Implementar soluções de Data Lake/Data Warehouse.
– Implementar práticas de Governança de Dados.
– Fornecer suporte técnico e resolução de problemas relacionados a dados.
– Aplicar princípios de FinOps para otimizar custos de dados.
– Implementar soluções Databricks (workflows, jobs, delta tables, delta sharing, queries etc)
– Experiência sólida em Teradata será um diferencial.
Requisitos para este desafio:
– Bacharel em Ciência da Computação, Tecnologia da Informação ou área relacionada.
– Experiência sólida em desenvolvimento de dados ou função relacionada.
– Certificação Databricks Azure / Conhecimentos sólidos.
– Conhecimento em otimização de código na cloud.
– Conhecimento de SQL, Python e Spark/PySpark.
– Conhecimento de pipelines de CI/CD para processos ETL.
– Conhecimento em fluxo de ETL.
– Modelagem de dados.
#LI-APS1
SÊNIOR
Apply info ->
To find out more about this job, please visit this link