Engenheiro de Dados Sr
Descrição da vaga
A Valid promove a identificação segura de pessoas, jornadas e transações. Nossas soluções físicas e digitais são dedicadas a três grandes ecossistemas: ID & Governo Digital | Banking & Meios de Pagamento | Conectividade Segura.
Autenticar, autorizar, verificar e garantir a segurança de todos os envolvidos. Seja em jornadas públicas ou privadas, isso é o que fazemos para cada um dos nossos mais de 1.200 clientes no Brasil e no mundo.
Sempre que a solução é complexa, com alta volumetria e envolve dados sensíveis, pode ter certeza de que tem a Valid por trás.
Estamos em busca de um(a) Engenheiro(a) de Dados com ampla experiência em plataformas de nuvem (GCP) e forte habilidade técnica para estruturar e gerenciar um Data Lakehouse. O(a) profissional será responsável de projetar, implementar e manter pipelines de dados robustas e escaláveis, assegurando a ingestão, processamento e disponibilização de dados em diversas camadas (Raw, Refined, Curated).
Responsabilidades e atribuições
Responsabilidades
- Desenvolver, orquestrar e monitorar pipelines de dados utilizando ferramentas como Apache Spark, PySpark, Airflow, Dataflow, Cloud Run, Apache NiFi, entre outras.
- Trabalhar com GCP (BigQuery, Cloud Storage, Dataflow, Pub/Sub) para criar soluções escaláveis e seguras.
- Estabelecer processos eficientes de ingestão de dados em batch e streaming, integrando diversas fontes.
- Colaborar com cientistas de dados, analistas e engenheiros de software para garantir a qualidade e governança dos dados.
- Assegurar o versionamento, segurança e catalogação dos dados.
- Contribuir para a otimização de performance, controle de custos e boas práticas em ambientes de nuvem.
Soft Skills
- Visão holística e foco em performance e escalabilidade.
- Boa comunicação com equipes técnicas e de negócios.
- Proatividade e espírito colaborativo.
- Capacidade de atuar em ambientes ágeis e gerenciar múltiplas prioridades.
Requisitos e qualificações
Requisitos Obrigatórios
- Experiência comprovada com Google Cloud Platform (GCP).
- Experiência na construção de Data Lakehouses com pelo menos 3 camadas.
- Domínio em Python, SQL e frameworks como Spark / PySpark.
- Conhecimento em DataOps e CI/CD para pipelines de dados.
- Experiência com ferramentas de orquestração de pipelines (Apache Spark, PySpark, Airflow, Dataflow, Cloud Run, Apache NiFi, etc.).
- Familiaridade com ferramentas de versionamento de código (Git, Bitbucket).
- Conhecimento de boas práticas de governança, qualidade e segurança de dados.
Desejável
- Certificações em GCP.
- Conhecimento em Data Mesh e arquiteturas orientadas a domínio.
- Experiência com arquiteturas lakehouse.
- Experiência em infraestrutura como código (IaC), como Terraform.
Etapas do processo
- Etapa 1: Cadastro
- Etapa 2: Entrevista Gente & Cultura
- Etapa 3: Entrevista Coordenador
- Etapa 4: Contratação
Faça parte da transformação digital!
Já pensou trabalhar em um ambiente dinâmico e que incentiva a autonomia?
Venha fazer parte de um time que transforma a vida de milhões de brasileiros diariamente, e que se inspira na entrega de resultados para uma sociedade que precisa de soluções digitais seguras para continuar evoluindo.
Nossa equipe de tecnologia viabiliza produtos, negócios digitais, identificação segura de pessoas, objetos e transações que geram inovação para a vida dos nossos clientes. Quer fazer parte dessa transformação digital? Então conheça nossas Vagas Tech!
Vem dizer #souvalid
Caso não encontre a vaga que está procurando, se cadastre no nosso banco de talentos!