Vaga de Analista de Banco de Dados
- Rehva Tech
- Analista de Banco de Dados
- São Paulo/SP
Informações da vaga
-
Salário A combinar
-
Modalidade Home Office
-
Contrato Efetivo/CLT
-
Localização São Paulo/SP
Descrição da vaga
Ou (email confidencial) ! Modeo: remoto clt Principais responsabilidades e atribuições Construir, evoluir e sustentar pipelines de dados em aws (s3, glue, emr, redshift), priorizando custos, confiabilidade e observabilidade. Orquestrar cargas incrementais/idempotentes no apache airflow (mwaa), com slas, retries, backfill e alertas. Desenvolver jobs aws glue (pyspark) com tratamento de schema evolution, particionamento, tuning e uso do glue data catalog. Modelar camadas bronze/silver/gold (medallion) e dimensional (star/snowflake) para consumo analítico. Atuar em sql server/ssis (on-Prem) em migrações/modernizações e integrações com o lake na aws. Escrever código limpo em python/pyspark, yaml para dags/configs e praticar ci/cd (testes, code review, versionamento). Colaborar com times de produto/negócio, traduzindo requisitos em soluções de dados com métricas e contratos claros. Requisitos e qualificações técnicas: Aws: s3, glue (jobs/crawlers/catalog), emr (spark), redshift, athena (desejável). Airflow/mwaa: dags parametrizadas, sensors/operators aws, backfill e monitoramento. Sql ansi: joins, window functions, ctes, merge, tuning básico. On-Prem: sql server (t-Sql), ssis (etl). Modelagem: medallion (bronze/silver/gold) e dimensional (star schema, snowflake). Python e pyspark (rdd/dataframe api), particionamento e file sizing. Yaml para configs de pipelines e ci/cd (github/gitlab, testes e deploy). Kubernetes (básico): conceitos de pod/deployment e operação de workloads de dados (desejável). Diferenciais: experiência com trino. Boas práticas de finops e monitoramento (cloudwatch/prometheus). Noções de segurança/aramento em camadas de consumo.