Vaga de Engenheiro Clínico
- K-lab Digital
- Engenheiro Clínico
- Ribeirão/PE
Informações da vaga
-
Salário A combinar
-
Modalidade Home Office
-
Contrato Autônomo
-
Localização Ribeirão/PE
Descrição da vaga
Vaga para engenheiro machine learning, atuação 100% remota, contratação pj. Requisitos: Inglês avançado, python (avançado), sql, experiência comprovada com microsoft azure, incluindo: azure databricks azure data lake storage (adls) azure data factory (adf) azure devops (pipelines ci/cd, versionamento e automação) azure key vault, azure monitor. Frameworks e ferramentas de dados: spark, delta lake, mlflow, unity catalog, databricks. Infraestrutura como código (iac): terraform. Versionamento e colaboração: azure devops, git. Armazenamento e mensageria: event hubs, kafka, cosmos db, blob storage. Diferenciais: experiência com feature stores em produção. Conhecimento em arquiteturas data mesh / lakehouse. experiência com deploy de modelos em tempo real (apis, streaming, batch scoring). Certificações microsoft, como: azure data engineer associate (dp-203) azure ai engineer associate (ai-102) soft skills mentalidade de plataforma e automação foco em construir soluções reutilizáveis. Forte capacidade analítica e atenção a detalhes técnicos. Boa comunicação com equipes multidisciplinares (dados, ml e produto). Proatividade e ownership sobre a qualidade e confiabilidade dos sistemas. Capacidade de mensurar esforço de tarefas de maneira assertiva. Responsabilidades: desenvolver e manter o feature store componente central da plataforma de ml do cliente, que armazena, serve e versiona features de machine learning. Evoluir a arquitetura do feature store, garantindo alta performance, escalabilidade e baixo acoplamento, com foco em ambientes baseados em azure. Desenhar, desenvolver e manter pipelines de dados (ingestão, transformação e disponibilização) usando databricks na azure. Criar frameworks e sdks internos para padronizar e simplificar o processo de criação de features e integrações entre times. Gerenciar fluxos de ingress e egress de dados de modelos de ml, assegurando governança, rastreabilidade e qualidade nas camadas bronze, silver e gold do unity catalog. Implementar boas práticas de mlops utilizando azure devops, mlflow e terraform (para iac). Colaborar com mles e cientistas de dados para garantir integração fluida entre pipelines de dados, feature store e modelos em produção. Monitorar e otimizar custos de infraestrutura, garantindo uso eficiente de recursos azure.