×
Register Here to Apply for Jobs or Post Jobs. X
More jobs:

Data Developer Pleno

Job in Brazil, Clay County, Indiana, 47834, USA
Listing for: CI&T
Full Time position
Listed on 2026-02-16
Job specializations:
  • IT/Tech
    Data Engineer
Salary/Wage Range or Industry Benchmark: 80000 - 100000 USD Yearly USD 80000.00 100000.00 YEAR
Job Description & How to Apply Below
Position: [Job 27489] Data Developer Pleno

Somos especialistas em transformação tecnológica
, unindo expertise humana à IA para criar soluções tech escaláveis. Com mais de 8,000 CI&Ters ao redor do mundo, já formamos parcerias com mais de 1,000 clientes durante nossos 30 anos de história. Inteligência Artificial é nossa realidade.

Importante
: se você reside na Região Metropolitana de Campinas, sua presença nos escritórios da cidade será obrigatória, conforme a política de frequencia vigente.

Sobre o Desafio

Estamos em um momento crucial de evolução da nossa plataforma de dados. O projeto consiste na migração e modernização de um legado massivo (baseado em Azure/Databricks) para uma nova arquitetura no Google Cloud Platform (GCP).

Você atuará na construção de uma fundação de dados moderna, seguindo princípios de Data Mesh, arquitetura medalhão (Raw/Silver/Gold) e forte governança, garantindo a desativação do legado e a habilitação de novas capacidades de IA e Analytics.

Principais Responsabilidades
  • Execução da Migração (Refactory & Modernization):
    Atuar na análise e migração de notebooks e pipelines legados (Spark/Databricks). Isso envolve tanto o reapontamento (refactory) de lógicas para a nova arquitetura quanto a reescrita completa (modernization) de processos para SQL/Dataform ou Dataflow.
  • Construção de Pipelines ELT/ETL:
    Desenvolver e manter transformações de dados utilizando Big Query e Dataform (SQL) para criar as camadas Trusted/Silver e Gold, garantindo qualidade, deduplicação e padronização.
  • Ingestão de Dados (Batch & Streaming):
    Implementar padrões de ingestão utilizando Dataflow (Apache Beam) para consumo de eventos (Kafka/Event Hubs) e Datastream para CDC de bancos transacionais. Trabalhar com a persistência de dados na camada Raw utilizando tabelas Iceberg gerenciadas pelo Big Lake.
  • Automação e IaC:
    Utilizar Terraform para provisionamento de recursos de dados (datasets, tabelas, views) e gerenciar pipelines via CI/CD (Git Hub Actions), seguindo o modelo de Ingestion Factory e repositórios segregados por domínio.
  • Qualidade e Governança:
    Implementar testes de qualidade de dados (assertions no Dataform) e garantir a catalogação e linhagem dos dados via Dataplex e Analytics Hub para compartilhamento seguro entre domínios.
Requisitos Obrigatórios
  • Experiência sólida em SQL:
    Capacidade de escrever consultas complexas e performáticas, preferencialmente no dialecto do Google Big Query.
  • Conhecimento em Google Cloud Platform (GCP):
    Vivência com serviços como Big Query, Cloud Storage (GCS), Dataflow e Cloud Composer (Airflow).
  • Engenharia de Dados (Python/Spark):
    Experiência com processamento de dados usando Python e Apache Spark (para entender o legado em Databricks e atuar no Dataproc quando necessário).
  • Conceitos de Arquitetura de Dados:
    Entendimento de Data Lakehouse, modelagem de dados, particionamento e formatos de arquivo (Parquet, Avro, Iceberg).
  • Versionamento e CI/CD:
    Experiência com Git e esteiras de deploy automatizado.
Diferenciais (Nice to have)
  • Experiência prévia com Dataform ou DBT para orquestração de transformações SQL.
  • Conhecimento em Terraform para Infraestrutura como Código (IaC).
  • Familiaridade com arquitetura de eventos (Kafka ou Event Hubs) e processamento streaming.
  • Entendimento de Databricks (para facilitar a leitura e migração do código legado).
  • Conhecimento em governança de dados (Dataplex, IAM) e segurança (VPC Service Controls).
O que você vai encontrar
  • Um ambiente técnico desafiador com alto volume de dados (Petabytes) e migração de milhares de objetos.
  • Oportunidade de trabalhar com tecnologias de ponta em GCP (Big Lake, Analytics Hub, Gemini para enriquecimento de dados).
  • Atuação em um modelo de Data Mesh, com domínios de ingestão e processamento bem definidos.

Mid Pleno

LI-RW1

Nossos benefícios
  • Plano de saúde e odontológico;
  • Vale alimentação e refeição;
  • Auxílio-creche;
  • Licença parental estendida;
  • Parceria com academias e profissionais de saúde e bem-estar via Wellhub (Gympass) Total Pass;
  • Participação nos Lucros e Resultados (PLR);
  • Seguro de Vida;
  • Plataforma de aprendizagem contínua (CI&T University);
  • Clube de descontos;
  • Plataforma online gratuita dedicada à promoção da saúde física, mental e bem-estar;
  • Curso gestante e parentalidade…
To View & Apply for jobs on this site that accept applications from your location or country, tap the button below to make a Search.
(If this job is in fact in your jurisdiction, then you may be using a Proxy or VPN to access this site, and to progress further, you should change your connectivity to another mobile device or PC).
 
 
 
Search for further Jobs Here:
(Try combinations for better Results! Or enter less keywords for broader Results)
Location
Increase/decrease your Search Radius (miles)

Job Posting Language
Employment Category
Education (minimum level)
Filters
Education Level
Experience Level (years)
Posted in last:
Salary