Data Engineer - Kafka & AWS Cloud
Listed on 2025-12-19
-
IT/Tech
Data Engineer, Cloud Computing
AGAP2 è un gruppo europeo di consulenza ingegneristica parte del gruppo MoOngy. Presente in 14 paesi europei con oltre 8.500 dipendenti abbiamo aperto, da quattro anni, la prima sede italiana a Milano e, vista la continua crescita, stiamo rafforzando e ampliando il nostro team con persone che condividano gli stessi valori della nostra società: AMBIZIONE, DINAMISMO, VOGLIA DI METTERSI IN GIOCO, il tutto in una realtà giovane ed in continua evoluzione, nella quale le relazioni umane sono sempre al primo posto.
Siamo alla ricerca di un Data Engineer con una forte specializzazione nello streaming dei dati tramite Kafka
, competenze avanzate su AWS Cloud e solide basi Dev Ops
. La posizione è prevista in modalità full remote
, con possibilità di incontri on-site a Milano o Roma.
Il candidato ideale ha esperienza nella gestione di pipeline dati real-time, architetture distribuite e soluzioni cloud-native orientate ai principi del Data Mesh
.
Responsabilità
- Sviluppo e manutenzione di pipeline dati real-time basate su Confluent Kafka e AWS Managed Apache Flink
. - Progettazione di architetture di streaming scalabili, resilienti e orientate ai data product.
- Integrazione dei flussi streaming con servizi AWS (Glue, Lambda, S3).
- Implementazione di infrastrutture e pipeline tramite IaC (Cloud Formation / Sceptre) e CI/CD (Git Lab).
- Orchestrazione dei workflow tramite AWS Managed Apache Airflow (MWAA).
- Gestione del data lake su S3 con formati Parquet e Iceberg
, integrato con Athena e Redshift Serverless. - Supporto alla governance del dato tramite Lake Formation e strumenti come Witboost.
- Collaborazione con i team di BI per l’esposizione dei dataset verso Power BI e Tableau.
Competenze tecniche richieste
- Solida esperienza come Data Engineer
, con forte focus su pipeline dati in streaming. - Ottima conoscenza di Kafka (Confluent, architetture distribuite, messaging).
- Competenza su AWS (S3, Glue, Lambda, Redshift Serverless, IAM, networking).
- Esperienza in Dev Ops
: CI/CD (Git Lab), Infrastructure as Code (Cloud Formation, Sceptre), automazione. - Conoscenza di strumenti di orchestrazione come Airflow/MWAA
. - Esperienza con data lake su S3 e formati avanzati (Parquet, Iceberg).
- Familiarità con concetti e pratiche Data Mesh (domain ownership, data product, governance).
- Capacità di lavorare con workload real-time, architetture distribuite e ambienti cloud-native.
- Ottime capacità di problem solving e collaborazione in team.
- Esperienza con servizi AWS per la governance (Lake Formation).
- Conoscenza di Redshift Serverless e query engines come Athena.
- Familiarità con strumenti di metadata management (Witboost).
AGAP2 è un equal opportunities employer: crediamo che tutte le forme di diversità siano fonte di arricchimento reciproco. Ci impegniamo a garantire un ambiente di lavoro inclusivo, nel quale ogni singola risorsa possa apportare un valore unico alla nostra realtà. Pertanto, accogliamo candidature senza distinzione di età, genere, nazionalità, disabilità, orientamento sessuale, religione o stato civile.
Inoltre, teniamo fede ai nostri impegni prestando attenzione alle risorse appartenenti alle categorie protette ai sensi degli articoli 1 e 18 della Legge 68/99.
I dati personali saranno trattati in conformità alle disposizioni contenute nel Regolamento UE 2016/679.
Invia il tuo CV aggiornato a [sofia.cristiania] con oggetto Candidatura Data Engineer - Kafka & AWS Cloud - [Tuo Nome] .
#J-18808-Ljbffr(If this job is in fact in your jurisdiction, then you may be using a Proxy or VPN to access this site, and to progress further, you should change your connectivity to another mobile device or PC).