More jobs:
Senior Cloud Architect
Job in
56021, Cascina, Toscana, Italy
Listed on 2026-01-02
Listing for:
Altro
Full Time
position Listed on 2026-01-02
Job specializations:
-
Software Development
Data Engineer, AI Engineer
Job Description & How to Apply Below
Senior Cloud Architect – ML Platform
Chi siamo
GANIGA è una startup deeptech italiana che sviluppa smart bins capaci di riconoscere e differenziare automaticamente i rifiuti. Combiniamo robotica, visione artificiale, AI e design industriale per creare prodotti robusti, scalabili e user-friendly, con l’obiettivo di rivoluzionare la raccolta differenziata e promuovere l’economia circolare.
Siamo un team giovane e dinamico, con mentalità startup: flessibili, veloci e orientati a creare impatto reale nel mondo.
Perché questo ruolo è importante
Cerchiamo un Senior Cloud Architect che diventi il punto di riferimento tecnico per l’intera infrastruttura di GANIGA, progettando un’architettura cloud-native su Google Cloud Platform capace di far scalare la nostra flotta di smart bins e le pipeline di visione artificiale. Sarai responsabile di implementare sistemi a microservizi ed event‑driven che permettano di addestrare e distribuire modelli AI in modo sicuro e veloce, garantendo osservabilità end‑to‑end e trasformando dati complessi in intelligenza operativa.
Per noi GCP non è un semplice strumento ma il cuore pulsante del progetto, per questo cerchiamo un esperto che conosca la piattaforma nativamente e sappia governare l’intero ciclo di vita dei dati e dei modelli per supportare la nostra crescita tecnologica.
Responsabilità principali
Design e Governo Architetturale :
Definire e governare i blueprint architetturali, focalizzandosi su microservizi, architetture event‑driven, data governance e principi di security‑by‑design.
Design e Implementazione MLOps :
Progettare e implementare architetture per l’addestramento continuo (Continuous Training), il versioning e la distribuzione sicura dei modelli AI / Visione Artificiale in produzione (sia in cloud che Edge).
Pipeline Dati e Ingestione IoT :
Costruire architetture cloud scalabili per l’ingestione, l’elaborazione e lo storage di grandi volumi di dati IoT / telemetria e, in particolare, i dati necessari per il training AI (immagini, metadati) tramite servizi event‑driven (es. Pub/Sub).
Stack Tecnologico GCP :
Scelta, integrazione e supervisione dell’intero stack tecnologico in ambiente Google Cloud Platform (GCP), inclusi componenti di orchestrazione container (GKE) e soluzioni serverless.
Infrastruttura as Code (IaC) :
Progettare e automatizzare l’infrastruttura tramite strumenti IaC (es. Terraform, Bicep, Cloud Formation / CDK) per il provisioning e la gestione delle risorse, con particolare attenzione agli ambienti di calcolo ad alte prestazioni (GPU, TPU).
Sicurezza e Compliance :
Definire e implementare le politiche di sicurezza (IAM, networking) per proteggere l’infrastruttura ML, i dataset sensibili e l’applicazione (OWASP best practice), garantendo autenticazione e protocolli sicuri.
Resilienza e Osservabilità :
Collaborare con i team SRE / Dev Sec Ops per garantire resilienza, performance, logging, monitoraggio robusto delle pipeline ML e osservabilità end‑to‑end. Definire i criteri di Business Continuity e i livelli di RTO / RPO.
Collaborazione Tecnica :
Lavorare a stretto contatto con i Data Scientist e gli Ingegneri Software per supportare le loro esigenze infrastrutturali specifiche dell’AI e supportare il miglioramento continuo dei processi di rilascio, documentazione e knowledge transfer.
Ottimizzazione Costi :
Ottimizzare continuamente i costi delle risorse di calcolo e storage in ambiente GCP.
Requisiti minimi
Esperienza :
Solida esperienza (minimo 5 anni) nella progettazione e gestione di architetture cloud complesse, distribuite e in produzione.
Cloud :
Competenza approfondita e documentata in Google Cloud Platform (GCP).
Architetture Distribuite :
Ottima conoscenza dei pattern per microservizi, architetture multi‑tenant, architetture event‑driven e principi API‑first.
Containerizzazione e Orchestrazione :
Comprensione solida e pratica di containerizzazione (Docker) e orchestrazione (Kubernetes / GKE).
IaC / Automazione :
Esperienza pratica e padronanza nell’uso di strumenti IaC (Terraform) e scripting / programmazione per l’automazione (es. Python, Bash).
MLOps e Data Pipeline :
Esperienza nella creazione o gestione di pipeline di dati e di…
Position Requirements
10+ Years
work experience
Note that applications are not being accepted from your jurisdiction for this job currently via this jobsite. Candidate preferences are the decision of the Employer or Recruiting Agent, and are controlled by them alone.
To Search, View & Apply for jobs on this site that accept applications from your location or country, tap here to make a Search:
To Search, View & Apply for jobs on this site that accept applications from your location or country, tap here to make a Search:
Search for further Jobs Here:
×