More jobs:
Job Description & How to Apply Below
Dove e come?
Italia - Full Remote
Di cosa ti occuperai?
Il/la professionista opererà in contesti consulenziali, contribuendo alla progettazione e allo sviluppo di soluzioni dati e cloud in scenari complessi.
Il ruolo prevede l'esecuzione di attività che spaziano dall’ingegneria del dato e sviluppo software, fino al supporto per la progettazione di infrastrutture cloud su Azure.
Progettare e sviluppare pipeline dati scalabili in Python e PySpark.
Implementare soluzioni cloud su Azure orientate ai dati (tra cui Azure Data Lake, Azure Functions, Azure Data Factory, ecc.).
Sviluppare componenti software e servizi backend per applicazioni data-driven.
Curare la qualità del codice, il versioning, il testing e l’automazione dei flussi.
Collaborare con stakeholder tecnici e di business nella definizione dei requisiti e nel rilascio di soluzioni affidabili.
Gestire attività progettuali in autonomia, mantenendo precisione e attenzione al dettaglio.
Supportare l’analisi, il troubleshooting e l’ottimizzazione delle performance dei sistemi.
Sei il candidato ideale se…
Dimostri autonomia nella gestione e nell’esecuzione delle attività. Lavori con precisione, attenzione ai dettagli e hai un forte orientamento alla qualità.
Cosa offriamo?
R.A.L. commisurata alla seniority;
Buon pasto (anche in modalità full remote);
Assicurazione sanitaria con copertura integrativa.
I nostri benefit:
Percorsi di carriera:
Abbiamo un articolato sistema di valutazione delle competenze e misurazione delle performance che consente al dipendente di crescere insieme a noi.
Formazione professionalizzante:
Offriamo percorsi di formazione e di aggiornamento professionale con taglio tecnico/pratico su tematiche in ambito ICT.
Sconti e promozioni riservate:
Abbiamo stabilito degli accordi con delle piattaforme per riservare ai nostri dipendenti scontistica e promozioni esclusive.
Competenze richieste:
Ottima conoscenza di Python per sviluppo applicativo e data engineering.
Esperienza con PySpark nell’elaborazione di grandi volumi di dati.
Solida esperienza sui principali servizi Azure, in particolare Azure Data Lake, Azure Functions, e Azure Data Factory.
Familiarità con architetture dati cloud‑native, pattern ETL / ELT e workflow orchestration.
Conoscenza dei sistemi di versionamento (Git) e delle best practice di sviluppo software.
Competenze in progettazione e sviluppo API REST.
Conoscenza di SQL e database relazionali.
Nice to have…
Esperienza in Azure Databricks.
Certificazioni Azure.
Competenze in containerizzazione (Docker) e pipeline CI / CD (Azure Dev Ops, Github Actions).
#J-18808-Ljbffr
Note that applications are not being accepted from your jurisdiction for this job currently via this jobsite. Candidate preferences are the decision of the Employer or Recruiting Agent, and are controlled by them alone.
To Search, View & Apply for jobs on this site that accept applications from your location or country, tap here to make a Search:
To Search, View & Apply for jobs on this site that accept applications from your location or country, tap here to make a Search:
Search for further Jobs Here:
×