×
Register Here to Apply for Jobs or Post Jobs. X
More jobs:

Data Engineer

Job in Town of Italy, Penn Yan, Yates County, New York, 14527, USA
Listing for: Jumpit S.r.l
Full Time position
Listed on 2026-01-17
Job specializations:
  • IT/Tech
    Data Engineer
Salary/Wage Range or Industry Benchmark: 60000 - 80000 USD Yearly USD 60000.00 80000.00 YEAR
Job Description & How to Apply Below
Location: Town of Italy

Unisciti a JUMPIT:
Innovazione, Persone e Crescita nel Cuore della Digital Transformation Jumpit, nata nel 2019 come startup innovativa con l’obiettivo di guidare la trasformazione digitale di grandi aziende e istituti bancari. Fin dall’inizio abbiamo collaborato con le principali multinazionali ICT, offrendo soluzioni tecnologiche su misura e un servizio di eccellenza, sempre da partner, mai da semplici fornitori. La nostra mission è chiara: non solo abbracciare il cambiamento tecnologico, ma guidarlo, creando soluzioni all'avanguardia che plasmino il futuro digitale.

In JUMPIT, crediamo fortemente nel mettere le persone al centro di ogni nostra iniziativa. Le persone sono il cuore pulsante della nostra azienda; il loro benessere, la loro crescita e il loro sviluppo sono la nostra priorità. Ci impegniamo a condividere le strategie aziendali con trasparenza e a fornire formazione e supporto a ogni livello, garantendo che ogni membro del team sia equipaggiato per eccellere e innovare.

Stiamo cercando individui che condividano la nostra visione, che siano guidati dalla passione per la tecnologia e che desiderino essere protagonisti nella costruzione di un futuro digitale più luminoso. Se sei pronto a far parte di una squadra che valorizza il talento, incoraggia la crescita personale e professionale e lavora in prima linea nel settore della digital transformation, JUMPIT è il posto giusto per te.

Posizione

Aperta:
Data Engineer Sede:
Remoto Descrizione del Ruolo:

Siamo alla ricerca di un Data Engineer con una solida esperienza nella progettazione, sviluppo e gestione di pipeline dati scalabili e performanti. La risorsa sarà inserita in un team dedicato alla realizzazione di soluzioni di data processing e data integration in ambienti cloud-native, contribuendo all’evoluzione dell’ecosistema dati aziendale e all’implementazione di architetture moderne orientate al calcolo distribuito. Il candidato ideale ha una forte attitudine tecnica e una conoscenza approfondita dei processi ETL/ELT, dei sistemi di data ingestion e data transformation, oltre a una solida esperienza con strumenti come Apache Spark, Scala, Python e framework per l’elaborazione distribuita.

Cosa

offriamo:
  • Inserimento immediato in un Talent HUB giovane e dinamico.
  • JUMPIT LEARNING HUB, con corsi di aggiornamento e formazione.

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03. I curricula dovranno pervenire completi di dicitura che autorizza il trattamento dei propri dati: “Si autorizza al trattamento dei dati personali ai sensi del

D. Lgs. 196/2003.

Principali responsabilità:
  • Progettare, sviluppare e mantenere pipeline di elaborazione dati affidabili, scalabili e automatizzate.
  • Effettuare operazioni di data ingestion, cleaning, transformation e integration da sorgenti eterogenee.
  • Sviluppare processi ETL/ELT ottimizzati per grandi volumi di dati.
  • Utilizzare Apache Spark (3.x) e Scala (2.12) per il calcolo distribuito e l’elaborazione batch/streaming.
  • Integrare e orchestrare processi cloud-native in ambienti containerizzati basati su Docker e Kubernetes (K8s).
  • Garantire la qualità, la consitenza e la sicurezza dei dati all’interno delle pipeline.
  • Collaborare con Data Scientist, Analyst e team di sviluppo per l’implementazione di soluzioni analitiche e di machine learning.
  • Monitorare e ottimizzare le prestazioni delle pipeline e dei flussi di dati in produzione.
Competenze tecniche:
  • Conoscenza avanzata dei database relazionali e del linguaggio SQL.
  • Esperienza con Spark 3.x, Scala 2.12, Python, PySpark o Flink per la gestione di grandi moli di dati.
  • Familiarità con metodologie di data ingestion, data transformation e data pipeline orchestration.
  • Esperienza con Docker per la containerizzazione dei processi.
  • Conoscenza dei principi di orchestrazione in ambienti Kubernetes (K8s).
  • Approccio cloud-native nello sviluppo e nella gestione delle soluzioni dati.
#J-18808-Ljbffr
To View & Apply for jobs on this site that accept applications from your location or country, tap the button below to make a Search.
(If this job is in fact in your jurisdiction, then you may be using a Proxy or VPN to access this site, and to progress further, you should change your connectivity to another mobile device or PC).
 
 
 
Search for further Jobs Here:
(Try combinations for better Results! Or enter less keywords for broader Results)
Location
Increase/decrease your Search Radius (miles)

Job Posting Language
Employment Category
Education (minimum level)
Filters
Education Level
Experience Level (years)
Posted in last:
Salary