Expert Data; F/H
Listed on 2026-01-16
-
IT/Tech
Data Engineer, Systems Engineer
Location: Nevada
Groupe Havana :
Créé en 2011, nous incarnons la transformation digitale en misant sur l’innovation, la performance et le bien‑être au travail. Notre identité :
- 200 experts déployés à travers la France.
- Acteurs clés dans les domaines de la Data, du Cloud et de l’intelligence artificielle.
- Nous accompagnons nos clients dans la transformation digitale de leur SI
📍
Localisation : Lyon (3 jours de télétravail/semaine)
🧭
Mobilité : Jusqu’à 80% sur site
📈
TJM : Négociable selon profil
🧠
Expérience requise : 6 ans minimum
Dans le cadre d’un programme de transformation digitale d’envergure
, notre client modernise son système d’information afin de renforcer la performance, la fiabilité et l’accessibilité de ses processus critiques.
La mission s’inscrit dans un projet stratégique de refonte SI visant à optimiser la planification d’activités complexes
, à travers un nouvel outil interconnecté à plusieurs systèmes partenaires.
- Cartographier les flux de données existants (modèles, règles de validation, lignage)
- Concevoir une architecture de données moderne et scalable (cloud + on-prem)
- Implémenter des pipelines robustes de traitement et de transformation de données
- Contribuer à diffuser une culture data moderne (Data Ops, IA, performance)
- Catalogue complet des données (sources, règles de transformation, flux)
- Solution d’alimentation automatisée pour l’outil de planification, intégrée à plusieurs SI
- Documentation technique et fonctionnelle complète
- Dashboard de monitoring des flux (performance, qualité, volumétrie)
- SQL avancé (optimisation, requêtage complexe, procédures stockées)
- ETL/ELT :
Spark, Glue, Data Flow - Traitement batch & stream (Airflow, Kafka, Lambda évent.)
- AWS (S3, Glue, Athena, RDS, IAM, Cloud Watch)
- Infrastructure as Code (Terraform)
- Architecture cloud hybride (sécurité, coût, scalabilité)
- Bases de données relationnelles (Postgre
SQL, Oracle, MySQL) - Data Lakes (Parquet, Delta Lake…)
- Gestion de métadonnées & lignage (Data Catalog, Atlas…)
- Git, CI/CD, tests automatisés
- Monitoring des pipelines (logs, erreurs, alerting)
- Bonnes pratiques de développement (clean code, documentation, modularité)
- Esprit analytique, structuré, rigoureux
- Excellent relationnel et capacité à travailler en équipe projet
- Curiosité technique, autonomie, force de proposition
- Appétence pour les environnements agiles et complexes
- AWS Certified Data Analytics – Specialty
- Certifications sécurité (type ISO 27001, CISSP)
- Scrum / Agile Foundation
Ce poste n’est pas ouvert à l’alternance ou aux stages !
Poste ouvert aux personnes en situation d’handicap !
(If this job is in fact in your jurisdiction, then you may be using a Proxy or VPN to access this site, and to progress further, you should change your connectivity to another mobile device or PC).