Senior Data Engineer; Snowflake Expert), hibrido
Publicado en 2025-12-30
-
TI/Tecnología
Ingeniero de datos, Analista de datos, Gerente de Ciencias de Datos, Big Data
Senior Data Engineer (Snowflake Expert)
Buscamos un perfil Senior Data Engineer especializado en Snowflake que quiera desarrollar su carrera profesional integrando grandes volúmenes de datos en soluciones de IA de vanguardia.
CONTEXTO RESPONSABILIDADESLa persona seleccionada se incorporará al equipo Funcional con la misión crítica de conectar el Core de datos de la compañía con los nuevos agentes de IA. El Data Engineer deberá diseñar y construir pipelines robustos de extracción, transformación y carga (ELT) que alimenten los sistemas inteligentes, garantizando la calidad y disponibilidad del dato. Será imprescindible contar con un dominio experto de Snowflake y habilidades sólidas en Python, SQL y entorno AWS.
PROYECTOEQUIPO
El proyecto requiere desbloquear el valor de los datos almacenados en el Data Lake corporativo para su consumo por modelos de IA Generativa. Esto implica la creación de conectores seguros, optimización de queries complejas y la estructuración de datos no estructurados.
Para el éxito del proyecto, necesitamos especialistas que entiendan cómo modelar el dato para ser consumido por un LLM. Este perfil trabajará en estrecha colaboración con los AI Engineers y el equipo de Backend, bajo la supervisión del Product Manager y siguiendo las directrices del Arquitecto.
EXPERIENCIA CONOCIMIENTOSEl perfil a incorporar deberá contar con al menos 5 años de experiencia en Ingeniería de Datos, con una especialización profunda y demostrable en Snowflake en entornos productivos. Deberá tener un fuerte background en desarrollo de pipelines ETL/ELT escalables.
Se valorará experiencia previa integrando plataformas de datos con servicios de Machine Learning o IA.
Será necesario tener experiencia previa con tecnologías:
- Core Data:
Snowflake (Experto), SQL Avanzado, Python (Pandas, PySpark) - Orquestación:
Airflow, AWS Glue, dbt - Cloud: AWS (S3, Lambda, Kinesis)
- Ingeniería de Software:
Git, CI/CD para datos, Testing de datos
Además se valorará positivamente contar con experiencia o conocimientos en:
- Databricks:
PySpark, Delta Lake - Vector Databases:
Preparación de datos para vectorización - Formatos:
Manejo de JSON, Parquet, Avro y datos no estructurados
La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).
Snowflake, Python, SQL, ETL, Pandas, Py Spark
#J-18808-LjbffrPara buscar, ver y solicitar empleos que acepten solicitudes de su ubicación o país, toque aquí para realizar una búsqueda: