Hybrid
Senior
Full Time
Posted January 14, 2026
Tech Stack
centro
kafka
spark
amazon-web-services
microsoft-azure
google-cloud-platform
java
scala
python
mongodb
airflow
apache-airflow
luigi
azure-data-factory
azure-synapse
azure-databricks
databricks
event-hub
aws-glue
amazon-redshift
amazon-s3
amazon-kinesis
postgresql
snowflake
delta-lake
debezium
airbyte-io
unity-3d
collibra
docker
kubernetes
Job Description
Descripción del puesto:
**¿Qué estamos buscando?**
Actualmente, tenemos un puesto vacante para un/a
**Senior Data Engineer**
que quiera unirse a nuestra compañía. Buscamos una persona con sólida trayectoría en ciencia de datos, capaz de liderar equipos o diseñar estrategias analíticas y guiar la implementación de soluciones avanzadas para nuestro
**Centro de Excelencia en España (CoEs) Data & IA.**
**Tus principales responsabilidades serán:**
Aunque dependerán de tus conocimientos y experiencia aportada, en general las principales funciones que llevarías a cabo con nosotros serían:
- Diseñar, desarrollar y mantener pipelines de datos en entornos batch y streaming.
- Gestionar la ingesta, transformación y almacenamiento de datos en sistemas SQL y NoSQL.
- Colaborar con equipos de AI y Analytics para garantizar la disponibilidad y calidad de los datos.
- Implementar soluciones de procesamiento distribuido con Spark, Kafka y Flink.
- Desplegar y gestionar servicios de datos en entornos Cloud(AWS, Azure o GCP).
- Asegurar buenas prácticas de desarrollo, versionado y testing de pipelines de datos.
**Requisitos:**
- Experiencia profesional de más de 5 años en proyectos como Data Engineer.
- Experiencia profesional en lenguajes de programación: Java, Scala y/o Python.
- Conocimientos de bases de datos y estructuras de datos (SQL y/o NoSQL (MongoDB, Cassanda, etc)
- Cloud: Experiencia en al menos un proveedor (AWS, GCP o Azure).
- Buenas prácticas de desarrollo: versionado, testing, CI/CD.
- Conocimiento en orquestación de workflows (Airflow, Luigi, etc..).
- Experiencia en integración de datos con soluciones de ML/AI.
- Familiaridad con metodologías ágiles (Scrum/Kanban).
- Valorable nivel de inglés alto (B2/C1) para colaborar en proyectos internacionales.
**Tecnologías principales con las que trabajamos:**
- Cloud Platforms: Azure (Data Factory, Synapse, Databricks, Event Hub), AWS (Glue, Redshift, S3, Kinesis), GCP (BigQuery, Dataflow, Pub/Sub).
- Procesamiento de datos: Spark, Databricks, Flink, Beam, Airflow.
- Bases de datos y almacenamiento: SQL Server, PostgreSQL, Snowflake, Delta Lake, Parquet, BigQuery.
- Ingesta y streaming: Kafka, Debezium, NiFi, AirByte, Event Hub, Pub/Sub.
- Gobernanza y catálogo: Unity Catalog, Collibra, Anjana, OpenMetadata, Purview.
- Contenedores y orquestación: Docker, Kubernetes.
- Lenguajes: Python, Scala, Java, SQL.
**Competencias personales:**
- Trabajo en equipo y colaboracióhn multidisciplinaria.
- Habilidades de comunicación, favoreciendo dinámicas que permitan el flujo de conocimiento, con interés tanto en aprender como en enseñar.
- Buena comunicación y documentación técnica.
- Orientación a resultados y proactividad.
Ofrecemos:
En GFT consideramos que la diversidad es uno de nuestros pilares fundamentales y promovemos un entorno de trabajo inclusivo basado en la cooperación y el respeto mutuo. Ofrecemos igualdad de oportunidades a todas las personas sin tener en cuenta su raza, origen cultural, sexo, edad, orientación sexual, identidad de género, discapacidad o creencias religiosas. GFT dispone y ha registrado un Plan de Igualdad que recoge las medidas a adoptar con el objetivo de alcanzar en la empresa la igualdad de trato y de oportunidades entre mujeres y hombres y a eliminar, si es que la hay, la discriminación por razón de sexo
**¡Únete a nuestro equipo global!**