Description
de la mission
Senior Data Engineer
Senior Data Engineer
Île-de-France
À partir du 01/12/2025 - 12 mois
Mission publiée le : 14/11/2025
Mission consultée : 116 fois
Consultants positionnés : 4
Référence : MISS0176907772
Compétences
EXPERT
. Pandas . PySpark . PYTHON . Spark . SQL . BI . Data . Databricks . ETL . snowflake . Stockage . AWS . DeltaLake . infrastructures . S3 . Terraform . Architecture . DEVOPS . communication . design . pipelines . airflow . GitLab . PolarsDescription de la mission
Cherchons un profil Data Engineer de plus de 7ans d'expérience pour démarrer une mission début décembre 2025 (1 an)
Niveau Confirmé à expert REQUIS sur :
- Snowflake
- Airflow
- AWS
- Spark
Expertise impérative sur :
Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à :
- Développer des pipelines et ETL sur AWS vers Snowflake
- Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake
- Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars)
- Réaliser les traitements de volume de données massives avec PySpark
- Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform
- Orchestrer les différents traitements via Airflow
- Déployer et maintenir des applications via la CI/CD
- Participer aux réflexions et au design d’architecture
- Bonne capacité de vulgarisation et de communication
- Participer aux rituels agiles de l’équipe
- Contribuer à la documentation technique et fonctionnelle
5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS.
Un positionnement en tant que techlead serait un plus.
De l’expérience dans un contexte BI serait un plus.
Un positionnement ou une expérience en tant que DevOps serait un plus.
Niveau Confirmé à expert REQUIS sur :
- Snowflake
- Airflow
- AWS
- Spark
Expertise impérative sur :
Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à :
- Développer des pipelines et ETL sur AWS vers Snowflake
- Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake
- Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars)
- Réaliser les traitements de volume de données massives avec PySpark
- Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform
- Orchestrer les différents traitements via Airflow
- Déployer et maintenir des applications via la CI/CD
- Participer aux réflexions et au design d’architecture
- Bonne capacité de vulgarisation et de communication
- Participer aux rituels agiles de l’équipe
- Contribuer à la documentation technique et fonctionnelle
5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS.
Un positionnement en tant que techlead serait un plus.
De l’expérience dans un contexte BI serait un plus.
Un positionnement ou une expérience en tant que DevOps serait un plus.
