CV du
consultant
Réf PROF00009375
Compétences
Expert
Moyen
Débutant
BDD
Azure BI Data Databricks DataWareHouse CLOUDERA datalake DWH Hbase HDFS HIVE hortonworks MYSQL Phoenix Postgis POSTGRESQL StockageConnaissances fonctionnelles
notebooks Acquisition Analyse ANGLAIS ARCGIS Assurances bale Banque Cloud Conformité DAT DATA QUALITY Déploiement finances flux FRTB GDPR GOLD Industrialisation IoT Kafka Microsoft pipelines Production Qgis Réconciliation Rédaction REPORTING Risques RUN Sécurité SparkSQL TESTS trading transformationLangages
PySpark PYTHON PYTHON 3 Spark SQL Anaconda Batch Hadoop JAVA JIRA JSON powerBI scala TALENDMéthodes
DEVOPS api Conception Conseil CSV développement integration Jenkins MIGRATION Modélisation Nexus POC Qualité SCRUM SupportOutils
Azure Data Factory Datadog DATAVIZ GitLab officeRéseaux et Middleware
CDP CONTROLM DeltaLake MonitoringSystèmes
GIT LINUXDiplômes et formations
Pays / régions
Expérience professionnelle
CONSULTANTE BIG DATA Senior
~8 ANS D’EXPERIENCE
Domaine de compétence • Recueil et analyse des besoins
• Conception et implémentation des solutions Big Data
• Développement et test des jobs Big Data en batch et en temps réel
• Rédaction des différentes documentations (technique, fonctionnelle et DAT)
• Réalisation de POC pour la validation des solutions
• Support et accompagnement à la montée en compétence des nouveaux collaborateurs
Compétences techniques • BIG DATA: Microsoft Azure Cloud, Azure Data Factory, Azure DevOps, Databricks, Deltalake, Spark, SparkSQL, SparkML, SparkStreaming, Kafka, Cloudera, Hadoop
• BASE DE DONNEES: Mysql, Hive, Hbase, Phoenix, postgresql
• DATAVIZ: Power BI, Datadog
• LANGAGES: Scala, Python, Java
• INTEGRATION: Git, Jenkins, Nexus, Control-M, Rundeck, Jira
• METHODOLOGIE: SCRUM
Diplômes et formations • 2015-2017 : Diplôme Ingénieur d’Etat en "Télécommunication et Technologies de l’information" de l’INPT (Institut National des Postes et Télécommunication)
• 2012-2015 : Licence professionnelle en Electronique, Automatique et Télécommunication à la Faculté Polydisciplinaire (Maroc)
• Juin 2012 : Baccalauréat Sciences Mathématiques A au lycée IBN ABDOUN (Maroc)
Langues
Anglais : Bon niveau
Expériences Professionnelles
AXA Assurances Octobre 2022 A Juin 2025
Migration du datawarehouse analytique multi usages (souscriptions, sinistres, finances, risques, …) vers le Cloud
ROLE : Senior Data Engineer / Référent fonctionnel
CONTEXTE: Migration et refonte d’une application on premise basée sur SQL Server vers un datalake sur Azure Cloud pour supporter de nouveaux besoins analytiques et BI tout en optimisant les temps de traitement et en améliorant la traçabilité de la donnée
• Collaboration avec les équipes métier pour identifier, explorer, comprendre les données du legacy
• Intégration des données avec ADF dans la zone landing du dataLake
• Transformation des données et mise à disposition des vues métier à l’aide de pipelines ADF et de jobs Spark sur Databricks
• Garantie de la qualité de la donnée après la migration avec des notebooks pySpark sur Databricks
• Diminution des temps et des coûts de traitement basée sur les optimisations Spark et sur les techniques avancées Deltalake sur Databricks (Z-Ordering, Vaccum)
ENVIRONNEMENT TECHNIQUE : Microsoft Azure Cloud, Azure Data Factory, Databricks, ADLS Gen2, Azure DevOps, Delta Lake, Spark, Scala, Python
ITNOVEM Novembre 2021 A Octobre 2022
Refonte de la chaîne de collecte et de mise à disposition de données dans le Datalake pour le
reporting de l’entité Voyage (connaissance client)
ROLE : Senior Data Engineer
CONTEXTE: Migration d’une application Legacy en Talend vers Spark avec l’optimisation des temps de traitement et l’amélioration de la fraîcheur de la donnée PAO/RCU
• Reprise et compréhension de l’application existante (en Talend) / Recueil des besoins fonctionnels.
• Documentation des flux applicatifs
• Identification et exploration des sources de données sur Notebook Databricks
• Ingestion et cleaning des données brutes au format json/parquet/csv.
• Modélisation des traitements en incrémental (vs reprise quotidienne d’historique)
• Implémentation des règles métier et réconciliation des données en Spark/Scala
• Amélioration des performances des traitements
• Stockage des données gold dans le Datalake au format Delta
• Mise à disposition des vues métier dans DWH (Azure Synapse)
• Aide à l’industrialisation des chaînes de développement et de déploiement (CI/CD)
• Monitoring applicatif avec Datadog
ENVIRONNEMENT TECHNIQUE : Microsoft Azure Cloud, Databricks 9.1 LTS, Azure Synapse, Spark, Delta, Scala, Datadog, Rundeck, Jenkins, Nexus, GitLab
NATIXIS BANQUE AVRIL 2019 A Novembre 2021
Développement de deux applications qui font le calcul de risque du trading pour Natixis et Natixis BPCE
ROLE : Big Data Engineer
CONTEXTE: Le calcul du ratio rendement/risque basé sur la législation négociée lors des accords de Bâle IV (Fundamental Review of the Trading Book FRTB) que les banques devront respecter en 2022.
• Analyse des besoins.
• Identification des sources de données en s’assurant de la conformité de leurs utilisations.
• Ingestion des sensibilités raw produites par les front office pricers via kafka.
• Développement des jobs (Spark/Scala) en batch pour le Traitement et calcul des sensibilités Golden et Intraday.
• Modélisation, développement et tests des interfaces API pour répondre aux requêtes de la banque.
• Stockage des sensibilités calculées dans HDFS/Hive.
• Suivi du RUN (PROD) et amélioration continue des modèles
• Restitution des alertes en temps réel pour l’ensemble des entités du Groupe Natixis.
• Mise en place des process de conformité GDPR : Anonymisation des données, purge automatique des données.
• Suivi et réalisation des mises en production et résolution de bugs.
• Monitoring du process d’intégration des sensisbilités.
• Reporting de l’integration of sensis avec PowerBI
• Migration de Hdp3 à CDP private Cloud 7.1.6
ENVIRONNEMENT TECHNIQUE : HDP 3.0, CLOUDERA, HADOOP, SPARK, SCALA, HIVE, Phoenix, KAFKA, GIT,JENKINS,CONTROL-M, XL Deploy, PowerBI
GROUPE OCP AOUT 2017 A MARS 2019
Mission 1 : Développement d’une platforme IoT pour la maintenance des équipements et ateliers de l’OCP Group
PERIODE : Août 2017 – Mars 2018
ROLE : Big Data Engineer
CONTEXTE: Développement d’une plateforme pour l’IoT (acquisition des données, monitoring,
Analyse et prédiction des pannes).
ACTIVITES:
• L’ingestion des données issues des différents capteurs (via Gateway) avec KAFKA.
• Traitement des données en temps réel avec Spark Streaming/Scala
• Stockage des données traitées dans HDFS/Hive
ENVIRONNEMENT TECHNIQUE : Hadoop, Python, Spark, Kafka, sparkSql, Hive,Linux, Hortonworks HDP 3.0, Git, Jenkins, LoRa.
Mission 2 : Développement d’une plateforme pour le conseil en agriculture
PERIODE : Mars 2018 – Mars 2019
ROLE : Big Data Engineer
CONTEXTE : Développement d’une plateforme de recommandation agricole pour faire face à l’enjeu de sécurité alimentaire en Afrique par l’augmentation de la production en se basant sur plusieurs facteurs (type de Sol, fertilité, climat, population…).
ACTIVITES:
• Collecte des données spatiales (Bases de données historiques | Bases de données de la FAO | GPS | Satellite remote sensing Capteurs)
• Stockage des données Spatiales dans une base de données géographique PostgreSQL (POSTGIS)
• Traitement et visualisation des données géographiques avec pySpark / ArcGis.
• L’interpolation spatiale des données géographique du sol (pH,MO, Potassium..) avec la pondération par l’Inverse de la distance (IDW).
• L’implémentation d’un modèle de prédiction pour l’irrigation (SparkML).
ENVIRONNEMENT TECHNIQUE: Microsoft Azure Cloud, Spark, SparkSql, Spark ML, Anaconda, Python, Sql ArcGis, QGIS, Arcpy, Linux.
~8 ANS D’EXPERIENCE
Domaine de compétence • Recueil et analyse des besoins
• Conception et implémentation des solutions Big Data
• Développement et test des jobs Big Data en batch et en temps réel
• Rédaction des différentes documentations (technique, fonctionnelle et DAT)
• Réalisation de POC pour la validation des solutions
• Support et accompagnement à la montée en compétence des nouveaux collaborateurs
Compétences techniques • BIG DATA: Microsoft Azure Cloud, Azure Data Factory, Azure DevOps, Databricks, Deltalake, Spark, SparkSQL, SparkML, SparkStreaming, Kafka, Cloudera, Hadoop
• BASE DE DONNEES: Mysql, Hive, Hbase, Phoenix, postgresql
• DATAVIZ: Power BI, Datadog
• LANGAGES: Scala, Python, Java
• INTEGRATION: Git, Jenkins, Nexus, Control-M, Rundeck, Jira
• METHODOLOGIE: SCRUM
Diplômes et formations • 2015-2017 : Diplôme Ingénieur d’Etat en "Télécommunication et Technologies de l’information" de l’INPT (Institut National des Postes et Télécommunication)
• 2012-2015 : Licence professionnelle en Electronique, Automatique et Télécommunication à la Faculté Polydisciplinaire (Maroc)
• Juin 2012 : Baccalauréat Sciences Mathématiques A au lycée IBN ABDOUN (Maroc)
Langues
Anglais : Bon niveau
Expériences Professionnelles
AXA Assurances Octobre 2022 A Juin 2025
Migration du datawarehouse analytique multi usages (souscriptions, sinistres, finances, risques, …) vers le Cloud
ROLE : Senior Data Engineer / Référent fonctionnel
CONTEXTE: Migration et refonte d’une application on premise basée sur SQL Server vers un datalake sur Azure Cloud pour supporter de nouveaux besoins analytiques et BI tout en optimisant les temps de traitement et en améliorant la traçabilité de la donnée
• Collaboration avec les équipes métier pour identifier, explorer, comprendre les données du legacy
• Intégration des données avec ADF dans la zone landing du dataLake
• Transformation des données et mise à disposition des vues métier à l’aide de pipelines ADF et de jobs Spark sur Databricks
• Garantie de la qualité de la donnée après la migration avec des notebooks pySpark sur Databricks
• Diminution des temps et des coûts de traitement basée sur les optimisations Spark et sur les techniques avancées Deltalake sur Databricks (Z-Ordering, Vaccum)
ENVIRONNEMENT TECHNIQUE : Microsoft Azure Cloud, Azure Data Factory, Databricks, ADLS Gen2, Azure DevOps, Delta Lake, Spark, Scala, Python
ITNOVEM Novembre 2021 A Octobre 2022
Refonte de la chaîne de collecte et de mise à disposition de données dans le Datalake pour le
reporting de l’entité Voyage (connaissance client)
ROLE : Senior Data Engineer
CONTEXTE: Migration d’une application Legacy en Talend vers Spark avec l’optimisation des temps de traitement et l’amélioration de la fraîcheur de la donnée PAO/RCU
• Reprise et compréhension de l’application existante (en Talend) / Recueil des besoins fonctionnels.
• Documentation des flux applicatifs
• Identification et exploration des sources de données sur Notebook Databricks
• Ingestion et cleaning des données brutes au format json/parquet/csv.
• Modélisation des traitements en incrémental (vs reprise quotidienne d’historique)
• Implémentation des règles métier et réconciliation des données en Spark/Scala
• Amélioration des performances des traitements
• Stockage des données gold dans le Datalake au format Delta
• Mise à disposition des vues métier dans DWH (Azure Synapse)
• Aide à l’industrialisation des chaînes de développement et de déploiement (CI/CD)
• Monitoring applicatif avec Datadog
ENVIRONNEMENT TECHNIQUE : Microsoft Azure Cloud, Databricks 9.1 LTS, Azure Synapse, Spark, Delta, Scala, Datadog, Rundeck, Jenkins, Nexus, GitLab
NATIXIS BANQUE AVRIL 2019 A Novembre 2021
Développement de deux applications qui font le calcul de risque du trading pour Natixis et Natixis BPCE
ROLE : Big Data Engineer
CONTEXTE: Le calcul du ratio rendement/risque basé sur la législation négociée lors des accords de Bâle IV (Fundamental Review of the Trading Book FRTB) que les banques devront respecter en 2022.
• Analyse des besoins.
• Identification des sources de données en s’assurant de la conformité de leurs utilisations.
• Ingestion des sensibilités raw produites par les front office pricers via kafka.
• Développement des jobs (Spark/Scala) en batch pour le Traitement et calcul des sensibilités Golden et Intraday.
• Modélisation, développement et tests des interfaces API pour répondre aux requêtes de la banque.
• Stockage des sensibilités calculées dans HDFS/Hive.
• Suivi du RUN (PROD) et amélioration continue des modèles
• Restitution des alertes en temps réel pour l’ensemble des entités du Groupe Natixis.
• Mise en place des process de conformité GDPR : Anonymisation des données, purge automatique des données.
• Suivi et réalisation des mises en production et résolution de bugs.
• Monitoring du process d’intégration des sensisbilités.
• Reporting de l’integration of sensis avec PowerBI
• Migration de Hdp3 à CDP private Cloud 7.1.6
ENVIRONNEMENT TECHNIQUE : HDP 3.0, CLOUDERA, HADOOP, SPARK, SCALA, HIVE, Phoenix, KAFKA, GIT,JENKINS,CONTROL-M, XL Deploy, PowerBI
GROUPE OCP AOUT 2017 A MARS 2019
Mission 1 : Développement d’une platforme IoT pour la maintenance des équipements et ateliers de l’OCP Group
PERIODE : Août 2017 – Mars 2018
ROLE : Big Data Engineer
CONTEXTE: Développement d’une plateforme pour l’IoT (acquisition des données, monitoring,
Analyse et prédiction des pannes).
ACTIVITES:
• L’ingestion des données issues des différents capteurs (via Gateway) avec KAFKA.
• Traitement des données en temps réel avec Spark Streaming/Scala
• Stockage des données traitées dans HDFS/Hive
ENVIRONNEMENT TECHNIQUE : Hadoop, Python, Spark, Kafka, sparkSql, Hive,Linux, Hortonworks HDP 3.0, Git, Jenkins, LoRa.
Mission 2 : Développement d’une plateforme pour le conseil en agriculture
PERIODE : Mars 2018 – Mars 2019
ROLE : Big Data Engineer
CONTEXTE : Développement d’une plateforme de recommandation agricole pour faire face à l’enjeu de sécurité alimentaire en Afrique par l’augmentation de la production en se basant sur plusieurs facteurs (type de Sol, fertilité, climat, population…).
ACTIVITES:
• Collecte des données spatiales (Bases de données historiques | Bases de données de la FAO | GPS | Satellite remote sensing Capteurs)
• Stockage des données Spatiales dans une base de données géographique PostgreSQL (POSTGIS)
• Traitement et visualisation des données géographiques avec pySpark / ArcGis.
• L’interpolation spatiale des données géographique du sol (pH,MO, Potassium..) avec la pondération par l’Inverse de la distance (IDW).
• L’implémentation d’un modèle de prédiction pour l’irrigation (SparkML).
ENVIRONNEMENT TECHNIQUE: Microsoft Azure Cloud, Spark, SparkSql, Spark ML, Anaconda, Python, Sql ArcGis, QGIS, Arcpy, Linux.
Consultants similaires
Ingénieur Prod / Devops / Cloud /
VoirCompétences : Azure, DEVOPS, DYNATRACE, GitLab CI/CD, KUBERNETES, ...
consultant Retenir
Chef de projet senior data migration
VoirCompétences : Change Management, Data, MIGRATION, PROJET, projets ...
consultant Retenir
Architecture/Gouvernance/Cloud/BI
VoirCompétences : Power BI, Databricks, PYTHON, SQL, 3D, AGILE, Agilité, ...
consultant Retenir
Data Engineer Senior/ Architect
VoirCompétences : Data, Databricks, PYTHON, scala, Spark, airflow, DBT, ...
consultant Retenir
Change manager transformation digitale
VoirCompétences : BI, Gestion de crises cyber, Gouvernance, PILOTAGE, ...
consultant Retenir
Data analyst / chef de projet
VoirCompétences : Confluence, Data, JIRA, PYTHON, SCRUM, Conception, ...
consultant Retenir
Data Engineer Azure Fabric
VoirCompétences : Azure, BI, Cloud, Data, ACCESS, Administration, AGILE, ...
consultant Retenir
data & software engineer
VoirCompétences : Data, ETL, PYTHON, SOFTWARE, airflow, SQL, AGILE, ANGLAIS, ...
consultant Retenir
chef de projet
VoirCompétences : Cloud, Confluence, Data, PROJET, PYTHON 3, data analysis, ...
consultant Retenir
