
CV du
consultant
Réf PROF00008187
Compétences
Expert
Moyen
Débutant
BDD
Azure ACCESS BI CLOUDERA Data datalake DB2 Hbase HDFS HIBERNATE HIVE hortonworks Hue MapReduce MYSQL ORACLE POSTGRESQL SGBD Sqoop StockageConnaissances fonctionnelles
3D Acquisition Administration Analyse audit Banque Business communication Conformité CRM dashboard Déploiement DISTRIBUTION DSI energie ERP Exploitation flux Fonction Formateur Formation Homologation Incidents informatique INTEROPERABILITE Kafka kpi Méthodes Microsoft MIDDLEWARE mobilité Neo4j offshore pipelines PLM Production Produit Rédaction REPORTING SAP Sécurité SOFTWARE statistiques TELECOM Télécoms TESTS WEBLangages
DevSecOps gitlab CI Hadoop AJAX Batch C COBOL Confluence DOTNET ECLIPSE EJB ELK HTML J2EE JAVA JAVASCRIPT JIRA JSP MATLAB Microservices PASCAL Programmation PYTHON scala SCRIPT SHELL SOA Spark SPRING SQL struts TALEND VB VBScript WINDEV XMLMéthodes
AGILE api Architecture Conception développement DEVOPS elasticsearch ENCADREMENT Etudes Gouvernance integration Jenkins Management Maven MERISE PILOTAGE PROJET Qualité RECETTE SCRUM supervision Support SVN tomcat UMLOutils
airflow CVS GWT VaultRéseaux et Middleware
KUBERNETES ansible CFT FTP IP Kerberos Monitoring Reseau réseaux serveur Solr VMWARE VPN vSphereSystèmes
AIX APACHE CICS INFRASTRUCTURE LINUX MVS Systèmes TSO UNIX WEBLOGIC WEBSPHERE WINDOWSDiplômes et formations
Pays / régions
Expérience professionnelle
Première expérience en Data Science (Machine Learning - Big Data - Data Science)
2003 - Ecole Nationale Supérieure des Mines-St Etienne - Armines(Paris)
Projet : Projet de la région Rhône-Alpes pour améliorer la qualité de l’aire
Mission : Développement d’un outil de prévision des pics d’ozone.
Application d’une méthode de clustering basée sur la logique floue et datamining pour la prévision de pics
d'ozone [Chiu 1999]
Test du programme sur un échantillon de données (météo St Etienne 2001)
Le résultat a montré que la prévision a été proche de la réalité à plus de 95%
Environnement technique : Clustering, datamining, apprentissage artificielle (Machine Learning), MATLAB
FORMATIONS PROFESSIONNELLES
2024 – AZ104 – Microsoft Aure Administration IB Cegos - La défense
2024 – AZ900 – Microsoft Aure Fundamentals Microsoft Training
2023 – Cyber sécurité Réseaux & Internet Orsys – La Défense
2016 – Vmware vSphere : Installation, Configuration et Administration v6 G.Knowledge
2016 - Power Systems pour AIX - Administration système Unix Global Knowledge
2015 –Certification « DEVELOPING HADOOP APPLICATIONS » MapRAcademy
2015 – Introduction à SAP HANA SAP E-Learning
2011 - Réseaux : complément et applications CNAM-Paris
2009 - Enovia MatrixOne Dassault Systèmes University
2008 - DELMIA Usine numérique 3D Dassault Systèmes University
2007 - Optimisation des requêtes SQL LogicaCMG company
COMPETENCES TECHNIQUES
Programmation : JAVA, R , SCALA,PYTHON, SQL, PL/SQL, PASCAL, MATLAB, WINDEV
Méthodologie : SCRUM, UML, MERISE, MDA
ERP : SAP PI, SAP POTAL, SAP HANA
Systèmes : LINUX, UNIX, WINDOWS, Z/OS
Big Data/BI : HADOOP YARN, PIG, HIVE, SQOOP, SPARK, SAP HANA, R, BIRT
SGBD : ORACLE, DB2, POSTGRESQL, MYSQL, ACCESS
Outils : JIRA, Confluence, RSTUDIO, HANA STUDIO, ECLIPSE, VISUAL STUDIO
PLM DELMIA, VPM, ENOVIA V6
EXPERIENCES PROFESSIONNELLES
EDF (Energie) – DSIT – CAPGEMINI - DATALGO - Région parisienne Depuis Octobre 2018
Projet : DevSecOps Big Data
Fonction : Consultant DevSecOps et Big Data
Mission: Mettre en place DevSecOps pour les applications Big Data
L’objectif de la mission est la mise en place d’un système de déploiement DevOps pour des traitements Big Data.
Déployer la solution au sein de toutes les unités EDF avec le support et la formation des projets
La mission au sein du projet consiste à :
Mettre en place un outil de déploiement (Ansible) des applications big data en prenant en charge les
composants : Knox, Oozie, Spark, Hive, HBase, Phoenix, Nifi, Elk,
Développer des rôles Ansible pour des besoins spécifiques afin d’adresser les composants
Developper des modules Ansible spécifique en Python
Conception de pipelines DevSecOps et d’outils d’automatisation IT.
Automatiser, orchestrer et superviser les jobs développés par l’équipe data
Automatiser la communication avec les composants Hadoop en place (HDFS, Spark, Oozie,...)
Mettre en place les principes et outils d’exploitation de la solution : supervision, administration, sécurité…
Assurer la bonne communication avec les équipes techniques
Environment : Cloudera, Knox, Ansible, Vault, Yaml, Jenkins, Vmare, Ambari, Ranger, Kerberos, Spark, Hive,
Linux
Crédit Agricole - CACEIS (Banque) – DXC - DATALGO - Région parisienne Mai-Octobre 2018
Projet : Mettre en place un Data-Lake
Fonction : Architecte big data
Mission: Architecte, Administrateur Hadoop, Data-Lake
L’objectif de la mission est la définition de l’architecture de la nouvelle datalake, ensuite l’implémentation et la
gestion de l’infrastructure Big Data HortonWorks et aussi la mise en place une politique de sécurité et une
gouvernance de données.
La mission au sein du projet consiste à :
Définition de l’architecture technique
Mise en place de la sécurité du cluster Hortonworks Big Data
Installer et configurer : Knox & Ranger & Kerberos
Installer et configurer le ranger key management services (kms)
Configurer Kerberos via Ambari
Utiliser ranger pour sécuriser l’accès aux données
Gérer les permissions et l’audit avec Ranger
Installation, configuration de : Hortonworks, Talend BigData, Vertica, Attunity
Connecter tous les composants et les faire fonctionner ensemble
Administration Hadoop Hortonworks
Environment : Hadoop Hortonworks, Ambari, Ranger, Kerberos, Talend Big Data, Attunity Replicate, Kafka,
Vertica, Spark, Hive, Shell Linux
=
=
=
=
=
=
=
=
=
=
=
=
Page 3
Société Générale – DATALGO - Région parisienne Mai 2017-Mai 2018
Projet : Mise en conformité
Fonction : Ingénieur big data
Mission : Consultant Big Data
Le client a pour responsabilité, au plan mondial, de l'ensemble des outils informatiques de contrôle des abus de
marché, de conformité, et du risque opérationnel. En complément de cette responsabilité directe, il a aussi comme
rôle le pilotage des projets exécutés dans les autres entités relatifs.
L’objectif du projet est la mise en place de solutions basées sur la stack Hadoop : Distribution HortonWorks,
Stockage en Parquet, dénormalisation en HIVE, indexation SOLR, utilisation de SPARK/Java pour les process
distribués, utilisation de Oozie et de Spring également, restitution via
La mission au sein du projet consiste à :
Analyse et conception de la solution big data à mettre place
Chargement des données dans le DataLake
Développement en SPARK/JAVA de nouveaux patterns de détection
Restitution via une interface WEB ou l'outil TABLEAU Software
Développement et calcul des KPI/KRI
Indexation via SOLR
Environment : Hadoop Hortonworks, Java, Python, Spark, Hive, Hue, Keberos, Parquet, ElasticSearch, SolR,
Shell Linux, WSRest
EDF – Direction Nucléaire R&D - DATALGO Chatou Février – Mai 2017
Projet : Programme SdIN (Système d’Information du Nucléaire)
Fonction : Ingénieur big data
Mission : Data Analyste / Développeur Big Data
L’objectif de ce projet est de faciliter et d’homogénéiser les pratiques de contrôle de la qualité des données (respect
des règles de construction) et de suivi de l’effet parc – palier. Il s’agit également de doter les instances locales et
nationale de gouvernance des dispositifs nécessaires au pilotage des données paliers et sites.
Mettre en place un entrepôt de données permet de disposer des données provenant de plusieurs sources pour
alimenter les objets manipulés ou effectuer des contrôles de cohérence.
La mission au sein du projet consiste à :
Proposer des études d’architectures big data
Création d’un référentiel de données de références sur ELASTICSEARCH
Développement de plusieurs Batchs, Hive, Spark, pour l’intégration de données de plusieurs applications
dans la plateforme Hadoop
Mettre en place une API pour exposer les données Elasticsearch à une application web Spring
Développement de plusieurs Batch Spark en scala pour alimenter les indexes sur Elasticsearch
Environment : ElasticSearch, Hadoop Hortonworks, Scala, Parquet, Spark, Hive, Hue, Keberos,
=
=
=
=
=
=
=
=
=
=
=
=
Page 4
Certificat Data Science- Université Paris Dauphine –Paris Mars 2016– Juin 2016
Projet : Projet d’étude
Fonction : Data Engineer & Data Scientist
Mission : Exploration des données et analyse des sentiments (Avis des clients Amazon)
Développement de plusieurs algorithmes sur Apache Spark en utilisant le langage fonctionnel Scala
et Python
Implémention des algorithmes en utilisant le langage R avec RStudio
Chargement des données en utilisant Pig/Hive /Impala sur une distribution Hadoop Cloudera
Développement d’un programme MapReduce en Java pour faire des statistiques sur la base de
données
Construction de l'ensemble des caractéristiques pour conduire la classification, en utilisant les
méthodes de text mining
Proposition et utilisation d’un ensemble de méthodes d'apprentissage supervisé (arbres de
décision, random forests, svm, bayesien naïf) pour construire un modèle d'analyse de sentiment.
Proposition d’un ensemble de mesures pour comparer les performances de ces méthodes (accuracy,
precision, recall, f-mesure, ROC, AUC).
Les calculs ont été effectués sur un cluster composé de 10 serveurs, dont la capacité de mémoire
vive atteint 40 GO de RAM par serveur et la capacité de stockage secondaire totale du cluster atteint 10 TO.
Environnement : Hadoop Cloudera, Spark, Yarn, MapReduce, Python, Java, Hive, Pig, Impla, Sqoop, Langage R,
RStudio, Machine Learning, Scala, Elastic Search, Neo4j
EDF – Direction de commerce - Colombes Mars 2015 –Février 2017
Projet : entrepôt de données EDF (HADOOP)
Fonction : Ingénieur d’études expérimenté
Mission : Consultant / Développeur Big Data
Dans le cadre des missions du département « entrepôts de données EDF », le département est amené à mener de
nombreuses études d’architecture puis à mettre en œuvre ces études d’architecture dans le cadre de projets
opérationnels.
Par exemple : Mise en place de Kafka / Spark dans le cadre d’une brique d’acquisition au fil de l’eau, mise en
œuvre de ELK pour l’acquisition de log et de briques de reporting.
La mission au sein du projet consiste à :
Réaliser les études d’architectures big data en appui à l’architecte référent du département.
Réaliser de façon ponctuelle des développements pour mettre en oeuvre ces architectures.
Projets réalisés :
Accostage d’un nouveau CRM(MA) à la plateforme Big Data, Vue client 360° : temps réel avec Kafka et
Spark Streaming, stockage et indexation dans HBase et ElasticSearch, tracking client avec Comscore et
WebAnalytics
Création d’un référentiel pour les clients éligibles à la facture électronique (AIFE Chorus) : Spark batch,
Apache Nifi, HBase, Java, XML
Développement de plusieurs batchs, Hive, Spark, pour l’intégration de données de plusieurs applications
dans la plateforme Hadoop (Linky, GazPar, Comscore …)
Environnement : Hadoop Hortonworks, HDFS, Spark, Yarn, MapReduce, Hive, Pig, Hue, Sqoop, RStudio,
ElasticSearch, HBase, Linux, Keberos, Ranger, Python, Java, Scala
=
=
=
=
=
=
=
=
=
=
=
=
Page 5
ACCENTURE- ERDF (Electricité Réseau Distribution de France) – Paris Jan. 2012 – Mars 2015
Projet : Portail SOA
Fonction : Ingénieur d’études expérimenté
Mission : Lead technique et Architecte SOA
Participation à la mise en place de l’architecture technique du projet en collaboration avec les
équipes Basis, Architecture et Interfaces
Participation à la rédaction et la mise à jour du document de l’architecture technique (DAT)
La configuration du WebDispatcher (Load-balancing), pour améliorer les performances
L’installation des environnements (dev, test, preprod, prod), Unix, Oracle, RAC, SAP…
Administration des serveurs d’application WAS
Administration de l’environnement de développement
Rédaction des SFD et STD et TUF, TU
Expert/formateur (2 développeurs) sur les technologies Java /J2EE
Pilotage de plusieurs développeurs onshore et offshore dans un contexte SOA 4 couches
Définition des best practices projet
Conception objet et développement des micro-services en Java
Contexte :
L’infrastructure du projet s’appuie sur les principes structurants de la Haute Disponibilité et de la réplication,
basée sur la tolérance de panne d’un site principal et d’un plan de reprise d’activité sur un site de secours. Pour ce
faire, l’infrastructure mise en œuvre repose sur deux salles pour le site principal et d’une salle dans un site de
secours distant.
Environnement : Java, SOA, Micro-services, Unix, Oracle, VMware, WebDispatcher, SAP, Visual Composer,
LoginModule,
ACCENTURE - ERDF (Electricité Réseau Distribution de France) - Paris d’Avril 2011 à Déc. 2011
Projet : SI Producteurs : « Traitement des données de comptage et publication des flux » (Direction Informatique
et télécommunications)
Fonction : Ingénieur d’études expérimenté
Mission : Lead technique
Encadrement de l’équipe de développement
Participation à l’optimisation de l’architecture technique de l’application
Analyse, conception objet, et définition des spécifications techniques en UML
Développement java
Contexte :
Le projet repose sur une architecture à 3 niveaux, de type application web/client léger basée sur l’utilisation de :
Apache (serveur Web)
Weblogic Server (serveur d’application/middleware)
SGBD Oracle (persistance des données)
CFT , FTP et MQSeries-JMS pour les échanges avec les SI partenaires
Le serveur Apache et le domaine Weblogic sont hébergés sur la même machine physique, le domaine Weblogic
étant composé de deux instances :
WLS-01 pour la couche présentation
Un cluster WLS-02 et WLS-03 pour la couche services métiers
La base de données Oracle est hébergée sur une machine séparée. Les fichiers de base étant eux stockés sur une
baie de disques externe.
Axes fonctionnels du SI :
La gestion du contrat producteur
Traitement des données de comptage (contrôle, correction, validation et calcul des énergies)
La publication des flux
La facturation des composantes de l’accès au réseau public de distribution et le recouvrement
Environnement : Java, Weblogic, PowerDesigner, Entreprise Achitect, Spring, Spring Batch, Ant, Linux
=
=
=
=
=
=
=
=
=
=
=
=
Page 6
ACCENTURE -FRANCE TELECOM-Orange Business Services-Paris de Janv. 2011 à Mars.2011
Projet : Direction Informatique – développement d’un portail web de monitoring quasi temps réel d’un réseau IP
VPN (IP VPN Monitoring Dashboard) en mode Agile
Fonction : Ingénieur d’études et développement
Mission : Réfèrent technique
Analyse, conception en UML
La sélection de taches / modules a livrer, au début de chaque sprint
Livraison des modules sélectionnés a la fin du chaque Sprint
Notification immédiate de problèmes, points de blocage au scum-master
Rédaction de la documentation
Contexte :
Ce projet de surveillance VPN, défini conjointement avec Siemens a pour but de fournir un tableau de bord
simplifié pour suivre le bon fonctionnement du réseau. Cela permettrait de descendre dans les entrailles de
l’infrastructure réseau, et collecter les informations concernant le taux d'utilisation, et analyser les éléments de la
topologie du réseau ainsi que suivre la gravité des incidents.
Environnement : Java, PowerDesigner, Spring, OSGI, Maven, Hibernate, GWT, Linux
T-SYSTEMS - PSA PEUGEOT CITROEN - Poissy de Janvier 2010 à Déc.2010
Projet : Direction Informatique – Homologation européenne des véhicules
Fonction : Ingénieur d’études et développement
Mission : Responsable technique
Participation à la mise en place de l’architecture technique du projet en collaboration avec les
équipes Architecture du client
Participation à la mise en place du modèle de données et à son optimisation (Oracle 10)
Formation et encadrement de l’équipe de développement et affectation des taches
Analyse, conception objet, et définition des spécifications techniques en UML
Développement des batchs en Java (Spring Batch)
Le support de production des applications, suivis des livraisons
Contexte :
Le projet a pour objectif la mise en application et la génération du document CoC.
Le CoC est en application en Europe depuis 1996 pour les véhicules particuliers.
Il s’agit d’un document référençant certaines caractéristiques techniques du véhicule (dimensions, masse, CO2, etc
..) + informations propres (couleur, numéro de châssis).
Ce document est obligatoire pour l’immatriculation dans certains pays (Allemagne, Italie, etc…). Facultatif dans les
autres pays (le constructeur doit être capable de le produire à la demande lorsqu’un véhicule immatriculé dans un
pays A doit être transféré dans un pays B, afin de faciliter les formalités administratives dans le pays destinataire).
Environnement : Java, SOA, Spring, Spring Batch, Hibernate, Maven, Oracle, Linux
=
=
=
=
=
=
=
=
=
=
=
=
Page 7
T-SYSTEMS-MAPOWER DSI FRANCE d’Octobre 2009 à Décembre 2009
Projet : Direction des systèmes d’Information – La gestion des accidents de travail
Fonction : Ingénieur d’études et développement
Mission : Chargé de la conception et développement
La définition des spécifications techniques en UML
Conception objet et développement des IHM, tests unitaires
Recette technique et support recette fonctionnelle
Mise à disposition des packages de livraisons
Le support de production des applications, suivis des livraisons
Environnement : JAVA /J2EE, XML, ECLIPSE, JavaScript
T-SYSTEMS - EADS ASTRIUM (Mantes-la-jolie - Région parisienne) de Juillet 2009 à Sept. 2009
Projet : Direction des systèmes d’Information – VPM d’un projet de satellite
Fonction : Ingénieur d’études et développement
Mission : Identifier un framework pour faire du reporting
Faire de la veille technologique
Identifier et prototyper sur les technologies
Conception et développement d’un prototype, tests unitaires
Environnement : VPM, JAVA, XML, BIRT, ECLIPSE
T-SYSTEMS - DAIMLER (Mercedes - Benz) (Stuttgart – Allemagne) Juin 2009
Projet : DSI – Documentation technique véhicule
Fonction : Ingénieur d’études et développement
Mission : Chargé de développement.
Conception et développement, tests unitaires
Recette technique
Environnement : Unix, Script Shell Unix
T-SYSTEMS - THALES ALENIA SPACE - Toulouse de Février 2009 à Juin 2009
Projet : Génération des rapports Catia V5 (Dassault systèmes) pour un projet aéronautique
Fonction : Ingénieur d’études et développement
Mission : Chargé de la conception et développement.
Définition de l’architecture de l’application
Analyse et conception objet et développement, tests unitaires
Recette technique et support recette fonctionnelle
Environnement : CATIA V5, C#, Visual Studio 2005
=
=
=
=
=
=
=
=
=
=
=
=
Page 8
T-SYSTEMS - PSA PEUGEOT CITROEN (Centre Technique de Velizy) Avr. 2008 à Jan. 2009
Projet : Usine numérique 3D Montage - DELMIA
Fonction : Ingénieur d’études et développement
Mission : Administration, Customisation, Suivi des développements, chargé de l’analyse, le développement.
Amélioration et optimisation de l’architecture de l’application
Après des visites de plusieurs usines du client et l’analyse des problèmes rencontrés, une solution
évolutive a été proposée
Conception et développement d’un système d’optimisation des lignes de montage de véhicules
Développement VBScript sur le Framework Dassault Systèmes
Participation à des ateliers d’utilisation de l’application pour le montage de la maquette numérique
Résumé :
L’objectif de ma mission était l’administration et la customisation de l’application 3D Montage.
L’application 3D Montage, grâce à l’interopérabilité entre Process Engineer et l’atelier DELMIA DPM Assembly,
permet à partir des données Process de montage et des données 3D de la maquette numérique, de réaliser des
simulations de montabilité en contexte véhicule 3D.
Process Engineer est utilisé pour la réalisation des gammes de montage véhicule, sur les différents sites PSA à
travers le monde.
Pour valider la faisabilité du montage des pièces aux différents stades de son parcours sur la chaîne de montage,
une seconde base PE dédiée aux analyses d’assemblage 3D a été créée. Cette base est alimentée par les données
Process d’assemblage contenues dans la base PE Montage, ainsi que les mappings (liens) vers les données Produit
3D extraites de VPM.
L’atelier DELMIA DPM Assembly connecté à cette base PE 3D permet ensuite de réaliser des chargements de
l’état du véhicule (« contexte ») à n’importe quel pas de la ligne d’assemblage.
Environnement : VB scripts, SQL, DELMIA, Unix, Windows, SAP, VPM
G-FIT - PSA PEUGEOT CITROEN de janvier 2006 à mars 2008
Projet : Gestion et optimisation des stocks et ventes de pièces de rechange
Fonction : Ingénieur d’études et développement
Mission : Responsable des travaux de développement, de leur conception à leur mise en production
La définition des spécifications techniques en UML
Conception objet et développement des IHM, tests unitaires
Développement java sur le Framework PSA
Développement des BATCH JAVA sous Z/OS
Le support de production des applications, suivis des livraisons
Utilisation d’outils pour assurer la qualité des développements
Contexte :
Les outils de développement dans le SI sont principalement :
WEBSPHERE comme serveur d’application pour les applications WEB ayant à interagir avec la
couche DATA (bases DB2) du SI.
JAVA, HTML, XML, JSP, JavaScript, Servlets…
IRWD/WSAD comme IDE
CICS, DB2 pour le transactionnel sous MVS ou via les interfaces WEB.
COBOL, DB2 sous MVS pour les traitements BATCH
Environnement : JAVA/J2EE, Struts, Ajax, Websphere, Db2, Mvs, Cvs, Irwd/Wsad, Jviews Ilog, Mvs, Tso, Cobol,
Checkstyle, Jprobe, Metrics, Findbugs, Batch Java, Z/Os, Unix
=
=
=
=
=
=
=
=
=
=
=
=
Page 9
MESSAGIO TELECOM de décembre 2004 à novembre 2005
Projet : Applications pour les terminaux mobiles
Fonction : Ingénieur de développement
Mission : Conception et développement des applications/services pour les terminaux mobiles.
Analyse et conception objet avec la méthode merise
Développement de plusieurs services WAP, i-Mode pour les opérateurs télécoms : SFR, Orange,
Bouygues Télécom
Développement de plusieurs programmes qui traitent des fichiers XML en utilisant les APIs :
JXPath, DOM, SAX
Développement d’un service Push-Mail pour les abonnés i-Mode en utilisant le support mail de
SPRING
Environnement : JAVA/J2EE, SPRING, HIBERNATE, MIDDLEGEN, COCOON, TOMCAT, APACHE,
POSTGRESQL, HTML, XTML, WML, CHTML, iHTML, SVN, XML/XSL, JXPATH, DOM, JDOM, SAX
INSTITUT NATIONAL DES TELECOMMUNICATIONS - Evry d’avril 2004 à septembre 2004
Projet : Mode veille pour les utilisateurs mobiles
Fonction : Stagiaire
Mission : Stage d'une durée de 6 mois sur la mobilité des applications multi composants.
Etude bibliographique
Analyse et conception avec UML et MDA
Développement réalisé en JAVA dans un environnement LINUX
Environnement : Systèmes distribués, mobilité, J2EE/EJB, DOTNET, CORBA/CCM, UML2, MDA, LINUX
ECOLE NATIONALE SUPERIEURE DES MINES-ST ETIENNE-ARMINES(Paris) f
2003 - Ecole Nationale Supérieure des Mines-St Etienne - Armines(Paris)
Projet : Projet de la région Rhône-Alpes pour améliorer la qualité de l’aire
Mission : Développement d’un outil de prévision des pics d’ozone.
Application d’une méthode de clustering basée sur la logique floue et datamining pour la prévision de pics
d'ozone [Chiu 1999]
Test du programme sur un échantillon de données (météo St Etienne 2001)
Le résultat a montré que la prévision a été proche de la réalité à plus de 95%
Environnement technique : Clustering, datamining, apprentissage artificielle (Machine Learning), MATLAB
FORMATIONS PROFESSIONNELLES
2024 – AZ104 – Microsoft Aure Administration IB Cegos - La défense
2024 – AZ900 – Microsoft Aure Fundamentals Microsoft Training
2023 – Cyber sécurité Réseaux & Internet Orsys – La Défense
2016 – Vmware vSphere : Installation, Configuration et Administration v6 G.Knowledge
2016 - Power Systems pour AIX - Administration système Unix Global Knowledge
2015 –Certification « DEVELOPING HADOOP APPLICATIONS » MapRAcademy
2015 – Introduction à SAP HANA SAP E-Learning
2011 - Réseaux : complément et applications CNAM-Paris
2009 - Enovia MatrixOne Dassault Systèmes University
2008 - DELMIA Usine numérique 3D Dassault Systèmes University
2007 - Optimisation des requêtes SQL LogicaCMG company
COMPETENCES TECHNIQUES
Programmation : JAVA, R , SCALA,PYTHON, SQL, PL/SQL, PASCAL, MATLAB, WINDEV
Méthodologie : SCRUM, UML, MERISE, MDA
ERP : SAP PI, SAP POTAL, SAP HANA
Systèmes : LINUX, UNIX, WINDOWS, Z/OS
Big Data/BI : HADOOP YARN, PIG, HIVE, SQOOP, SPARK, SAP HANA, R, BIRT
SGBD : ORACLE, DB2, POSTGRESQL, MYSQL, ACCESS
Outils : JIRA, Confluence, RSTUDIO, HANA STUDIO, ECLIPSE, VISUAL STUDIO
PLM DELMIA, VPM, ENOVIA V6
EXPERIENCES PROFESSIONNELLES
EDF (Energie) – DSIT – CAPGEMINI - DATALGO - Région parisienne Depuis Octobre 2018
Projet : DevSecOps Big Data
Fonction : Consultant DevSecOps et Big Data
Mission: Mettre en place DevSecOps pour les applications Big Data
L’objectif de la mission est la mise en place d’un système de déploiement DevOps pour des traitements Big Data.
Déployer la solution au sein de toutes les unités EDF avec le support et la formation des projets
La mission au sein du projet consiste à :
Mettre en place un outil de déploiement (Ansible) des applications big data en prenant en charge les
composants : Knox, Oozie, Spark, Hive, HBase, Phoenix, Nifi, Elk,
Développer des rôles Ansible pour des besoins spécifiques afin d’adresser les composants
Developper des modules Ansible spécifique en Python
Conception de pipelines DevSecOps et d’outils d’automatisation IT.
Automatiser, orchestrer et superviser les jobs développés par l’équipe data
Automatiser la communication avec les composants Hadoop en place (HDFS, Spark, Oozie,...)
Mettre en place les principes et outils d’exploitation de la solution : supervision, administration, sécurité…
Assurer la bonne communication avec les équipes techniques
Environment : Cloudera, Knox, Ansible, Vault, Yaml, Jenkins, Vmare, Ambari, Ranger, Kerberos, Spark, Hive,
Linux
Crédit Agricole - CACEIS (Banque) – DXC - DATALGO - Région parisienne Mai-Octobre 2018
Projet : Mettre en place un Data-Lake
Fonction : Architecte big data
Mission: Architecte, Administrateur Hadoop, Data-Lake
L’objectif de la mission est la définition de l’architecture de la nouvelle datalake, ensuite l’implémentation et la
gestion de l’infrastructure Big Data HortonWorks et aussi la mise en place une politique de sécurité et une
gouvernance de données.
La mission au sein du projet consiste à :
Définition de l’architecture technique
Mise en place de la sécurité du cluster Hortonworks Big Data
Installer et configurer : Knox & Ranger & Kerberos
Installer et configurer le ranger key management services (kms)
Configurer Kerberos via Ambari
Utiliser ranger pour sécuriser l’accès aux données
Gérer les permissions et l’audit avec Ranger
Installation, configuration de : Hortonworks, Talend BigData, Vertica, Attunity
Connecter tous les composants et les faire fonctionner ensemble
Administration Hadoop Hortonworks
Environment : Hadoop Hortonworks, Ambari, Ranger, Kerberos, Talend Big Data, Attunity Replicate, Kafka,
Vertica, Spark, Hive, Shell Linux
=
=
=
=
=
=
=
=
=
=
=
=
Page 3
Société Générale – DATALGO - Région parisienne Mai 2017-Mai 2018
Projet : Mise en conformité
Fonction : Ingénieur big data
Mission : Consultant Big Data
Le client a pour responsabilité, au plan mondial, de l'ensemble des outils informatiques de contrôle des abus de
marché, de conformité, et du risque opérationnel. En complément de cette responsabilité directe, il a aussi comme
rôle le pilotage des projets exécutés dans les autres entités relatifs.
L’objectif du projet est la mise en place de solutions basées sur la stack Hadoop : Distribution HortonWorks,
Stockage en Parquet, dénormalisation en HIVE, indexation SOLR, utilisation de SPARK/Java pour les process
distribués, utilisation de Oozie et de Spring également, restitution via
La mission au sein du projet consiste à :
Analyse et conception de la solution big data à mettre place
Chargement des données dans le DataLake
Développement en SPARK/JAVA de nouveaux patterns de détection
Restitution via une interface WEB ou l'outil TABLEAU Software
Développement et calcul des KPI/KRI
Indexation via SOLR
Environment : Hadoop Hortonworks, Java, Python, Spark, Hive, Hue, Keberos, Parquet, ElasticSearch, SolR,
Shell Linux, WSRest
EDF – Direction Nucléaire R&D - DATALGO Chatou Février – Mai 2017
Projet : Programme SdIN (Système d’Information du Nucléaire)
Fonction : Ingénieur big data
Mission : Data Analyste / Développeur Big Data
L’objectif de ce projet est de faciliter et d’homogénéiser les pratiques de contrôle de la qualité des données (respect
des règles de construction) et de suivi de l’effet parc – palier. Il s’agit également de doter les instances locales et
nationale de gouvernance des dispositifs nécessaires au pilotage des données paliers et sites.
Mettre en place un entrepôt de données permet de disposer des données provenant de plusieurs sources pour
alimenter les objets manipulés ou effectuer des contrôles de cohérence.
La mission au sein du projet consiste à :
Proposer des études d’architectures big data
Création d’un référentiel de données de références sur ELASTICSEARCH
Développement de plusieurs Batchs, Hive, Spark, pour l’intégration de données de plusieurs applications
dans la plateforme Hadoop
Mettre en place une API pour exposer les données Elasticsearch à une application web Spring
Développement de plusieurs Batch Spark en scala pour alimenter les indexes sur Elasticsearch
Environment : ElasticSearch, Hadoop Hortonworks, Scala, Parquet, Spark, Hive, Hue, Keberos,
=
=
=
=
=
=
=
=
=
=
=
=
Page 4
Certificat Data Science- Université Paris Dauphine –Paris Mars 2016– Juin 2016
Projet : Projet d’étude
Fonction : Data Engineer & Data Scientist
Mission : Exploration des données et analyse des sentiments (Avis des clients Amazon)
Développement de plusieurs algorithmes sur Apache Spark en utilisant le langage fonctionnel Scala
et Python
Implémention des algorithmes en utilisant le langage R avec RStudio
Chargement des données en utilisant Pig/Hive /Impala sur une distribution Hadoop Cloudera
Développement d’un programme MapReduce en Java pour faire des statistiques sur la base de
données
Construction de l'ensemble des caractéristiques pour conduire la classification, en utilisant les
méthodes de text mining
Proposition et utilisation d’un ensemble de méthodes d'apprentissage supervisé (arbres de
décision, random forests, svm, bayesien naïf) pour construire un modèle d'analyse de sentiment.
Proposition d’un ensemble de mesures pour comparer les performances de ces méthodes (accuracy,
precision, recall, f-mesure, ROC, AUC).
Les calculs ont été effectués sur un cluster composé de 10 serveurs, dont la capacité de mémoire
vive atteint 40 GO de RAM par serveur et la capacité de stockage secondaire totale du cluster atteint 10 TO.
Environnement : Hadoop Cloudera, Spark, Yarn, MapReduce, Python, Java, Hive, Pig, Impla, Sqoop, Langage R,
RStudio, Machine Learning, Scala, Elastic Search, Neo4j
EDF – Direction de commerce - Colombes Mars 2015 –Février 2017
Projet : entrepôt de données EDF (HADOOP)
Fonction : Ingénieur d’études expérimenté
Mission : Consultant / Développeur Big Data
Dans le cadre des missions du département « entrepôts de données EDF », le département est amené à mener de
nombreuses études d’architecture puis à mettre en œuvre ces études d’architecture dans le cadre de projets
opérationnels.
Par exemple : Mise en place de Kafka / Spark dans le cadre d’une brique d’acquisition au fil de l’eau, mise en
œuvre de ELK pour l’acquisition de log et de briques de reporting.
La mission au sein du projet consiste à :
Réaliser les études d’architectures big data en appui à l’architecte référent du département.
Réaliser de façon ponctuelle des développements pour mettre en oeuvre ces architectures.
Projets réalisés :
Accostage d’un nouveau CRM(MA) à la plateforme Big Data, Vue client 360° : temps réel avec Kafka et
Spark Streaming, stockage et indexation dans HBase et ElasticSearch, tracking client avec Comscore et
WebAnalytics
Création d’un référentiel pour les clients éligibles à la facture électronique (AIFE Chorus) : Spark batch,
Apache Nifi, HBase, Java, XML
Développement de plusieurs batchs, Hive, Spark, pour l’intégration de données de plusieurs applications
dans la plateforme Hadoop (Linky, GazPar, Comscore …)
Environnement : Hadoop Hortonworks, HDFS, Spark, Yarn, MapReduce, Hive, Pig, Hue, Sqoop, RStudio,
ElasticSearch, HBase, Linux, Keberos, Ranger, Python, Java, Scala
=
=
=
=
=
=
=
=
=
=
=
=
Page 5
ACCENTURE- ERDF (Electricité Réseau Distribution de France) – Paris Jan. 2012 – Mars 2015
Projet : Portail SOA
Fonction : Ingénieur d’études expérimenté
Mission : Lead technique et Architecte SOA
Participation à la mise en place de l’architecture technique du projet en collaboration avec les
équipes Basis, Architecture et Interfaces
Participation à la rédaction et la mise à jour du document de l’architecture technique (DAT)
La configuration du WebDispatcher (Load-balancing), pour améliorer les performances
L’installation des environnements (dev, test, preprod, prod), Unix, Oracle, RAC, SAP…
Administration des serveurs d’application WAS
Administration de l’environnement de développement
Rédaction des SFD et STD et TUF, TU
Expert/formateur (2 développeurs) sur les technologies Java /J2EE
Pilotage de plusieurs développeurs onshore et offshore dans un contexte SOA 4 couches
Définition des best practices projet
Conception objet et développement des micro-services en Java
Contexte :
L’infrastructure du projet s’appuie sur les principes structurants de la Haute Disponibilité et de la réplication,
basée sur la tolérance de panne d’un site principal et d’un plan de reprise d’activité sur un site de secours. Pour ce
faire, l’infrastructure mise en œuvre repose sur deux salles pour le site principal et d’une salle dans un site de
secours distant.
Environnement : Java, SOA, Micro-services, Unix, Oracle, VMware, WebDispatcher, SAP, Visual Composer,
LoginModule,
ACCENTURE - ERDF (Electricité Réseau Distribution de France) - Paris d’Avril 2011 à Déc. 2011
Projet : SI Producteurs : « Traitement des données de comptage et publication des flux » (Direction Informatique
et télécommunications)
Fonction : Ingénieur d’études expérimenté
Mission : Lead technique
Encadrement de l’équipe de développement
Participation à l’optimisation de l’architecture technique de l’application
Analyse, conception objet, et définition des spécifications techniques en UML
Développement java
Contexte :
Le projet repose sur une architecture à 3 niveaux, de type application web/client léger basée sur l’utilisation de :
Apache (serveur Web)
Weblogic Server (serveur d’application/middleware)
SGBD Oracle (persistance des données)
CFT , FTP et MQSeries-JMS pour les échanges avec les SI partenaires
Le serveur Apache et le domaine Weblogic sont hébergés sur la même machine physique, le domaine Weblogic
étant composé de deux instances :
WLS-01 pour la couche présentation
Un cluster WLS-02 et WLS-03 pour la couche services métiers
La base de données Oracle est hébergée sur une machine séparée. Les fichiers de base étant eux stockés sur une
baie de disques externe.
Axes fonctionnels du SI :
La gestion du contrat producteur
Traitement des données de comptage (contrôle, correction, validation et calcul des énergies)
La publication des flux
La facturation des composantes de l’accès au réseau public de distribution et le recouvrement
Environnement : Java, Weblogic, PowerDesigner, Entreprise Achitect, Spring, Spring Batch, Ant, Linux
=
=
=
=
=
=
=
=
=
=
=
=
Page 6
ACCENTURE -FRANCE TELECOM-Orange Business Services-Paris de Janv. 2011 à Mars.2011
Projet : Direction Informatique – développement d’un portail web de monitoring quasi temps réel d’un réseau IP
VPN (IP VPN Monitoring Dashboard) en mode Agile
Fonction : Ingénieur d’études et développement
Mission : Réfèrent technique
Analyse, conception en UML
La sélection de taches / modules a livrer, au début de chaque sprint
Livraison des modules sélectionnés a la fin du chaque Sprint
Notification immédiate de problèmes, points de blocage au scum-master
Rédaction de la documentation
Contexte :
Ce projet de surveillance VPN, défini conjointement avec Siemens a pour but de fournir un tableau de bord
simplifié pour suivre le bon fonctionnement du réseau. Cela permettrait de descendre dans les entrailles de
l’infrastructure réseau, et collecter les informations concernant le taux d'utilisation, et analyser les éléments de la
topologie du réseau ainsi que suivre la gravité des incidents.
Environnement : Java, PowerDesigner, Spring, OSGI, Maven, Hibernate, GWT, Linux
T-SYSTEMS - PSA PEUGEOT CITROEN - Poissy de Janvier 2010 à Déc.2010
Projet : Direction Informatique – Homologation européenne des véhicules
Fonction : Ingénieur d’études et développement
Mission : Responsable technique
Participation à la mise en place de l’architecture technique du projet en collaboration avec les
équipes Architecture du client
Participation à la mise en place du modèle de données et à son optimisation (Oracle 10)
Formation et encadrement de l’équipe de développement et affectation des taches
Analyse, conception objet, et définition des spécifications techniques en UML
Développement des batchs en Java (Spring Batch)
Le support de production des applications, suivis des livraisons
Contexte :
Le projet a pour objectif la mise en application et la génération du document CoC.
Le CoC est en application en Europe depuis 1996 pour les véhicules particuliers.
Il s’agit d’un document référençant certaines caractéristiques techniques du véhicule (dimensions, masse, CO2, etc
..) + informations propres (couleur, numéro de châssis).
Ce document est obligatoire pour l’immatriculation dans certains pays (Allemagne, Italie, etc…). Facultatif dans les
autres pays (le constructeur doit être capable de le produire à la demande lorsqu’un véhicule immatriculé dans un
pays A doit être transféré dans un pays B, afin de faciliter les formalités administratives dans le pays destinataire).
Environnement : Java, SOA, Spring, Spring Batch, Hibernate, Maven, Oracle, Linux
=
=
=
=
=
=
=
=
=
=
=
=
Page 7
T-SYSTEMS-MAPOWER DSI FRANCE d’Octobre 2009 à Décembre 2009
Projet : Direction des systèmes d’Information – La gestion des accidents de travail
Fonction : Ingénieur d’études et développement
Mission : Chargé de la conception et développement
La définition des spécifications techniques en UML
Conception objet et développement des IHM, tests unitaires
Recette technique et support recette fonctionnelle
Mise à disposition des packages de livraisons
Le support de production des applications, suivis des livraisons
Environnement : JAVA /J2EE, XML, ECLIPSE, JavaScript
T-SYSTEMS - EADS ASTRIUM (Mantes-la-jolie - Région parisienne) de Juillet 2009 à Sept. 2009
Projet : Direction des systèmes d’Information – VPM d’un projet de satellite
Fonction : Ingénieur d’études et développement
Mission : Identifier un framework pour faire du reporting
Faire de la veille technologique
Identifier et prototyper sur les technologies
Conception et développement d’un prototype, tests unitaires
Environnement : VPM, JAVA, XML, BIRT, ECLIPSE
T-SYSTEMS - DAIMLER (Mercedes - Benz) (Stuttgart – Allemagne) Juin 2009
Projet : DSI – Documentation technique véhicule
Fonction : Ingénieur d’études et développement
Mission : Chargé de développement.
Conception et développement, tests unitaires
Recette technique
Environnement : Unix, Script Shell Unix
T-SYSTEMS - THALES ALENIA SPACE - Toulouse de Février 2009 à Juin 2009
Projet : Génération des rapports Catia V5 (Dassault systèmes) pour un projet aéronautique
Fonction : Ingénieur d’études et développement
Mission : Chargé de la conception et développement.
Définition de l’architecture de l’application
Analyse et conception objet et développement, tests unitaires
Recette technique et support recette fonctionnelle
Environnement : CATIA V5, C#, Visual Studio 2005
=
=
=
=
=
=
=
=
=
=
=
=
Page 8
T-SYSTEMS - PSA PEUGEOT CITROEN (Centre Technique de Velizy) Avr. 2008 à Jan. 2009
Projet : Usine numérique 3D Montage - DELMIA
Fonction : Ingénieur d’études et développement
Mission : Administration, Customisation, Suivi des développements, chargé de l’analyse, le développement.
Amélioration et optimisation de l’architecture de l’application
Après des visites de plusieurs usines du client et l’analyse des problèmes rencontrés, une solution
évolutive a été proposée
Conception et développement d’un système d’optimisation des lignes de montage de véhicules
Développement VBScript sur le Framework Dassault Systèmes
Participation à des ateliers d’utilisation de l’application pour le montage de la maquette numérique
Résumé :
L’objectif de ma mission était l’administration et la customisation de l’application 3D Montage.
L’application 3D Montage, grâce à l’interopérabilité entre Process Engineer et l’atelier DELMIA DPM Assembly,
permet à partir des données Process de montage et des données 3D de la maquette numérique, de réaliser des
simulations de montabilité en contexte véhicule 3D.
Process Engineer est utilisé pour la réalisation des gammes de montage véhicule, sur les différents sites PSA à
travers le monde.
Pour valider la faisabilité du montage des pièces aux différents stades de son parcours sur la chaîne de montage,
une seconde base PE dédiée aux analyses d’assemblage 3D a été créée. Cette base est alimentée par les données
Process d’assemblage contenues dans la base PE Montage, ainsi que les mappings (liens) vers les données Produit
3D extraites de VPM.
L’atelier DELMIA DPM Assembly connecté à cette base PE 3D permet ensuite de réaliser des chargements de
l’état du véhicule (« contexte ») à n’importe quel pas de la ligne d’assemblage.
Environnement : VB scripts, SQL, DELMIA, Unix, Windows, SAP, VPM
G-FIT - PSA PEUGEOT CITROEN de janvier 2006 à mars 2008
Projet : Gestion et optimisation des stocks et ventes de pièces de rechange
Fonction : Ingénieur d’études et développement
Mission : Responsable des travaux de développement, de leur conception à leur mise en production
La définition des spécifications techniques en UML
Conception objet et développement des IHM, tests unitaires
Développement java sur le Framework PSA
Développement des BATCH JAVA sous Z/OS
Le support de production des applications, suivis des livraisons
Utilisation d’outils pour assurer la qualité des développements
Contexte :
Les outils de développement dans le SI sont principalement :
WEBSPHERE comme serveur d’application pour les applications WEB ayant à interagir avec la
couche DATA (bases DB2) du SI.
JAVA, HTML, XML, JSP, JavaScript, Servlets…
IRWD/WSAD comme IDE
CICS, DB2 pour le transactionnel sous MVS ou via les interfaces WEB.
COBOL, DB2 sous MVS pour les traitements BATCH
Environnement : JAVA/J2EE, Struts, Ajax, Websphere, Db2, Mvs, Cvs, Irwd/Wsad, Jviews Ilog, Mvs, Tso, Cobol,
Checkstyle, Jprobe, Metrics, Findbugs, Batch Java, Z/Os, Unix
=
=
=
=
=
=
=
=
=
=
=
=
Page 9
MESSAGIO TELECOM de décembre 2004 à novembre 2005
Projet : Applications pour les terminaux mobiles
Fonction : Ingénieur de développement
Mission : Conception et développement des applications/services pour les terminaux mobiles.
Analyse et conception objet avec la méthode merise
Développement de plusieurs services WAP, i-Mode pour les opérateurs télécoms : SFR, Orange,
Bouygues Télécom
Développement de plusieurs programmes qui traitent des fichiers XML en utilisant les APIs :
JXPath, DOM, SAX
Développement d’un service Push-Mail pour les abonnés i-Mode en utilisant le support mail de
SPRING
Environnement : JAVA/J2EE, SPRING, HIBERNATE, MIDDLEGEN, COCOON, TOMCAT, APACHE,
POSTGRESQL, HTML, XTML, WML, CHTML, iHTML, SVN, XML/XSL, JXPATH, DOM, JDOM, SAX
INSTITUT NATIONAL DES TELECOMMUNICATIONS - Evry d’avril 2004 à septembre 2004
Projet : Mode veille pour les utilisateurs mobiles
Fonction : Stagiaire
Mission : Stage d'une durée de 6 mois sur la mobilité des applications multi composants.
Etude bibliographique
Analyse et conception avec UML et MDA
Développement réalisé en JAVA dans un environnement LINUX
Environnement : Systèmes distribués, mobilité, J2EE/EJB, DOTNET, CORBA/CCM, UML2, MDA, LINUX
ECOLE NATIONALE SUPERIEURE DES MINES-ST ETIENNE-ARMINES(Paris) f
Consultants similaires
Lead Dev FullStack
VoirCompétences : Docker, DOTNET, JAVA, KUBERNETES, Symfony, C++, FULLSTACK, ...
consultant Retenir
Lead/senior dev php symfony et laravel
VoirCompétences : Coaching, Laravel, PHP, Symfony, gitlab CI, AUTHENTIFICATION, ...
consultant Retenir
Conultant DevSecOps
VoirCompétences : DevSecOps, Linux server, MIDDLEWARE, Openshift, openstack, ...
consultant Retenir
Data Engineer Azure Fabric
VoirCompétences : Azure, BI, Cloud, Data, ACCESS, Administration, AGILE, ...
consultant Retenir
Consultant Intégration
VoirCompétences : .NET, Azure, azure Devops, integration, Terraform, ...
consultant Retenir
Lead Tech
VoirCompétences : C++, docker compose, JAVA, KUBERNETES, achat, Administration, ...
consultant Retenir
Développeur back
VoirCompétences : CI/CD, Django, Docker, KUBERNETES, PYTHON, JAVASCRIPT, ...
consultant Retenir
tech lead
VoirCompétences : ansible, CI/CD, DEVOPS, GitLab, KUBERNETES, GIT, Github, ...
consultant Retenir