Mon espace
Je m'inscris

En tant que

Consultant Client
 

CV du
consultant

Réf PROF00008187

Accueil > Consultants > PROF00008187
 
 

DevSecOps DataOps

Disponible

 

Profil publié le : 25/08/2025 Profil vu : 101 fois Référence : PROF00008187

 
 

Compétences

Expert Moyen Débutant

BDD

Azure ACCESS BI CLOUDERA Data datalake DB2 Hbase HDFS HIBERNATE HIVE hortonworks Hue MapReduce MYSQL ORACLE POSTGRESQL SGBD Sqoop Stockage

Connaissances fonctionnelles

3D Acquisition Administration Analyse audit Banque Business communication Conformité CRM dashboard Déploiement DISTRIBUTION DSI energie ERP Exploitation flux Fonction Formateur Formation Homologation Incidents informatique INTEROPERABILITE Kafka kpi Méthodes Microsoft MIDDLEWARE mobilité Neo4j offshore pipelines PLM Production Produit Rédaction REPORTING SAP Sécurité SOFTWARE statistiques TELECOM Télécoms TESTS WEB

Langages

DevSecOps gitlab CI Hadoop AJAX Batch C COBOL Confluence DOTNET ECLIPSE EJB ELK HTML J2EE JAVA JAVASCRIPT JIRA JSP MATLAB Microservices PASCAL Programmation PYTHON scala SCRIPT SHELL SOA Spark SPRING SQL struts TALEND VB VBScript WINDEV XML

Méthodes

AGILE api Architecture Conception développement DEVOPS elasticsearch ENCADREMENT Etudes Gouvernance integration Jenkins Management Maven MERISE PILOTAGE PROJET Qualité RECETTE SCRUM supervision Support SVN tomcat UML

Outils

airflow CVS GWT Vault

Réseaux et Middleware

KUBERNETES ansible CFT FTP IP Kerberos Monitoring Reseau réseaux serveur Solr VMWARE VPN vSphere

Systèmes

AIX APACHE CICS INFRASTRUCTURE LINUX MVS Systèmes TSO UNIX WEBLOGIC WEBSPHERE WINDOWS

Diplômes et formations

Pays / régions

Expérience professionnelle

Première expérience en Data Science (Machine Learning - Big Data - Data Science)
 2003 - Ecole Nationale Supérieure des Mines-St Etienne - Armines(Paris)
Projet : Projet de la région Rhône-Alpes pour améliorer la qualité de l’aire
Mission : Développement d’un outil de prévision des pics d’ozone.
 Application d’une méthode de clustering basée sur la logique floue et datamining pour la prévision de pics
d'ozone [Chiu 1999]
 Test du programme sur un échantillon de données (météo St Etienne 2001)
 Le résultat a montré que la prévision a été proche de la réalité à plus de 95%
Environnement technique : Clustering, datamining, apprentissage artificielle (Machine Learning), MATLAB
FORMATIONS PROFESSIONNELLES
 2024 – AZ104 – Microsoft Aure Administration IB Cegos - La défense
 2024 – AZ900 – Microsoft Aure Fundamentals Microsoft Training
 2023 – Cyber sécurité Réseaux & Internet Orsys – La Défense
 2016 – Vmware vSphere : Installation, Configuration et Administration v6 G.Knowledge
 2016 - Power Systems pour AIX - Administration système Unix Global Knowledge
 2015 –Certification « DEVELOPING HADOOP APPLICATIONS » MapRAcademy
 2015 – Introduction à SAP HANA SAP E-Learning
 2011 - Réseaux : complément et applications CNAM-Paris
 2009 - Enovia MatrixOne Dassault Systèmes University
 2008 - DELMIA Usine numérique 3D Dassault Systèmes University
 2007 - Optimisation des requêtes SQL LogicaCMG company
COMPETENCES TECHNIQUES
Programmation : JAVA, R , SCALA,PYTHON, SQL, PL/SQL, PASCAL, MATLAB, WINDEV
Méthodologie : SCRUM, UML, MERISE, MDA
ERP : SAP PI, SAP POTAL, SAP HANA
Systèmes : LINUX, UNIX, WINDOWS, Z/OS
Big Data/BI : HADOOP YARN, PIG, HIVE, SQOOP, SPARK, SAP HANA, R, BIRT
SGBD : ORACLE, DB2, POSTGRESQL, MYSQL, ACCESS
Outils : JIRA, Confluence, RSTUDIO, HANA STUDIO, ECLIPSE, VISUAL STUDIO
PLM DELMIA, VPM, ENOVIA V6


EXPERIENCES PROFESSIONNELLES

EDF (Energie) – DSIT – CAPGEMINI - DATALGO - Région parisienne Depuis Octobre 2018

Projet : DevSecOps Big Data
Fonction : Consultant DevSecOps et Big Data
Mission: Mettre en place DevSecOps pour les applications Big Data
L’objectif de la mission est la mise en place d’un système de déploiement DevOps pour des traitements Big Data.
Déployer la solution au sein de toutes les unités EDF avec le support et la formation des projets
La mission au sein du projet consiste à :
 Mettre en place un outil de déploiement (Ansible) des applications big data en prenant en charge les
composants : Knox, Oozie, Spark, Hive, HBase, Phoenix, Nifi, Elk,
 Développer des rôles Ansible pour des besoins spécifiques afin d’adresser les composants
 Developper des modules Ansible spécifique en Python
 Conception de pipelines DevSecOps et d’outils d’automatisation IT.
 Automatiser, orchestrer et superviser les jobs développés par l’équipe data
 Automatiser la communication avec les composants Hadoop en place (HDFS, Spark, Oozie,...)
 Mettre en place les principes et outils d’exploitation de la solution : supervision, administration, sécurité…
 Assurer la bonne communication avec les équipes techniques

Environment : Cloudera, Knox, Ansible, Vault, Yaml, Jenkins, Vmare, Ambari, Ranger, Kerberos, Spark, Hive,
Linux


Crédit Agricole - CACEIS (Banque) – DXC - DATALGO - Région parisienne Mai-Octobre 2018
Projet : Mettre en place un Data-Lake
Fonction : Architecte big data
Mission: Architecte, Administrateur Hadoop, Data-Lake
L’objectif de la mission est la définition de l’architecture de la nouvelle datalake, ensuite l’implémentation et la
gestion de l’infrastructure Big Data HortonWorks et aussi la mise en place une politique de sécurité et une
gouvernance de données.
La mission au sein du projet consiste à :
 Définition de l’architecture technique
 Mise en place de la sécurité du cluster Hortonworks Big Data
 Installer et configurer : Knox & Ranger & Kerberos
 Installer et configurer le ranger key management services (kms)
 Configurer Kerberos via Ambari
 Utiliser ranger pour sécuriser l’accès aux données
 Gérer les permissions et l’audit avec Ranger
 Installation, configuration de : Hortonworks, Talend BigData, Vertica, Attunity
 Connecter tous les composants et les faire fonctionner ensemble
 Administration Hadoop Hortonworks

Environment : Hadoop Hortonworks, Ambari, Ranger, Kerberos, Talend Big Data, Attunity Replicate, Kafka,
Vertica, Spark, Hive, Shell Linux


=
=
=
=
=
=
=
=
=
=
=
=
Page 3
Société Générale – DATALGO - Région parisienne Mai 2017-Mai 2018

Projet : Mise en conformité
Fonction : Ingénieur big data
Mission : Consultant Big Data
Le client a pour responsabilité, au plan mondial, de l'ensemble des outils informatiques de contrôle des abus de
marché, de conformité, et du risque opérationnel. En complément de cette responsabilité directe, il a aussi comme
rôle le pilotage des projets exécutés dans les autres entités relatifs.
L’objectif du projet est la mise en place de solutions basées sur la stack Hadoop : Distribution HortonWorks,
Stockage en Parquet, dénormalisation en HIVE, indexation SOLR, utilisation de SPARK/Java pour les process
distribués, utilisation de Oozie et de Spring également, restitution via
La mission au sein du projet consiste à :
 Analyse et conception de la solution big data à mettre place
 Chargement des données dans le DataLake
 Développement en SPARK/JAVA de nouveaux patterns de détection
 Restitution via une interface WEB ou l'outil TABLEAU Software
 Développement et calcul des KPI/KRI
 Indexation via SOLR

Environment : Hadoop Hortonworks, Java, Python, Spark, Hive, Hue, Keberos, Parquet, ElasticSearch, SolR,
Shell Linux, WSRest






EDF – Direction Nucléaire R&D - DATALGO Chatou Février – Mai 2017

Projet : Programme SdIN (Système d’Information du Nucléaire)
Fonction : Ingénieur big data
Mission : Data Analyste / Développeur Big Data
L’objectif de ce projet est de faciliter et d’homogénéiser les pratiques de contrôle de la qualité des données (respect
des règles de construction) et de suivi de l’effet parc – palier. Il s’agit également de doter les instances locales et
nationale de gouvernance des dispositifs nécessaires au pilotage des données paliers et sites.
Mettre en place un entrepôt de données permet de disposer des données provenant de plusieurs sources pour
alimenter les objets manipulés ou effectuer des contrôles de cohérence.
La mission au sein du projet consiste à :
 Proposer des études d’architectures big data
 Création d’un référentiel de données de références sur ELASTICSEARCH
 Développement de plusieurs Batchs, Hive, Spark, pour l’intégration de données de plusieurs applications
dans la plateforme Hadoop
 Mettre en place une API pour exposer les données Elasticsearch à une application web Spring
 Développement de plusieurs Batch Spark en scala pour alimenter les indexes sur Elasticsearch
Environment : ElasticSearch, Hadoop Hortonworks, Scala, Parquet, Spark, Hive, Hue, Keberos,
=
=
=
=
=
=
=
=
=
=
=
=
Page 4
Certificat Data Science- Université Paris Dauphine –Paris Mars 2016– Juin 2016
Projet : Projet d’étude
Fonction : Data Engineer & Data Scientist
Mission : Exploration des données et analyse des sentiments (Avis des clients Amazon)
 Développement de plusieurs algorithmes sur Apache Spark en utilisant le langage fonctionnel Scala
 et Python
 Implémention des algorithmes en utilisant le langage R avec RStudio
 Chargement des données en utilisant Pig/Hive /Impala sur une distribution Hadoop Cloudera
 Développement d’un programme MapReduce en Java pour faire des statistiques sur la base de
données
 Construction de l'ensemble des caractéristiques pour conduire la classification, en utilisant les
méthodes de text mining
 Proposition et utilisation d’un ensemble de méthodes d'apprentissage supervisé (arbres de
décision, random forests, svm, bayesien naïf) pour construire un modèle d'analyse de sentiment.
 Proposition d’un ensemble de mesures pour comparer les performances de ces méthodes (accuracy,
precision, recall, f-mesure, ROC, AUC).
 Les calculs ont été effectués sur un cluster composé de 10 serveurs, dont la capacité de mémoire
vive atteint 40 GO de RAM par serveur et la capacité de stockage secondaire totale du cluster atteint 10 TO.
Environnement : Hadoop Cloudera, Spark, Yarn, MapReduce, Python, Java, Hive, Pig, Impla, Sqoop, Langage R,
RStudio, Machine Learning, Scala, Elastic Search, Neo4j



EDF – Direction de commerce - Colombes Mars 2015 –Février 2017

Projet : entrepôt de données EDF (HADOOP)
Fonction : Ingénieur d’études expérimenté
Mission : Consultant / Développeur Big Data
Dans le cadre des missions du département « entrepôts de données EDF », le département est amené à mener de
nombreuses études d’architecture puis à mettre en œuvre ces études d’architecture dans le cadre de projets
opérationnels.
Par exemple : Mise en place de Kafka / Spark dans le cadre d’une brique d’acquisition au fil de l’eau, mise en
œuvre de ELK pour l’acquisition de log et de briques de reporting.
La mission au sein du projet consiste à :
 Réaliser les études d’architectures big data en appui à l’architecte référent du département.
 Réaliser de façon ponctuelle des développements pour mettre en oeuvre ces architectures.
Projets réalisés :
 Accostage d’un nouveau CRM(MA) à la plateforme Big Data, Vue client 360° : temps réel avec Kafka et
Spark Streaming, stockage et indexation dans HBase et ElasticSearch, tracking client avec Comscore et
WebAnalytics
 Création d’un référentiel pour les clients éligibles à la facture électronique (AIFE Chorus) : Spark batch,
Apache Nifi, HBase, Java, XML
 Développement de plusieurs batchs, Hive, Spark, pour l’intégration de données de plusieurs applications
dans la plateforme Hadoop (Linky, GazPar, Comscore …)
Environnement : Hadoop Hortonworks, HDFS, Spark, Yarn, MapReduce, Hive, Pig, Hue, Sqoop, RStudio,
ElasticSearch, HBase, Linux, Keberos, Ranger, Python, Java, Scala



=
=
=
=
=
=
=
=
=
=
=
=
Page 5
ACCENTURE- ERDF (Electricité Réseau Distribution de France) – Paris Jan. 2012 – Mars 2015
Projet : Portail SOA
Fonction : Ingénieur d’études expérimenté
Mission : Lead technique et Architecte SOA
 Participation à la mise en place de l’architecture technique du projet en collaboration avec les
équipes Basis, Architecture et Interfaces
 Participation à la rédaction et la mise à jour du document de l’architecture technique (DAT)
 La configuration du WebDispatcher (Load-balancing), pour améliorer les performances
 L’installation des environnements (dev, test, preprod, prod), Unix, Oracle, RAC, SAP…
 Administration des serveurs d’application WAS
 Administration de l’environnement de développement
 Rédaction des SFD et STD et TUF, TU
 Expert/formateur (2 développeurs) sur les technologies Java /J2EE
 Pilotage de plusieurs développeurs onshore et offshore dans un contexte SOA 4 couches
 Définition des best practices projet
 Conception objet et développement des micro-services en Java
Contexte :
L’infrastructure du projet s’appuie sur les principes structurants de la Haute Disponibilité et de la réplication,
basée sur la tolérance de panne d’un site principal et d’un plan de reprise d’activité sur un site de secours. Pour ce
faire, l’infrastructure mise en œuvre repose sur deux salles pour le site principal et d’une salle dans un site de
secours distant.
Environnement : Java, SOA, Micro-services, Unix, Oracle, VMware, WebDispatcher, SAP, Visual Composer,
LoginModule,

ACCENTURE - ERDF (Electricité Réseau Distribution de France) - Paris d’Avril 2011 à Déc. 2011
Projet : SI Producteurs : « Traitement des données de comptage et publication des flux » (Direction Informatique
et télécommunications)
Fonction : Ingénieur d’études expérimenté
Mission : Lead technique
 Encadrement de l’équipe de développement
 Participation à l’optimisation de l’architecture technique de l’application
 Analyse, conception objet, et définition des spécifications techniques en UML
 Développement java
Contexte :
Le projet repose sur une architecture à 3 niveaux, de type application web/client léger basée sur l’utilisation de :
 Apache (serveur Web)
 Weblogic Server (serveur d’application/middleware)
 SGBD Oracle (persistance des données)
 CFT , FTP et MQSeries-JMS pour les échanges avec les SI partenaires
Le serveur Apache et le domaine Weblogic sont hébergés sur la même machine physique, le domaine Weblogic
étant composé de deux instances :
 WLS-01 pour la couche présentation
 Un cluster WLS-02 et WLS-03 pour la couche services métiers
La base de données Oracle est hébergée sur une machine séparée. Les fichiers de base étant eux stockés sur une
baie de disques externe.
Axes fonctionnels du SI :
 La gestion du contrat producteur
 Traitement des données de comptage (contrôle, correction, validation et calcul des énergies)
 La publication des flux
 La facturation des composantes de l’accès au réseau public de distribution et le recouvrement

Environnement : Java, Weblogic, PowerDesigner, Entreprise Achitect, Spring, Spring Batch, Ant, Linux
=
=
=
=
=
=
=
=
=
=
=
=
Page 6
ACCENTURE -FRANCE TELECOM-Orange Business Services-Paris de Janv. 2011 à Mars.2011
Projet : Direction Informatique – développement d’un portail web de monitoring quasi temps réel d’un réseau IP
VPN (IP VPN Monitoring Dashboard) en mode Agile
Fonction : Ingénieur d’études et développement
Mission : Réfèrent technique
 Analyse, conception en UML
 La sélection de taches / modules a livrer, au début de chaque sprint
 Livraison des modules sélectionnés a la fin du chaque Sprint
 Notification immédiate de problèmes, points de blocage au scum-master
 Rédaction de la documentation
Contexte :
Ce projet de surveillance VPN, défini conjointement avec Siemens a pour but de fournir un tableau de bord
simplifié pour suivre le bon fonctionnement du réseau. Cela permettrait de descendre dans les entrailles de
l’infrastructure réseau, et collecter les informations concernant le taux d'utilisation, et analyser les éléments de la
topologie du réseau ainsi que suivre la gravité des incidents.

Environnement : Java, PowerDesigner, Spring, OSGI, Maven, Hibernate, GWT, Linux






T-SYSTEMS - PSA PEUGEOT CITROEN - Poissy de Janvier 2010 à Déc.2010
Projet : Direction Informatique – Homologation européenne des véhicules
Fonction : Ingénieur d’études et développement
Mission : Responsable technique
 Participation à la mise en place de l’architecture technique du projet en collaboration avec les
équipes Architecture du client
 Participation à la mise en place du modèle de données et à son optimisation (Oracle 10)
 Formation et encadrement de l’équipe de développement et affectation des taches
 Analyse, conception objet, et définition des spécifications techniques en UML
 Développement des batchs en Java (Spring Batch)
 Le support de production des applications, suivis des livraisons
Contexte :

Le projet a pour objectif la mise en application et la génération du document CoC.
Le CoC est en application en Europe depuis 1996 pour les véhicules particuliers.
Il s’agit d’un document référençant certaines caractéristiques techniques du véhicule (dimensions, masse, CO2, etc
..) + informations propres (couleur, numéro de châssis).
Ce document est obligatoire pour l’immatriculation dans certains pays (Allemagne, Italie, etc…). Facultatif dans les
autres pays (le constructeur doit être capable de le produire à la demande lorsqu’un véhicule immatriculé dans un
pays A doit être transféré dans un pays B, afin de faciliter les formalités administratives dans le pays destinataire).
Environnement : Java, SOA, Spring, Spring Batch, Hibernate, Maven, Oracle, Linux
=
=
=
=
=
=
=
=
=
=
=
=
Page 7
T-SYSTEMS-MAPOWER DSI FRANCE d’Octobre 2009 à Décembre 2009
Projet : Direction des systèmes d’Information – La gestion des accidents de travail
Fonction : Ingénieur d’études et développement
Mission : Chargé de la conception et développement
 La définition des spécifications techniques en UML
 Conception objet et développement des IHM, tests unitaires
 Recette technique et support recette fonctionnelle
 Mise à disposition des packages de livraisons
 Le support de production des applications, suivis des livraisons
Environnement : JAVA /J2EE, XML, ECLIPSE, JavaScript


T-SYSTEMS - EADS ASTRIUM (Mantes-la-jolie - Région parisienne) de Juillet 2009 à Sept. 2009
Projet : Direction des systèmes d’Information – VPM d’un projet de satellite
Fonction : Ingénieur d’études et développement
Mission : Identifier un framework pour faire du reporting
 Faire de la veille technologique
 Identifier et prototyper sur les technologies
 Conception et développement d’un prototype, tests unitaires
Environnement : VPM, JAVA, XML, BIRT, ECLIPSE
T-SYSTEMS - DAIMLER (Mercedes - Benz) (Stuttgart – Allemagne) Juin 2009
Projet : DSI – Documentation technique véhicule
Fonction : Ingénieur d’études et développement
Mission : Chargé de développement.
 Conception et développement, tests unitaires
 Recette technique
Environnement : Unix, Script Shell Unix
T-SYSTEMS - THALES ALENIA SPACE - Toulouse de Février 2009 à Juin 2009
Projet : Génération des rapports Catia V5 (Dassault systèmes) pour un projet aéronautique
Fonction : Ingénieur d’études et développement
Mission : Chargé de la conception et développement.
 Définition de l’architecture de l’application
 Analyse et conception objet et développement, tests unitaires
 Recette technique et support recette fonctionnelle

Environnement : CATIA V5, C#, Visual Studio 2005
=
=
=
=
=
=
=
=
=
=
=
=
Page 8
T-SYSTEMS - PSA PEUGEOT CITROEN (Centre Technique de Velizy) Avr. 2008 à Jan. 2009
Projet : Usine numérique 3D Montage - DELMIA
Fonction : Ingénieur d’études et développement
Mission : Administration, Customisation, Suivi des développements, chargé de l’analyse, le développement.
 Amélioration et optimisation de l’architecture de l’application
 Après des visites de plusieurs usines du client et l’analyse des problèmes rencontrés, une solution
évolutive a été proposée
 Conception et développement d’un système d’optimisation des lignes de montage de véhicules
 Développement VBScript sur le Framework Dassault Systèmes
 Participation à des ateliers d’utilisation de l’application pour le montage de la maquette numérique
Résumé :
L’objectif de ma mission était l’administration et la customisation de l’application 3D Montage.
L’application 3D Montage, grâce à l’interopérabilité entre Process Engineer et l’atelier DELMIA DPM Assembly,
permet à partir des données Process de montage et des données 3D de la maquette numérique, de réaliser des
simulations de montabilité en contexte véhicule 3D.
Process Engineer est utilisé pour la réalisation des gammes de montage véhicule, sur les différents sites PSA à
travers le monde.
Pour valider la faisabilité du montage des pièces aux différents stades de son parcours sur la chaîne de montage,
une seconde base PE dédiée aux analyses d’assemblage 3D a été créée. Cette base est alimentée par les données
Process d’assemblage contenues dans la base PE Montage, ainsi que les mappings (liens) vers les données Produit
3D extraites de VPM.
L’atelier DELMIA DPM Assembly connecté à cette base PE 3D permet ensuite de réaliser des chargements de
l’état du véhicule (« contexte ») à n’importe quel pas de la ligne d’assemblage.

Environnement : VB scripts, SQL, DELMIA, Unix, Windows, SAP, VPM


G-FIT - PSA PEUGEOT CITROEN de janvier 2006 à mars 2008
Projet : Gestion et optimisation des stocks et ventes de pièces de rechange
Fonction : Ingénieur d’études et développement
Mission : Responsable des travaux de développement, de leur conception à leur mise en production
 La définition des spécifications techniques en UML
 Conception objet et développement des IHM, tests unitaires
 Développement java sur le Framework PSA
 Développement des BATCH JAVA sous Z/OS
 Le support de production des applications, suivis des livraisons
 Utilisation d’outils pour assurer la qualité des développements
Contexte :
Les outils de développement dans le SI sont principalement :
 WEBSPHERE comme serveur d’application pour les applications WEB ayant à interagir avec la
couche DATA (bases DB2) du SI.
 JAVA, HTML, XML, JSP, JavaScript, Servlets…
 IRWD/WSAD comme IDE
 CICS, DB2 pour le transactionnel sous MVS ou via les interfaces WEB.
 COBOL, DB2 sous MVS pour les traitements BATCH
Environnement : JAVA/J2EE, Struts, Ajax, Websphere, Db2, Mvs, Cvs, Irwd/Wsad, Jviews Ilog, Mvs, Tso, Cobol,
Checkstyle, Jprobe, Metrics, Findbugs, Batch Java, Z/Os, Unix
=
=
=
=
=
=
=
=
=
=
=
=
Page 9



MESSAGIO TELECOM de décembre 2004 à novembre 2005
Projet : Applications pour les terminaux mobiles
Fonction : Ingénieur de développement
Mission : Conception et développement des applications/services pour les terminaux mobiles.
 Analyse et conception objet avec la méthode merise
 Développement de plusieurs services WAP, i-Mode pour les opérateurs télécoms : SFR, Orange,
Bouygues Télécom
 Développement de plusieurs programmes qui traitent des fichiers XML en utilisant les APIs :
JXPath, DOM, SAX
 Développement d’un service Push-Mail pour les abonnés i-Mode en utilisant le support mail de
SPRING
Environnement : JAVA/J2EE, SPRING, HIBERNATE, MIDDLEGEN, COCOON, TOMCAT, APACHE,
POSTGRESQL, HTML, XTML, WML, CHTML, iHTML, SVN, XML/XSL, JXPATH, DOM, JDOM, SAX
INSTITUT NATIONAL DES TELECOMMUNICATIONS - Evry d’avril 2004 à septembre 2004
Projet : Mode veille pour les utilisateurs mobiles
Fonction : Stagiaire
Mission : Stage d'une durée de 6 mois sur la mobilité des applications multi composants.
 Etude bibliographique
 Analyse et conception avec UML et MDA
 Développement réalisé en JAVA dans un environnement LINUX
Environnement : Systèmes distribués, mobilité, J2EE/EJB, DOTNET, CORBA/CCM, UML2, MDA, LINUX
ECOLE NATIONALE SUPERIEURE DES MINES-ST ETIENNE-ARMINES(Paris) f
 
 

Consultants similaires

 
Lead Dev FullStack

Compétences : Docker, DOTNET, JAVA, KUBERNETES, Symfony, C++, FULLSTACK, ...

Voir
consultant
Retenir
 
Lead/senior dev php symfony et laravel

Compétences : Coaching, Laravel, PHP, Symfony, gitlab CI, AUTHENTIFICATION, ...

Voir
consultant
Retenir
 
Conultant DevSecOps

Compétences : DevSecOps, Linux server, MIDDLEWARE, Openshift, openstack, ...

Voir
consultant
Retenir
 
Data Engineer Azure Fabric

Compétences : Azure, BI, Cloud, Data, ACCESS, Administration, AGILE, ...

Voir
consultant
Retenir
 
TechLead/dev senior .NET/React

Compétences : .NET, Azure, ReactJS, Terraform

Voir
consultant
Retenir
 
Consultant Intégration

Compétences : .NET, Azure, azure Devops, integration, Terraform, ...

Voir
consultant
Retenir
 
Expert

Compétences : Cloud, DevSecOps, JAVA, SPRING, AGILE, AI, Analyse, ...

Voir
consultant
Retenir
 
Lead Tech

Compétences : C++, docker compose, JAVA, KUBERNETES, achat, Administration, ...

Voir
consultant
Retenir
 
Développeur back

Compétences : CI/CD, Django, Docker, KUBERNETES, PYTHON, JAVASCRIPT, ...

Voir
consultant
Retenir
 
tech lead

Compétences : ansible, CI/CD, DEVOPS, GitLab, KUBERNETES, GIT, Github, ...

Voir
consultant
Retenir
 
 

Partager

 

Retenir

  • Pour quelle mission ?

 

Vous avez oublié
votre mot de passe ?