
CV du
consultant
Réf PROF00006817
Compétences
BDD
CLOUDERA Data BI DataWareHouse HDFS HIVE Hue MYSQL ORACLE POSTGRESQL TERADATAConnaissances fonctionnelles
ANGLAIS Cloud Déploiement DISTRIBUTION flux Français Français Industrialisation international Kafka PCA PRA Production transformationLangages
SHELL Spark Batch Docker ELK Hadoop JAVA PySpark PYTHON REFERENCEMENT SAFeMéthodes
DEVOPS AGILE Conception integration ITIL Jenkins Management MIGRATION PROJET Support UMLOutils
GitLab Grafana openstackRéseaux et Middleware
KUBERNETES Terraform ansible CDP MonitoringSystèmes
APACHE CENTOSDiplômes et formations
. 2018 - Université Paris Saclay Master 1 Informatique pour la science des données par ap
. 2017 - Université Paris Sud Licence Méthodes informatiques appliquées à la gestion des
Pays / régions
Expérience professionnelle
Langages : Python, Java, Korn Shell
Big Data : Hadoop, Kafka, Spark, Hive, Impala, Airflow
Streaming : Spark Streaming, Kafka Streams, Flink
Distribution Big data : Cloudera ( CDH, CDP, CDSW)
Monitoring : Grafana, Prometheus, ELK
DevOps : Gitlab, Ansible, Sonatype, Jenkins, Docker
BI : DataWarehouse Oracle Cube
Conception : UML
Gestion de projet : MS Project
Base de données : MySQL, Oracle, Teradata
Management SI : ITIL, PCA, PRA
Langues : Français, Anglais, Arabe
EXPERIENCES PROFESSIONNELLES
Consultant Expert Big Data
Societé Générale | Novembre 2021 - Aujoud'hui
Extension des ressources du cluster
Approvisionnement des ressources nécessaires depuis le cloud interne ( VM OpenStack, Postgresql Cloud Platform, Load Balancer, S3 storage)
Support niveau 3 avec des équipes à l'international ( Bangalore et Montréal )
Export des logs des clusters vers une bucket S3 avec Fluentd
Extraction de la gestions des accès à la donnée à travers Apache Ranger
Réorganisation des services Cloudera ( déplacement Hue sur des serveurs dédiés)
Tunning de la configuration du cluster pour assurer le bon fonctionnement
Administration système ( CentOs )
Monitoring des clusters avec Prometheus/Grafana
Cadre :
Expert Hadoop dans un contexte d'une offre de service dans un cloud interne.
4 Clusters de production sont proposés dans l'offre de service
Safe: Scaled Agile Framework
Contexte international
Activité:
Ajout des DataNode
Support aux Data Enginners/Scientists
Automatisation du déploiement de la configuration Fluentd avec Ansible
Data Engineer
SFR | Septembre 2017 - Octobre 2021
Framework d’Ingestion batch, En Agile
Framework d’Ingestion temps réel, En Agile
Transformation des données batch, En Agile
Cadre :
Migration des flux de données de l’ancien Data Warehouse vers le nouveau cluster Hadoop.
Etude des besoins Data métiers & Data Scientists
Mise en place de nouveaux flux de données pour répondre aux différents besoins métiers.
Développement & Industrialisation Big Data
Architecture et veille technologique
Projets :
Chargement des données dans HDFS
Gestion intégration/référencement des nouveaux Flux
Python, HDFS, KSH
550 Flux batch quotidien en production
Kafka, Flume, Nifi, Spark Streaming
Pyspark, Hive
Développement UDF's HIVE
750 jobs quotidiens en production
Consultants similaires
Compétences : CDP, CLOUDERA, GCP, JAVA 11, AWS, Data, KUBERNETES, ...
consultant Retenir
Compétences : Azure, Cloud, DEVOPS, GCP, ansible, AWS, Datadog, Terraform, ...
consultant Retenir
Compétences : DEVOPS, GCP, Kotlin, KUBERNETES, Terraform, AWS, JAVA, ...
consultant Retenir
Compétences : Azure Cloud, Data, Power BI, PYTHON 3, SQL, GCP, AGILE, ...
consultant Retenir
Compétences : CI/CD, JAVA J2E, KUBERNETES, Leadership, SPRING, AGILE, ...
consultant Retenir
Compétences : BIG DATA, Cloud, DEVOPS, RPA, AD, Administration, AGILE, ...
consultant Retenir
Compétences : DEVOPS, docker compose, Jenkins, KUBERNETES, AWS, LINUX, ...
consultant Retenir
Compétences : Cloud, Data, ETL, Power BI, AGILE, Business, Planning, ...
consultant Retenir
Compétences : JAVA, KUBERNETES, Spring Boot, Docker, HIBERNATE, Jenkins, ...
consultant Retenir
Compétences : ansible, ELK, GCP, KUBERNETES, Terraform, AWS, CI/CD, ...
consultant Retenir