Mon espace
Je m'inscris

En tant que

Consultant Client
 

CV du
consultant

Réf PROF00006273

Accueil > Consultants > PROF00006273
 
 

DATA ANALYST

Disponible

 

Profil publié le : 13/05/2022 Profil vu : 141 fois Référence : PROF00006273

 
 

Compétences

Expert Moyen Débutant

BDD

Azure BI Data HDFS MYSQL ORACLE POSTGRESQL Stockage

Connaissances fonctionnelles

Administration Analyse ANGLAIS automobile Cloud dashboard digital flux Formation Français Marketing Microsoft NLP pipelines Relationnel RETRAITE TESTS transformation WEB

Langages

DAX Docker Flask Hadoop mantis MongoDB NATURAL Pandas PYTHON PYTHON 3 R react SQL

Méthodes

AGILE Conception DEVOPS integration MIGRATION PROJET SCRUM Support

Outils

GitLab Talend DI

Réseaux et Middleware

ansible AWS KUBERNETES serveur VMWARE vSphere

Systèmes

Azure Service GIT LINUX Systèmes WINDOWS 10

Diplômes et formations

. 2021 - Master 2 DATA ANALYSE
. 2020 - Master 2 MBDS (Mobiquité Big Data et Intégration des Systèmes)
. 2018 - Master 2 SRS ( Sécurité des Réseaux et des Systèmes)

Pays / régions

. Auvergne-Rhône-Alpes
. Centre-Val de Loire
. Grand Est
. Île-de-France
. Normandie
. Nouvelle-Aquitaine
. Occitanie
. Pays de la Loire
. Provence-Alpes-Côte d'Azur

Expérience professionnelle

Profil

• 15 ans d’expérience en tant qu’ingénieur informaticien
• Très bon relationnel
Certifications • SCRUM FOUNDATION PROFESSIONAL CERTFICATE SFPC, Obtenu le 12/08/2022 (CertiProf). Identifiant de la certification: 78450314;

Principales compétences • MongoDb
• Microsoft Azure
• Amazon AWS Cloud
• MySQL
• Oracle
• Python
• Microsoft Power BI
• Langage R
• GIT/GITLAB
• DOCKER
Formations certifiantes Formation Power BI Service (FMC Digital) à partir du 23 Février 2023
• Chapitre 1 : Introduction à Power BI
• Chapitre 2 : Importation des données
• Chapitre 3 : Transformation des données
• Chapitre 4 : Filtrage des données
• Chapitre 5 : Mise en place des visualisations de bases
• Chapitre 6 : Les modèles de documents
• Chapitre 7 : Utilisation du langage DAX
• Chapitre 8 : Création des rapports
• Certification «PL-300: Microsoft Power BI Data Analyst»

07/2022 – 10/2022 Lyon – France Formation POEI (Préparation opérationnelle à l'emploi individuelle) :
• Diplôme d’Ingénieur DEVOPS Cloud.
• Administration Système Linux
• Microsoft Cloud Azure
• Amazon AWS Cloud
• GitLab (CI/CD)
• VMWare vSphere
• Docker
• Kubernetes
• Ansible
• Méthodologie : Agile/Scrum
Formation • 2020-2021 Paris-France. MASTER 2 Data Analyse | Groupe Gema IA SCHOOL de PARIS
• 2019-2020 Nice-France. MASTER 2 MBDS (Mobiquité Big Data et Intégration des Systèmes) | à L’Université Côte d’Azur de Nice
• 25/07/2022 – 18/10/2022 Lyon – France. Formation Ingénieur DEVOPS (M2i Formation)
• Formation Power BI Service (FMC Digital)

Langues :
• Français (Natif)
• Anglais (Niveau Intermédiaire)
Centres d’intérêt J’aime pratiquer du sport à savoir la marche, le Taekwondo, J’aime aussi la lecture des revues scientifiques.






EXPERIENCES PROFESSIONNELLES

Fédération Agirc-Arrco
Intégrateur Technico-Fonctionnel
ATOS (Olivet)
Depuis Octobre 2022
Mission: Participation au projet RGCU «Répertoire de Gestion Des Carrières Unique» pour les activités de migration et d’intégration.
Description:
• Support fonctionnel et technique aux équipes d’intégration, qualification, bascule CNAV et aux déploiements régimes.
• Participation à des réunions de travail (Régimes, CNAV, Agirc Arrco)
• Élaboration et exécution des scénarios et cas de tests fonctionnels
• Analyse, déclaration et suivi des anomalies
• Exécution des runs de migration des données des régimes (Echantillon et volumétrie)
• Génération des compteurs de migration et analyse des écarts
• Rédaction du bilan de migration à destination des régimes
• Mise à disposition des régimes les éléments nécessaires pour la validation de leur migration
• Participation au développement, optimisation et validation des compteurs.

Environnement Fonctionnel: Retraite
Environnement Technique: Windows10, Linux, PL/SQL, Oracle, PostgreSQL, Mantis


SARL LE FLORIAN
DATA ANALYST
06/2021 –12/2021
(Cannes – France)
• Ingestion des données clients sur Azur Blob Storage.
• Récupération des données de la base de données hébergées sur les services de Microsoft Azur Cloud et Extraction sur Python pour traitement.
• Importer les données traitées sur Microsoft Power BI pour faire une visualisation Graphique (Dashboard) des données pour afficher graphiquement les profils des Clients.
• Appliquer un algorithme de Machine Learning pour faire du clustering pour faire ressortir les différents profils des clients.
• Mise en place du plan de fidélisation (par le chef de service Marketing).
Environnement
Python | Microsoft Power BI | Azure Data Factory
Azure Blob Storage


Hydrogen
Développeur Web
04/2020 – 10/2020
(Valbonne – France)
• Développement d’un Dashboard à 80% ;
• Stockage des informations dans une base de données MongoDb
• Gestion du code sur Gitlab ;
• Conception et développement de pipelines CI/CD Data sur Gitlab ;
• Serveur : Node Js : création de route et connexion à la base de données ;
Langage de développement : React Js.


Expérience Académique
Compétence 1 :
Implémentation et traitement des flux de données avec python.
• Création d'un pipeline dans Azure Data Factory pour paramétrer l’ingestion de données dans Azur Blob
• Storage.
• Traitement des données avec Azur Data Bricks et Azur Synapse.
• Import de données sur Microsoft Power BI pour faire une Visualisation Graphique des données (Dashboard).

Compétence 2 :
• Mise en place d’une architecture Deep-Talk pour extraire des informations pertinentes dans des fichiers PDF:
• Un client web (développé en React Js) qui envoie une requête au serveur avec en entrée un fichier PDF.
• Le serveur (Flask) fait appel à la librairie Tesseract Ocr pour interpréter le fichier PDF et l'extraire au format txt et renvoyer au serveur.
• Le serveur ensuite fait appel au model BERT pour analyser la question envoyée par le client sur le fichier au format txt traduit par la librairie Tesseract Ocr.
• Ensuite il renvoie la réponse au serveur qui la renvoie à son tour au client web.

Compétence 3 :
• Implémentation et traitement des flux de données avec python.
• Création d'un pipeline dans Azure Data Factory pour paramétrer l’ingestion de données dans Azur Blob Storage.
• Traitement des données avec Azur Data Bricks et Azur Synapse.
• Import de données sur Microsoft Power BI pour faire une Visualisation Graphique des données (Dashboard).

Compétence 4 :
Analyse de la donnée Clientèle d'un Concessionnaire Automobile pour la Recommandation de Modèle.
• L’ingénierie des données dans les architectures DATA LAKE HADOOP et HDFS HADOOP, HADOOP MAP REDUCE;
• Activités Data Visualisation avec D3JS;
• Activités Data Analyse / Machine Learning;
 
 

Consultants similaires

 
Program Manager

Compétences : AGILE, audit, Banque, Finance, PROCESS IMPROVEMENT, ...

Voir
consultant
Retenir
 
Développeur Mainframe

Compétences : AGILE, développement, MAINFRAME, Testing, Analyse, ...

Voir
consultant
Retenir
 
Tech Lead Salesforce

Compétences : AGILE, BACKEND, FRONTEND, Mulesoft, Salesforce, ACCESS, ...

Voir
consultant
Retenir
 
Data Analyst|Data Scientist

Compétences : AGILE, agile Scrum, Dataiku, PYTHON 3, SQL, Data, GCP, ...

Voir
consultant
Retenir
 
Project Manager

Compétences : AGILE, agile Scrum, JIRA, Management, Management de ...

Voir
consultant
Retenir
 
ingenieur devops-cloud

Compétences : ansible, AWS, Cybersecurité, DEVOPS, Terraform, AD, ...

Voir
consultant
Retenir
 
Recherche de mission

Compétences : Analyse, Formation, Support, Administration, alm, Android, ...

Voir
consultant
Retenir
 
Business analyst

Compétences : AGILE, Business, SHELL, SQL, VBA, C++, JAVA, Project ...

Voir
consultant
Retenir
 
Responsable application

Compétences : AMOA, Analyse, Déploiement, ORGANISATION, WMS, AIX, ...

Voir
consultant
Retenir
 
analyste développeur cobol mainframe

Compétences : Analyse, COBOL, DB2, JCL, ZOS, AGILE, Data, PYTHON, ...

Voir
consultant
Retenir
 
 

Partager

 

Retenir

  • Pour quelle mission ?

 

Vous avez oublié
votre mot de passe ?