Mon espace
Je m'inscris

En tant que

Consultant Client
 

CV du
consultant

Réf PROF00007931

Accueil > Consultants > PROF00007931
 
 

Architect

Disponible

 

Profil publié le : 16/05/2025 Profil vu : 21 fois Référence : PROF00007931

 
 

Compétences

Expert Moyen Débutant

BDD

BI BO Data Databricks ETL EXADATA Hbase HIVE IDQ INFORMIX NoSQL ORACLE POSTGRESQL snowflake Splunk Stockage

Connaissances fonctionnelles

data management Gouvernance SI Administration AI Analyse ANGLAIS Assurance audit b2c BSCS Business cartographie Cloud communication Conformité CRM Cybersecurité dashboard Déploiement digital ERP FACEBOOK Fidélité Finance flux Fonction Formation Français FRAUDE HP IA Incidents informatique international INTEROPERABILITE Kafka kpi Leadership licences LLM Logistique M&A Marketing Microsoft MIDDLEWARE MOBILE offshore Performance POS PROCEDURES PROCESSUS Production Rédaction reglementaire RGPD Risques SAML SANTE SAP Sécurité SPSS Stream TESTS transformation TWITTER WEB Word workflows

Langages

INFORMATICA Artifactory Confluence css DevSecOps Docker Excel EXCHANGE Hadoop HTML J2EE JAVA JIRA Microservices MongoDB PERL PySpark PYTHON qlikview R SAFe SCRIPT Scripting Selenium SHELL Spark SQL

Méthodes

SAFe6 TOGAF AGILE ALGORITHME api Archimate Architecture Autonomie BPMN Conception développement DEVOPS EXIGENCES Gouvernance integration ITIL Jenkins Management MDM MIGRATION Modélisation ORGANISATION Planning PROJET Qualité REST SCRUM supervision TDD UML

Outils

Datadog GitLab Kibana Qlik RDS Vault Xray

Réseaux et Middleware

ansible AWS GPRS GSM LTE Reseau réseaux Saas Security serveur Terraform

Systèmes

APACHE GIT IBM INFRASTRUCTURE LINUX Systèmes UNIX UX

Diplômes et formations

Pays / régions

Expérience professionnelle



Enterprise Architect and Data Management Expert (TOGAF, DAMA, SAFe, AWS, Informatica, ITIL)



Architecte Enterprise expérimenté fort de plus de 15 ans d'expertise dans la conduite de projets complexes, je me spécialise dans la création de solutions architecturales innovantes à travers divers secteurs tels que les télécommunications, l'énergie, la finance, le gouvernement et la santé. Ma compétence s'étend à l'architecture d'entreprise, la gouvernance des données, la gestion des données, la sécurité, et bien plus, avec une capacité éprouvée à transformer des défis techniques en solutions stratégiques favorisant la transformation numérique. Reconnu pour un leadership qui allie vision stratégique et excellence opérationnelle, je suis dédié à la collaboration interfonctionnelle et à la formation des équipes pour naviguer avec succès dans les évolutions technologiques et les exigences concurrentielles actuelles.


Compétences clés
• Leadership Technique et Stratégique : direction de projets complexes avec une vision stratégique pour guider les organisations dans leur transformation numérique, en promouvant l’innovation et l’excellence opérationnelle.
• Collaboration Interfonctionnelle : Partenariat efficace avec les équipes IT, les analystes de données, les experts en cybersécurité et les parties prenantes commerciales.
• Expertise en Résolution de Problèmes : capacité à résoudre des défis complexes grâce à une analyse approfondie, à la pensée critique et à une solide compréhension des technologies de pointe en matière de données.
• Communication et Formation : compétences avancées en communication pour articuler des concepts techniques à des audiences variées, ainsi que pour former et sensibiliser les équipes aux meilleurs pratiques.
• Autonomie : Hautement autonome, capable de diriger des initiatives stratégiques avec une supervision minimale.


Compétences techniques
• Architecture d'Entreprise et Systèmes IT : TOGAF, Zachman, FEAF, DoDAF, ArchiMate, SAFe, DORA, IA Act, FIDA.
• Gestion et Gouvernance des Données : DMBook, ETL, ELT, EDW, BI, entrepôts de données et technologies de big data, Qualité de données, dictionnaire de données, glossaire, données de références, MDM
• Architecture de Données et Modélisation : Données relationnelles, dimensionnelles et NoSQL, UML, Data Vault, ..
• Infrastructure Cloud et Bases de Données : Expérience avec AWS, Snowflake, Oracle, PostgreSQL, MongoDB, Linux et Docker.
• Science des Données et Apprentissage Automatique : Maîtrise de Python, R, SageMaker et LLM.
• DevSecOps et Intégration/Déploiement Continu : Connaissance de Git, Jenkins, Terraform et Ansible pour un développement logiciel efficace, Xray, Selenium, Jforg.
• Visualisation de Données et Surveillance : Expérience avec Tableau, QlikSense, SAP BO, Datadog et Splunk


Certifications
• 2024 - TOGAF Enterprise architecture Leader
• 2024 - Certified Data Management Professional, DAMA International
• 2024 - Informatica Cloud Data Gouvernance & Catalog Foundation
• 2024 - Informatica MDM SaaS Foundation
• 2023 - TOGAF 10 Entreprise Architecture Practitioner
• 2023 - TOGAF 9 Certified
• 2023 - Certified SAFe 6 Architect
• 2023 - Certified SAFe 6 Agilist
• 2023 - Informatica Cloud Data Integration
• 2022 - AWS certified DevOps Engineer, Professionnel
• 2020 - AWS Architect | 2017 - ITIL Foundation
• 2017 - ITIL Foundation

Formation

• 2014 - Magistère en Informatique, Université des Sciences et des Technologies Houari Boumediene.
• 2011 - Ingénieur en Informatique, Ecole supérieur d’Informatique.

Langues : ANGLAIS. B2, Professionnel. FRANÇAIS. C1, Maternelle. ARABE. C1, Maternelle


Centres d’intérêts
Jeux d’échec, Sport, Voyages.

Expériences Professionnelles


02/2025 – maintenant
Grenoble Ecole de Management
Enseignant en Architecture des Systèmes d'Information

J'enseigne au campus de Paris de GEM, où je dispense le cours 'Architecture du SI au service des enjeux métiers' aux étudiants du programme Master 'Manager du Numérique et du Système d'Information'.


11/2021 - maintenant
Bpifrance
Solution Architecte et Leader Technique en Gouvernance de données
En tant membre essentiel de l’équipe de gouvernance de données au sein d’un cadre SAFe, j’ai piloté diverses initiatives stratégiques pour renforcer la gestion des données de l’entreprise. Mes contributions principales incluent :

• Architecture d’Entreprise : Conception et réalisation des systèmes modernes répondant aux exigences métiers.
- Participation et validation d’architecture dans les différents comités d’architecture.
- Mise à jour de la cartographie applicative des SI de BPIfrance
- Modélisation des architectures techniques (HLD, LLD) et processus métier.
- Rédaction et validation du DAT (Document d’Architecture Technique) pour l’expansion et l’extension de la plateforme IDQ
- Rédaction et validation du DAT pour l’évolution du socle IDQ En prémisse (legacy), Informatica Cloud Data quality and Data Gouvernance
- Rédaction et validation du DAT du socle de Qualité des données via Great expectations
- Mise en place du socle de Qualité de données via Great_expectations
- Mise en Place du socle Informatica Cloud Data Quality et migration de l’Onprim vers la solution cloud

• Gouvernance des données : Définition de politiques et de procédures de gouvernance qui encadrent la collecte, la gestion, et l’utilisation des données, en assurant conformité réglementaire et alignement stratégique avec les objectifs de l’entreprise.
- Animation des ateliers avec le métier
- Onboarding et formation des métiers et équipes IT
- Assurer le respect des normes et standard de gouvernance de données comme BCBS 239, RGPD
- Documentation des données, des processus métiers, lineage et enrichissement du glossaire sur Data Galaxy
- Accompagnement des métiers pour l’utilisation des outils de gouvernance de données
- Développement des contrôles de qualité de bout en bout
- Suivie des indicateurs de qualité de données de documentation et de gouvernance
- Rédaction des documents de spécifications techniques et fonctionnelles.

• Data management : mise en œuvre de pratiques de gestion des données qui renforcent la qualité, la cohérence et la valeur des actifs de données tout au long de leur cycle de vie.

• Architecture de données : Conception d’architecture de données évolutives et résilientes qui supportent les besoins en analyse avancée, en stockage et en traitement, tout en facilitant l’intégration et l’interopérabilité entre les différents systèmes.
- Implémentation et Modélisation du nouveau modèle de données DAG (Data Gouvernance Asset) permettant de centraliser les besoins métiers relatives au périmètre Data gouvernance orientée data mesh

• Data Observabilité : création de systèmes d’observabilité pour surveiller en temps réel la santé des données, détecter rapidement les anomalies et améliorer la réactivité en cas d’incidents.
- Conception et développement du Dashboard et monitors pour l’observabilité des outils de gouvernance et de qualité de données via Datadog

• Classification des données : établissement de systèmes de classification efficaces pour organiser les données en catégories pertinentes, permettant une meilleure gestion du risque, de la confidentialité et de la conformité.
- Classification des données selon la leur criticité : C0, C1, C2, C3
- Taguer et suivre les données RGPD, données critiques et sensibles

• Sécurité des données: renforcement de la sécurité des données par la mise en place de solutions de chiffrement, de contrôles d’accès, de protocoles de sécurité et d’audits réguliers pour prévenir les risques de fuites et d’intrusions.
- Security Champion, implémente et aide l’équipe à respecter les standards et les politiques de sécurité
- Participer dans les audits de sécurité et tests d’intrusion

En plus des tâches techniques suivantes :
- Développement du tableau de bord sur Qlik sense
- Administration de la plateforme Informatica IDQ On prémisse et Informatica Cloud Data quality
- Upgrade d’Informatica 10.2 vers 10.4 toutes les services et puis de 10.4 vers 10.5.1 puis vers 10.5.3
- Mise à niveau des licences Informatica
- Conception et développement de la chaine CICD : Gitlab, Informatica, Shell, SQL, Artifactory, Jenkins, Ansible, Vault
- Réalisation des contrôles de qualité de données en Stream TOPIC (Kafka) et API REST
- Développement d’une API REST pour le lancement des profils de qualité de données.
- Traitement et automatisation des corrections des vulnérabilités CVEs sur les environnements Informatica.
- Automatisation des tâches DevOps avec terraform
- Test Automatisé BDD et TDD via Xray, Jira et API

Environnements techniques. PowerDesigner, Draw.io, Informatica IDQ, Informatica Cloud Data Quality and Data Gouvernance, Data galaxy, Qlik sense, Gitlab, Jenkins, Datadog, Vault, Artifactory (Jforg), Ansible, Confluence, JIRA, Great_expectations, Spark, Python, Cyberwatch, Kafka, REST API, Kafka, cyberwtach, Xray, SAML, ISAM, Pyspark, AWS Glue, terraform, UML, BPMN, ArchiMate, Terraform, Snowflake.



06/2019 – 10/2021
Engie
Solution Architecte et Tech Lead

FREDI est une application middleware complexe qui communique des données entre les partenaires et les distributeurs d'Engie et qui stocke ces données dans une base de données partagée. J’ai proposé et réalisé une nouvelle architecture moderne pour FREDI basé sur les micro-services AWS, une architecture qui traite des données massives en concurrence (en temps réelle) et dans les meilleurs délais avec un coût d'infrastructure optimisé.

Le projet Supply data B2C est une nouvelle plateforme et une extension de FREDI utilisant les technologies Big data permettant la gestion et le traitement des données massives.
Environnement Agile. Scrum, Safe

Tâches.
- Analyse et étude détaillé sur l’architecture source de Fredi et réalisation de test de performance
- Conception et implémentation de la nouvelle architecture FREDI AWS.
- Intégration de la solution FREDI dans des processus opérationnelles (comme l’application digital maconso)
- Conception et réalisation d’un moteur de calcul pour la tarification dynamique des clients.
- Conception et implémentation de la nouvelle architecture Supply data B2C.
- Proposition, modélisation et implémentation du nouveau modèle de données FREDI
- Rédaction des documents de spécifications fonctionnelles et techniques
- Développement ETL avec Databricks, Informatica, Spark
- Développement avec Python et JAVA
- Développement de procédures PL / SQL
- Gérer les deux équipes FREDI legacy et Supply data (avec une équipe Offshore en inde)
- Organisation des diffèrent réunion Scrum: Daily meeting, sprint planning, sprint review, sprint rétrospective)
- Estimation de charge des tâches du backlog
- Mise en production des livrables.
- Faire les entretiens et les évaluations techniques des nouveaux candidats.
- Déploiement de l'exécution concurrente pour FREDI Informatica Workflows,
- Scripting Shell, Perl, Python
- Administration de la plateforme Informatica et du serveur Unix

Environnements techniques. Databricks, Informatica, Spark, Git, Airflow, Oracle, script Shell/ Perl, PL/SQL, Cristal, Jenkins, JIRA, Confluence, AWS S3, AWS Lambda, AWS Step function, AWS Fargate, AWS CloudWatch, AWS EC2, AWS ECS, AWS RDS, AWS SSM, Kibana, Terraform, Splunk, SageMaker.



06/2016 – 10/2019
Université Alger 1
Maitre-assistant en Informatique
J’ai eu l'opportunité de dispenser divers modules pour les étudiants de Licence et de Master en Informatique.

Mes domaines d'enseignement incluent :
(1) Algorithmes et structures de données,
(2) Systèmes d'exploitation,
(3) Analyse et conception orientées objet,
(4) Bases de données avancées,
(5) Systèmes d'aide à la décision,
(6) Analyse statistique des données (avec R),
(7) Bases de données avancées pour Master.

Au-delà de ces modules, j'ai également été impliqué dans la supervision de projets de fin d'études, l'orientation académique des étudiants, et l'élaboration de supports pédagogiques innovants pour favoriser un apprentissage interactif et approfondi. Mon engagement dans la recherche académique m'a permis de rester à jour avec les dernières avancées technologiques et pédagogiques, que j'intègre régulièrement dans mon enseignement.


01/2017 – 04/2019
Ooredoo
Data Architect
La phase III du projet de migration de l’entrepôt de données Ooredoo consiste à intégrer et à répondre aux nouveaux besoins des utilisateurs pour les sujets d’analyse : gestion de stocks, gestion des réclamations, gestion des campagnes marketing, des programmes de fidélisation, des ventes, Gestion du réseau et de la qualité du service, du contenu et des systèmes numériques.

Tâches.
- Participer dans les projets d’intégration de bout en bout
- Analyser et comprendre les besoins des utilisateurs pour les sujets : gestion de stocks, gestion des réclamations, gestion des campagnes marketing, des programmes de fidélisation, des ventes, Gestion du réseau et de la qualité du service, du contenu et des systèmes numériques.
- Analyse les systèmes sources : POS (systèmes de gestion de stocks), ERP, CRM, LP (système de fidélisation), IPCC, IVR, BSCS, MSS, NOKIA, ZTE, ERICSON, GPRS, GSM, LTE, 3G, RESPONSETEK, etc.
- Réaliser la modélisation de données
- Rédiger les documents faisant la liaison entre les systèmes sources et le nouveau modèle de données.
- Rédiger le dictionnaire de données
- Participer dans le développement des flux ETL.
- Rédiger les documents d’architecture technique et fonctionnelle.
- Participer dans le développement des univers, rapports et tableau de bords.
- Valider les données intégrées.
- Travailler en collaboration avec les utilisateurs pour valider le besoin, le développement du rapport et la validation du rapport.

Environnements techniques. Erwin Data modeler, Informatica PowerCenter, Informatica Power Exchange (CDC), Greenplum, Oracle, Microsoft SQL Server, Informix, SAP BusinessObjects, Tableau, script Shell, Microsoft Excel/Word.



01/2015 – 12/2016
Ooredoo
Tech lead
Liste des projets :

Projet 1. Gouvernance et qualité de données
Pour appliquer les meilleurs pratiques dans le domaine de gouvernance des données au sein de l’entreprise Ooredoo et pour améliorer la qualité des données des différents rapports, nous avons lancé un nouveau projet de gouvernance de données en utilisant l’outil « Informatica Data Quality » et « Informatica metadata manager ».

Tâches.
- Comprendre les meilleurs pratiques d’un projet de gouvernance et de qualité de données
- Déterminer la liste des règles à développer en fonction de la priorité et la nature avec les seuils de chaque règle.
- Compréhension et documentation des processus métiers et des règles fonctionnelles.
- Installation et Administration de la plateforme Informatica Data quality
- Installation et administration du service Metadata manager et son client lourd.
- Documentation des données, processus et enrichissement du glossaire.
- Récupération du modèle de données du data Warehouse, des rapports et univers BO, les tableaux de bord Qlikview et les Workflows ETL Informatica, faire le linkage
- Aide les équipes ETL à faire l’analyse d’impact pour les projets d’intégrations de données
- Développement les règles de détection avec l’outil Informatica Developer
- Mise en place des flux de contrôles et des flux de correction avec l’outil Informatica Developer (Nettoyage, Standardisation, matching, labeling ..)
- Suivre et valider les flux de contrôle et de correction.
- Mise en place des alertes, des scorcards et des dashboards de suivies

Environnements techniques. Informatica Data Quality, Informatica Metadata Manager, Developer, Analyst, Script Shell, Tableau, Qlikview.


Projet 2. Data Warehouse migration –Phase 1-
Pour répondre aux besoins croissants des utilisateurs en termes d’information fiable au bon moment et dansl’objectif d’optimiser les temps d’exécution des requêtes, d’avoir une architecture moderne et complète de l’entrepôt de données, de migrer vers les dernières versions pour les plateformes (Informatica, Tableau, QlikView, etc.), le grand projet de migration de l’entrepôt de données Ooredoo a été lancé.

Tâches.
- Participer dans le déploiement de l’Appliance EMC DCA qui héberge la base de données Greenplum dans le Data center Ooredoo avec la préparation de l’environnement dans le data center (position de l’Appliance, alimentation électronique redondante, réseaux/câblages fibre optique, etc.)
- Participer dans la mise à niveau et l’expansion de l’Appliance EMC DCA
- Administrer l’Appliance EMC DCA et la base de données Greenplum
- Participer de l’élaboration de la nouvelle architecture de l’entrepôt de données et dansle dimensionnement de l’entrepôt de données.
- Migrer l’outil Informatica v9.5 vers la version v9.6 avec une nouvelle architecture en haut disponibilité (en Cluster activeactive)
- Migrer IBM SPSS Modeler vers la version v16
- Migrer QlikView à la version v11
- Participer dans la migration du SAP BusinessObjects vers la version XI
- Mise en place de la solution Informatica Power Exchange (CDC) sur la base de données BSCS

Environnements techniques. Greenplum, EMC DCA, Oracle Exadata, tableau, QlikView, Erwin data modeler, SAP business objects, Informatica power center, Informatica power exchange, Informatica data masking, Linux, Unix, HP UX.


Projet 3. Intégration et analyse des données des médias sociaux avec technologies Big data
L’objectif est d’analyser le comportement de nos clients sur les médias sociaux (Facebook et Twitter) en intégrant ces données et en les ajoutant aux données existantes pour avoir des vues complètes sur les clients (une vue 360 ou profile 360).

Tâches.
- Installer et administrer la plateforme Big data : Hadoop, nifi, kafka, etc.
- Gérer les tâches d’intégration de données avec l’équipe de développement
- Valider les flux ETL développés
- Valider les données intégrer et sélectionner l’algorithme à utiliser pour faire la correspondance entre le profil du client sur l’application (Facebook ou Twitter) et le profiles du client sur l’entrepôt de données.

Environnements techniques. Apache Hadoop, Nifi, Spark, Kafka, Hbase, Hive, Pig, API Facebook and Twitter, Tableau



01/2013 – 12/2014
Ooredoo
Data Engineer
Liste des projets :
Projet 1. Migration de données vers la plateforme Oracle Exadata
L’objectif est d’améliorer les performances d’exécution des requêtes sur l’entrepôt de données. Pour arriver à cet objectif, nous avions acquis la plateforme « Oracle Exadata » et un nouvel outil d’intégration de données « Informatica ». Parmi les objectifs aussi, est de faire la refonte des jobs ETL avec l’outil « Informatica ».

Tâches.
- Participer à l’installation, le déploiement et l’administration de l’Appliance Oracle Exadata.
- Participer dans la migration des données historique vers la nouvelle plateforme.
- Développer les nouveaux flux ETL avec Informatica qui reprennent le même fonctionnement des flux ETL existant sur SAP Data services
- Valider la migration des données historiques et les nouvelles données intégrées.
- Proposer des optimisations sur les scripts SQL (rapport et flux ETL)
- Développer des scripts Shell pour optimiser le temps de traitement des flux ETL

Environnements techniques. Oracle 11G, Oracle Exadata, SAP Data services, Informatica, Microsoft SQL server, script Shell.


Projet 2. Programme de fidélisation pour les clients Ooredoo
Pour fidéliser ces clients, Ooredoo a lancé un programme qui permet de sélectionner des clients prépayés et post payés, d’attribuer des cartes de fidélité qui comportent des points offrant plusieurs services et de suivre le comportement de ces clients.

Tâches
- Développer les flux ETL d’intégration de données nécessaires pour le fonctionnement du programme.
- Valider les données intégrées.
Environnements techniques. Informatica, Oracle, SQL, Microsoft SQL server


Projet 3. Tableau de bord et SMS en temps réel
Pour permettre aux décideurs d’avoir une idée en temps réel sur une liste de KPI (les plus importants KPI sur le marché) sans attendre les rapports à J-1. Nous avons développé un ensemble de script qui permettent de récupérer et de calculer ces KPIs, de communiquer avec les plateformes SMSC (pour l’envoi des SMS et l’utilisation des USSD), de développer un tableau de bord pour récupérer ces informations et les rendre visible aux décideurs.

Tâches.
- Comprendre la logique d’implémentation des nouvelles offres sur le système source (CS)
- Développer les scripts Shell, Perl et SQL nécessaires
- Intégrer les données dans l’entrepôt de données
- Développer le tableau de bord avec QlikView et Tableau

Environnements techniques. Shell Script, Perl, Oracle, Greenplum, SMS, SAP mobile App, Tableau



01/2013 – 06/2013
Ooredoo
Data scientiste
Projet. Segmentation des clients et prédiction de churn
Dans l’objectif de créer des nouveaux segments de client et de réduire le taux de perte (problème de churn) des clients, nous avonslancé un projet d’analyse de données qui vise à explorer les données des clients, de lancer des nouvelles offres, et de prendre des actions pour atterrir ces clients.

Tâches.
- Créer un profile pour chaque client en se basent sur les données d’identification (Age, sexe, adresse, etc.) et le comportement du client sur le réseau de l’opérateur.
- Filtrer, nettoyer et normaliser ses profiles
- Appliquer différents modèles d’exploration de données (data mining) pour la segmentation (clustering) et sélectionner le meilleur modèle.
- Appliquer différent modèle de classification pour détecter les clients susceptibles aux churn et sélectionner le meilleur modèle.
- Valider les résultats avec les experts métiers
- Mettre en production les deux modèles sélectionnés.
- Assurer une formation pour les utilisateurs du modèle.

Environnements techniques. IBM SPSS Modeler, R, Oracle, SVM, Régression logistique, K-means, Machine Learning, Analyse prédictive.



06/2012 – 12/2012
Ooredoo
Data architect
Projet. Data Mart pour le département Revenu & Assurance
Dans l’objectif d’optimiser l’architecture de l’entrepôt de données et d’offrir un accès rapide et fiable aux différents informations demandées par les équipes du département « Revenu & Assurance » notamment les demandes des équipes de fraudes et d’audit interne, nous avons créé un nouveau data mart.

Tâches.
- Analyser et comprendre les besoins des équipes fraude et audit interne.
- Analyser les systèmes sources : IN, BSCS, Paymob, MSS
- Définir l’architecture du modèle de données (l’architecture du Data Mart)
- Fournir les documents établissant les liens d’intégration de données entre les systèmes sources et le nouveau data mart
- Participer dans le développement des flux ETL avec SAP Data services
- Participer dans la réalisation de l’univers RA avec SAP BusinessObjects
- Participer dans la validation des données et la validation des demandes des utilisateurs

Environnements techniques. Oracle 11g, SQL, Data modeler, SAP data services, SAP business objects


01/2012 - 06/2012
Ministère des relations avec le parlement,
Tech lead
Projet. Gestion électronique des documents
L’objectif du projet était de gérer, de scanner les documents, de réduire le temps de recherche d’information et de sécuriser le processus d’archivage.

Tâches.
- Définir l’architecture de la solution
- Ecrire les documents d’architecture fonctionnelles et techniques
- Participer dans le développement de plusieurs modules de la solution
- Définir le modèle de la base de données.

Environnements techniques. Java, J2ee, HTml, css, Postresql



04/2010 – 01/2012
ANPT
Chef de projet
Projet. Plateforme pour la gestion électronique des dossiers médicaux des patients
Dans l’objectif de gérer les dossiers médicaux des patients, j’ai créé une application Web pour éditer, sauvegarder et suivre les données médicales des patients.

Tâches.
- Définir l’architecture de la solution
- Ecrire les documents d’architecture fonctionnelles et techniques
- Participer dans le développement de plusieurs modules de la solution
- Définir le modèle de la base de données.

Environnements techniques. Java, J2ee, HTml, css, Postresql



 
 

Consultants similaires

 
data

Compétences : Data, data analysis, data management, ACCESS, Administration, ...

Voir
consultant
Retenir
 
Consultant Confirmé Mulesoft / Informatica CDI/CAI

Compétences : APEX, azure Devops, INFORMATICA, Mulesoft, Salesforce, ...

Voir
consultant
Retenir
 
Consultant BI

Compétences : BI, BUSINESS OBJECT, DATASTAGE, INFORMATICA, SQL, Talend ...

Voir
consultant
Retenir
 
Chef de projets Data & IA

Compétences : Data, DATA GOUVERNANCE, data management, gestion de ...

Voir
consultant
Retenir
 
Architecte Data

Compétences : Architecture DATA, Data, Banking, INFORMATICA, MDM, ...

Voir
consultant
Retenir
 
Technical leader

Compétences : BI, Control-M, INFORMATICA, MDM, ORACLE, ANGLAIS, AWS, ...

Voir
consultant
Retenir
 
CONSULTANT SENIOR GESTION DES RISQUES DE CREDIT & CONTREPARTIES MAITRISE ...

Compétences : AMOA, data management, MOA, PILOTAGE, SQL, AGILE, ARIS, ...

Voir
consultant
Retenir
 
Consultant Oracle, Informatica, BI, Java

Compétences : INFORMATICA, ORACLE, PL/SQL, APACHE, C, C++, CMMI, ...

Voir
consultant
Retenir
 
Consultant Finance/ Systèmes d'information

Compétences : INFORMATICA, PILOTAGE, Qualité, SQL, Management, bale, ...

Voir
consultant
Retenir
 
Senior Technical Architect

Compétences : ASSEMBLEUR, EAI, MAINFRAME, MQ SERIES, TOGAF, AIX, ...

Voir
consultant
Retenir
 
 

Partager

 

Retenir

  • Pour quelle mission ?

 

Vous avez oublié
votre mot de passe ?