Mon espace
Je m'inscris

En tant que

Consultant Client
 

CV du
consultant

Réf PROF00007891

Accueil > Consultants > PROF00007891
 
 

Architecte Data

Disponible

 

Profil publié le : 17/04/2025 Profil vu : 38 fois Référence : PROF00007891

 
 

Compétences

Expert Moyen Débutant

BDD

CLOUDERA Data

Connaissances fonctionnelles

GCP

Langages

JAVA 11 PYTHON 3 scala Spark

Réseaux et Middleware

CDP AWS KUBERNETES

Diplômes et formations

Pays / régions

Expérience professionnelle


Profil
• + 10 ans d’expériences environnement Data
• Diplômé d’un Master Big Data et Fouille des données
• Expérience en mode projet et run sur des écosystèmes big data (Mco)
• Développeur/ Administrateur Hadoop Cloudera (CDP),
• Architecte Aws, GCP
• Expertise en traitement de la donnée avec les langages Spark /Scala/ Java/Python, R, Kafka
• Maitrise d’Apache Hadoop, Apache Hive, Apache Kafka, Apache Spark et Cloudera
• Tech Lead Data Science: Machine Learning, Deep Learning et AI
• Tech Lead Data engineer: MLops, Devops, Ansible, Docker, Kubernetes, OPENSHIFTS
• Connaissances et expériences significatives autour de Dataiku, Power BI
• Data Gouvernance : Colibra, Data Galaxy
• Expérience en méthodologie Agile Scrum , SAFE

Technologies maitrisées • Compétences principales :
MySQL, Apache Hadoop, MongoDB, Apache Kafka, Apache Spark, Apache Hive, Talend, Power BI, Python, Java. ETL

• Langages de programmations :
C++, Java, JavaScript, PHP, Python, SQL, Scala, Py Spark, Apache Airflow

• Environnement Big Data :
Apache Hadoop, Apache Hive, Apache Kafka, Apache Spark, Elasticsearch, Docker, Kubernettes (Services Mesh), Dockers, Open Shifts, Cloud Data Storage, Cloud Dataflow, DataProc, Terraform

• Cloud computing:
Amazon Web Services, Google Cloud Platform, Microsoft Azure, Oracle, Talend, Data Galaxy.

• Bases de données :
MongoDB, MySQL.

• Data Science & Analiste:
Power BI, Dataiku

• DevOps & Sysadmin:
Docker, MLOPs, CI/CD, Ansible, Devops

• Back and Front-end:
Angluar, NodJs, PHP, JavaScript.

• Gestion de projet :
Scrum, Agile, SAFE ,Jira



Certifications
• HADOOP Cloudera (Architecte CDP) – 2021
• Aws (Solution architecture) - 2021
• GCP (Architecte Google platform) – 2020
• Azure (AZ 900) En cours -


Diplômes
• Université Paris 8 - Master Informatique, Spécialité Big Data et Fouille des données
• Université Paris 8 - Licence Mathématique et informatique
• Lycée Paul Éluard - Préparatoire Polytechnique ; Physique Mathématique
• Lycée Suger – Bac à Lauréat Scientifique – Spécialité Mathématique (Mention Bien)

Anglais, Français


Concours national au tour de l’Intelligence Artificielle (API8)
• Juin 2015 & Juin 2018 => Langage Java et Python, Concours national API8,
• Juin 2019 => Langage Java et C, Concours national API8
• Juin 2023 => Langage Java et Python, Concours national API8




Expériences Professionnelles



Octobre 2022 - En cours
AGIRC-ARRCO
ARCHITECTE CLOUDERA HADOOP (CDP)
Contexte de la mission :
Au sein de l'organisation de la Direction Technique Informatique, la structure appelée Gouvernance
Opérationnelle de l’Edition (GOE) a pour mission d'accompagner le développement logiciel réalisé par les entités fonctionnelles, et s’appuie sur 4 entités : Socle Développement, Architecture logicielle, Centre d’expertise des performances et DBAs&Socles.
Les principales missions consistent d'une part, à accompagner les équipes dans la conception des modèles de données, à administrer les bases et les moteurs de bases de données et à construire les socles SGBD, décisionnel et Big data.

Actions menées :
➢ Architecture technique :
• Mise en place des principes directeur sur l’utilisation de cluster Cloudera
• Vérification de la bonne application des normes et des standards
• Proposition d’évolution et de solution pour améliorer l’industrialisation
• Mise en place de l’architecture, Installation et configuration du cluster Kafka sur cloudera
• Mise en place de l’architecture, Installation et installation du ELK (Elasticsearch, Logstash et Kibana)
• Installation et configuration de prometheus et grafana pour les suvis de Kpi (pour le monotoring)
• Construire, mettre à jour et documenter le modèle conceptuel de données (MCD)

➢ Administration
• Configuration du cluster Cloudera en fonction des besoins identifiés
• Migration des cloudera CDH vers CDP
• Suivi des espaces de stockage
• Optimisation des chargements des données
• Maintien de sécurité, gestion des habilitations (LDAP, et TLS / Kerberos)

➢ Intégration
• Sur de nouveau besoin, Etude et proposition de solution, Mise en Œuvre de solution validés
• Migration des données

➢ Support Technique
• Maintien en condition opérationnelle (MCO) des infrastructures et des composants logiciels du cluster
• Assistance auprès des équipes : Optimisation des traitement, Prise en main de l’outillage
• Chargement des données
• Transmission du savoir-faire via la rédaction de documentation et transfert de connaissance

➢ Support Décisionnel
• Assistance auprès des équipes SI décisionnel dans l’évolution de la plate-forme
• Récolte et analyse des besoins
• Intégration des données en temps réel avec Kafka
• Monotoring des Kpi avec Kibana
• Description et analyse de la plateforme actuelle
• Proposition dévolution et élaboration des dossier d’architecture technique et logicielle

Environnement technique : Hadoop Cloudera, Shell (Linux,Redhat 8, Centos), Spark, Hue, Hive, Python, Scala, Ansible, HDFS, Py Spark, Apache Airflow, Power Bi, SQL, Open shifts, Docker, Kubernetes, Gitlab, Kafka,PostgreSQL/Mysql,



Février 2020 – Octobre 2022
AUCHAN RETAIL
Poste : ARCHITECTE GCP
Contexte de la mission :
• Élaboration des architectures techniques, fonctionnelles applicatives et cloud.
• Cadrage technique, documentation technique, chiffrage et estimation pour le restant à faire sur le projet
• Construire, mettre à jour et documenter le modèle conceptuel de données (MCD)
• Intégration des données SAP facturation et commandes clients
• Gestions des communication des services, instances, logs, monotoring avec Kubernetes Service Mesh
• Définition du socle technique. Contribution aux développements,
• DevOPS et SecOPS
• Installation de l’architecture ELK (logstash , elasticseach et Kibana )
• Suivis et gestion des logs avec ELK
• Intégration continue et déploiement continu (CI/CD)
• Documentation de restitution pour le reste à faire.
• Stack technique: Google Cloud Cloud Run, Google Cloud Composer, Big Query, Cloud Storage,
• Terraform, Data Dog, GitHub, GitHub CI/CD, Cloud

Environnement technique: GitLab, Scala, Spark, BIGQUERY, GCP (BIquery), Snowflake, Devops, Mlops, Ansible, Kubernetes(Service Mesh), Elasticsearch (ELK), Open Shift, GitLab, Docker, Google Cloud Composer, PostgreSQL/Mysql, Terraform, Dbt, ETL (talend, ESB), SAP , ERP, Cloud Data Storage, Cloud Dataflow, DataProc, Terraform, IAM, Compute engine



Janvier 2019- Février 2020
BOUYGUES TELECOM
Poste : Tech Lead Data Gouvernance
Contexte de la mission :
Dans le but d'améliorer la compréhension de données de son Data Lake et de son Data Warehouse ainsi que de faire croître la culture data au sein de l'entreprise et de faire une étude sur les indicateurs de suivis "KPI" / complétudes des données, j'ai été sollicité par BOUYGUES TELECOM afin d'apporter mon expertise sur ce sujet.

Actions menées :
• Frise chronologique projet
• Démarche modélisation
• Documentations des données
• Méthodologie des dictionnarisassions de données
• Data Lineage, Data Management, Data Market Place
• Etudes de cas d'usages - Indicateur de suivi KPi et Complétude de donnés
• Migration de données
• Gestion des communication entre micro services ( Service Mesh, Istio)

Environnement technique : Data Galaxy (DataCatalog), Service Mesh,COLIBRA, Docker, Scala (sbt), Java, Spark (Py Spark), GCP (BIquery), SQL, ETL (Talend), GitLab, Kubernetes, Cloud Data Storage, Cloud Dataflow, DataProc, Terraform



Octobre 2016 – Janvier 2019
SANOFI
Poste : Tech Lead DATA SCIENTIST
Contexte de la mission :
Dans l'un de plus grand groupe pharmaceutique mondial, ma mission était orientée sur la détection des anomalies, la maintenance prédictive des indicateurs de performances (KPIs) et les traitements du langage naturel pour des opérations de qualités dans l'industrie manufacturière et au-delà

Actions menées :
• Mise en place des algorithmes de classifications et régressions,
• Mise en place des algorithmes d'apprentissage adaptatifs est un modèle basé sur l'IA/ML qui apprend en permanence.
• Participer à la définition des nouvelles fonctionnalités de l'outil,
• Collaborer à la création de la plateforme,
• Pendre part à la définition des variations récurrentes,
• Contribuer à l'extension du modèle qui sera mis à disposition et utiliser en production.

Environnement technique : Python, AWS, R, Agile Scrum, Spark (Py Spark), SQL, Snowflake, Datai KU, Docker, Mlops, Docker, Power Bi, GitLab, Kubernetes, Kafka, PostgreSQL/Mysql




Septembre 2015 - Octobre 2016
MINISTERE DU TOURISME
Poste : Tech Lead DATA INGENIEUR / SCIENTIST
Contexte de la mission :
Atout France, agence de développement touristique de la France, est un groupement d'intérêt économique (GIE), de l'état français en matière de tourisme, dont les missions ont été définies dans le cadre de la loi tourisme de 2009 pour renforcer les positionnements de la destination France à l'international. Le but de projet était de contribuer activement au marketing international des destinations et filières, d'accompagner les territoires dans leur stratégie de développement, en favorisant le montage de projets d'investissement afin de stimuler l'offre touristique française en agissant sur la qualité via le pilotage des classements des hébergements touristiques marchands et proposant toute une offre de services en matière de veille/observation et de formation.
Atout France met ainsi à disposition de ses 1 300 partenaires publics et privé des outils de compréhension de la demande touristique et leur propose des actions marketing et de promotion autour des marque mondiales de destination afin de renforcer leur développement à l'international.

Actions menées :
• Agréger des données de sources multiples
• DevOPS
• Structurer des indicateurs utiles à la décision (politique, institutionnels, professionnels)
• Proposer et de faciliter des analyses partagées et permettre des usages à périmètre pluriel (national, régional, départementale...)
• Construire, mettre à jour et documenter le modèle conceptuel de données (MCD)
• Migration des données
• Automatisations des Pipelines
• Création et automatisation de mis à jour des data frame dans le hub (Keyrops)
• Test Unitaire
• Test Intégration

Environnement technique : GITLAB, Python, Spark (Py Spark), Scala (Sbt), Power BI, Kubernetes, Minio, Agile, Jira, GCP (BIquery), Scala, Snowflake, MLOPS, Datai KU, OPENSHIFTS, Docker, Kafka, Lunix (Redhat 7, Centos), Terraform, Cloud Data Storage, Cloud Dataflow, DataProc, Google Cloud Composer, Compute engine




Mars 2014 - Septembre 2015
AVISTO
Poste : DATA SCIENTIST
Contexte de la mission :
Avisto est une entreprise des créations de logiciels informatiques. Dans le cadre de son activité ils se sont lancés dans les secteurs de jeux de réalité virtuelle en Ligne Poker IA. Le but de cette mission était de mettre en place un algorithme de Deep Learning (RNN) afin de réaliser un jeu de poker en ligne pour rivaliser avec les autres poker existant (google, Facebook).

Actions menées :
• Études approfondies sur les différents pokers en ligne existant (Etat de l’art)
• Écriture du cahier des charges
• Conceptions de scenarios et partie graphique du jeu
• Mise en place des différentes architectures de Machine Learning et du Deep Learning
• ML Ops

Equipe : 1 PO, 4 Data Science, 2 Développeur Angular

Environnement technique : Python, R, AWS, Spark (Py Spark), Angular, Agile Scrum, SQL, Mlops, Datai Ku, Power Bi, Docker, Elasticsearch, Kubernetes




Février 2012 - Février 2014
SNCF
Poste: DATA INGENIEUR
Contexte de la mission :
SNCF, Voudriez cartographier les compétences de ses collaborateurs en fonction de leurs expériences et environnement techniques pour répondre aux besoins de l'entreprises sur différents projets mais également pour cibler les compétences manquantes dans l'entreprise en termes de recrutement

Actions menées :
• Analyse et développement des applications pour la gestion automatique des appels d'offres
• Apprentissage de l'architecture du machine Learning et conceptions des applications mobiles et du site web
• Automatisations des Pipelines
• Test Unitaire
• DevOPS
• Test Intégration
• Migration des données
• Construire, mettre à jour et documenter le modèle conceptuel de données (MCD)

Equipe: 1 PO, 8 Data Science, 5 Data Engineer

Environnement technique: Open Shift, Python, R, Java, Scala (Sbt), Hadoop, Agile, Docker, Proverbi, Dataiku, AWS., Sql, Snowflake, ETL (talend, ESB), Pyspark, Devops, Mlops, DataIku, Kubernetes, GitLab, Terraform, Lunix (Redhat 8, Centos), Cloud Data Storage, Cloud Dataflow, DataProc, BigQuery, Google Cloud Composer, Compute engine
 
 

Consultants similaires

 
Lead SRE & Devops / Architecte cloud

Compétences : Azure, Cloud, DEVOPS, GCP, ansible, AWS, Datadog, Terraform, ...

Voir
consultant
Retenir
 
Techlead java Kotlin devops

Compétences : DEVOPS, GCP, Kotlin, KUBERNETES, Terraform, AWS, JAVA, ...

Voir
consultant
Retenir
 
Architecte Solution - Responsable Technique

Compétences : Architecture, Data Science, GCP, Kafka, Mathématique ...

Voir
consultant
Retenir
 
Ingénieure DevOps

Compétences : ansible, ELK, GCP, KUBERNETES, Terraform, AWS, CI/CD, ...

Voir
consultant
Retenir
 
Ingénieur DevOps/Cloud

Compétences : AWS, GCP, JAVA, PYTHON, Terraform, bash, C, C++, GIT, ...

Voir
consultant
Retenir
 
Developpeur Java SpringBoot

Compétences : Angular, GIT, JAVA, JAVA 11, Java/Jee, CI/CD, Cloud, ...

Voir
consultant
Retenir
 
Chef de projet Digital / IT & Data

Compétences : agile Scrum, GCP, Gestion de projets, JIRA, Looker, ...

Voir
consultant
Retenir
 
LEAD TECH BI QLIK

Compétences : BI, BIGQUERY, GCP, PYTHON, Qlik, Qlik Sense, ACCESS, ...

Voir
consultant
Retenir
 
Concepteur Développeur Java/Spring

Compétences : Angular, JAVA 11, java 8, JUNIT, sonar, Grafana, Spring ...

Voir
consultant
Retenir
 
Développeur java angular

Compétences : Angular, JAVA, JAVA 11, SPRING, AGILE, Analyse, api, ...

Voir
consultant
Retenir
 
 

Partager

 

Retenir

  • Pour quelle mission ?

 

Vous avez oublié
votre mot de passe ?