CV du
consultant
Réf PROF00007158
Compétences
BDD
Data Power BI Azure BI NoSQLConnaissances fonctionnelles
cegid Analyse ANGLAIS Atlassian bureautique DISTRIBUTION ecommerce Finance flux Formation Français GCP HELPDESK Industrie kpi Maintenance RFID SPSS statistiques WEBLangages
PYTHON 3 SQL COGNOS Hadoop JIRA Pandas PySpark PYTHON scala SparkMéthodes
Support Cadrage integration Modélisation POC PROJETOutils
ServiceNowRéseaux et Middleware
AWSSystèmes
IBM LINUX WINDOWSDiplômes et formations
Pays / régions
Expérience professionnelle
missions et PoC en tant que consultant d’IBM en Data science, Big data et BI chez plusieurs clients dans de multiple secteurs
(Finance / Grande distribution / Luxe…)
IBM SPSS modeler, IBM Cognos ICM , CEGID Y2 , power BI
• Python data science (pandas , scikit-learn , scrapy, Jupiter
notebook), Scala, Hadoop , Spark
• Outils de bureautique
• Linux, Windows
• SQL, NoSQL
• IT / Helpdesk
DIPLÔMES
FORMATIONS
LANGUES
APTITUDES MORALES
Ambitieux , curieux , motivé , sérieux , organisé , sens du partage et
de l’esprit d’équipe.
• IBM SPSS modeler, IBM Cognos ICM , CEGID Y2 , power BI
• Python data science (pandas , scikit-learn , scrapy, Jupiter
notebook), Scala, Hadoop , Spark
• Outils de bureautique
• Linux, Windows
• SQL, NoSQL
• IT / Helpdesk
Master 1 Big data et data mining
Paris-VIII - 09.2016
Master 2 Big data et data mining
Paris-VIII - 09.2017
Badge Udemy Spark/Scala
Formation Interne IBM SPSS modeler
Badge Udemy Hadoop
Multiples formations en présentiel financées sur AWS , GCP , Azure
Français - Langue maternelle
Anglais - Courant
CHANEL / Mission Support data analyst / Mise à jour applications / rapports Power BI et data
science
• Analyse et résolution des différents soucis et bugs rencontrés par les
utilisateurs de la solution CEGID ( gestionnaire de paiement) qui représente l’activité
principale
• Donner des formations sur certaines applications nécessaires utilisées par
le groupe Chanel
• Correction d’anomalies sur le système de gestion service now « SNOW »
• Récolte des données RFID ( Scan étiquettes ) et prise d’appels pour expliquer
et résoudre les problèmes rencontrés des utilisateurs.
• Communications d’urgence et gestion des différentes mise à jour d’une dizaine
d’applications.
• 1 à 2 jours par semaine pour tester des algorithmes machine learning sur la proposition de
produits aux clients (python / jupiter notebook).
• Elaboration et présentation des KPI et reportings power BI sur les statistiques RFID
• Support IT et Helpdesk avec certains utilisateurs.
AXA / IBM Cognos ICM Varicent SQL
• Mise au point d’une solution pour le client à l’aide de l’outil « ICM Varicent »
pour le commissionnement des courtiers.
• Analyse et nettoyage de flux des données client avec l’outil ICM varicent (
visualisation de données , création de rapports web , requêtes SQL , création
de table , mise à jour de calcul …etc)
• Conceptualisation des maquettes d’interface web des utilisateurs
• Mise en oeuvre des rapports web
• Intégration des fichiers de données à l’aide de l’outil Varicent ICM
• Correction d’anomalies sur le système de gestion « Jira » d’Atlassian.
• Maintenance et assistance de l’environnement de prod en cas d’anomalies.
REXEL / EXPERTISE – IBM Cognos ICM Varicent, SQL , Python
• Mise au point d’une solution pour le client à l’aide de l’outil « ICM Varicent » qui
consiste à afficher des rapports web personnalisés par le client qui contiennent
des données commerciales (ou autre) paramétrées selon chaque profil
d’utilisateur et permettant d’effectuer des opérations et tâches quotidiennes
dans les rapports (modification , cadrage , répartition , tri , effectuer des
demandes , approbation des demandes , …etc)
• Analyse de flux des données client avec l’outil ICM varicent ( visualisation de
données , création de rapports web , requêtes SQL , création de table , mise à
jour de calcul …etc)
• Conceptualisation des maquettes d’interface web des utilisateurs
• Mise en œuvre des rapports web
• Correction d’anomalies sur le système de gestion « Jira » d’Atlassian.
• Data engineering sur la partie SPSS
Fevrier 2019 (4 mois)
INDUSTRIE
Expertises : IBM SPSS , Python /
Spark
RENAULT / EXPERTISE – IBM SPSS , Python / Spark
Etudes de Poc sur la « Maintenance prédictive »
• Mise en place d’un modèle de prédiction des rappels de voitures
• Analyse des données : correction des incohérences, nettoyage et optimisation
de la table de données qui représente l’ensemble des informations des pièces
de voiture (pompes , cylindre,…etc) associées à chaque identifiant.
• Traitement de données : comparaison des différents modèles machine learning
(k-means, neural network, arbres de décisions …etc) et associer le meilleur
modèle pour prédire la colonne cible « retours » qui indique le nombre de
retour de la voiture.
BNP / IBM SPSS, Python / Spark
Etudes de Poc en groupe pour prédire la probabilité qu’un client demande un prêt.
• Analyse de la table de données ( > 100 000 lignes) qui représente les
informations sur les clients (nationalité , nombre de prêts effectués …etc) et
leurs intérêts (positif/ négatif) à vouloir accepter un prêt d’une grosse somme
d’argent.
• Traitement et prédiction de la colonne cible « intérêt » par des modèles de
machine learning qui déterminent si oui ou non le client est intéressé par un
prêt.
Avril 2018 (6 mois)
LUXE
Expertises : IBM SPSS , Python
RICHEMONT / IBM SPSS , Python
Intervention en tant que Data scientist
• Analyse des données : assemblage des 12 tables fournies par le client
(jointures entre les tables , écarter les différentes colonnes qui n’apportent pas
de valeur ajoutée à la prédiction, nettoyage…etc) , cette étape constitue 70%
du projet au vu de la polyvalence des données.
• L’objectif est d’aider les watchmakers à détecter où se situe la panne en
analysant les retours déjà enregistrés dans la table de données.
• Modélisation de la table finale afin de comparer les résultats de prédiction pour
chaque modèle.
2017 (6 mois)
GRANDE DISTRIBUTION
Expertises : Python
TOP DRIVE / Stage de fin d’études (start-up)
Etudes, récolte de données, création et comparaison des modèles machine learning pour le tri
automatique des données.
• Analyse des données e-commerce (tout type de produits), l’objectif est de
classifier les produits de manière automatique par groupe ( produits
alimentaires, produits nettoyants …etc)
• Utilisation des modèles de classification (k-means , SOM, …etc) et Pyspark
pendant le traitement de données.
• Comparaison des modèles.
Consultants similaires
Compétences : Business, RISQUE DE CREDIT, SAFe, SCRUM, ServiceNow, ...
consultant Retenir
Compétences : Finance, Finance de marché, Support, Business, SHELL, ...
consultant Retenir
Compétences : Data, Qlik, qlikview, SCRUM, SQL, AGILE, Business Intelligence, ...
consultant Retenir
Compétences : Data, Qlik Sense, AGILE, allemand, AML, Analyse, ANGLAIS, ...
consultant Retenir
Compétences : Business, Data, Modélisation Données, Qlik, SQL
consultant Retenir
Compétences : ACTIVE DIRECTORY, EasyVista, GLPI, Support, Support ...
consultant Retenir
Compétences : Azure Cloud, Data, PYTHON, scala, Spark, Databricks, ...
consultant Retenir
Compétences : ACTIVE DIRECTORY, CISCO, OFFICE 365, ServiceNow, Support, ...
consultant Retenir
Compétences : AWS, Azure Data Factory, Data, PYTHON, Spark, Accessibilité, ...
consultant Retenir
Compétences : Data, Databricks, scala, Spark, APACHE, api, AWS, Azure, ...
consultant Retenir