
CV du
consultant
Réf PROF00007887
Compétences
BDD
Azure ACCESS Data Databricks DBT MYSQL POSTGRESQL Redis snowflake Splunk Stockage ZookeeperConnaissances fonctionnelles
Cloud GCP Administration AI Analyse Assurance BACKEND BANCAIRE BIGQUERY Build Business Coaching communication Conformité Coordination CRM dashboard Déploiement DISTRIBUTION ecommerce flux Fonction Formation GDPR google Incidents Industrialisation Ingenico Kafka Maintenance media Modernisation OSS paramétrage Performance pipelines PROCESSUS Production Produit Rédaction Risques SANTE Sécurité Strategies TESTS TMA transformation Transition Trust WEB workflows WorldlineLangages
bash Batch CDN CMS Confluence css DevSecOps Django Docker DRUPAL ELK Flask Github JIRA Joomla JUNIT MAGENTO Microservices MongoDB owasp PHP phpcs PRESTASHOP Puppet PYTHON Selenium SQL TensorFlow WORDPRESSMéthodes
DEVOPS AGILE api Architecture CLP Conception développement elasticsearch ENCADREMENT EXIGENCES integration Jenkins Kanban Management MIGRATION ORGANISATION planification PROJET Qualité SCRUM STRATEGIE supervision Support SVN TestingOutils
Datadog Bamboo bitbucket Cloudfront Gatling GitLab Grafana HAProxy Helm iam Kibana Looker Nmap Openshift Packer Prometheus RDS SonarQube Trello VaultRéseaux et Middleware
ansible AWS Terraform BGP infrastructures IPSec KUBERNETES Monitoring Nessus Proxy réseaux Security SIEM SSH ssl VARNISHSystèmes
APACHE GIT IBM INFRASTRUCTURE LINUX Systèmes TLSDiplômes et formations
Pays / régions
Expérience professionnelle
Références principales
• Cloud : GCP, Azure, AWS, Alibaba, IBM Cloud
• AWS : Athena, Waf, EC2, ECS, EFS, RDS, CloudFront, Lamda, EKS, Batch, S3, EBS, ElastiCache, Direct Connect, IAM, Secret Manager, Cloudwatch, …..
• GCP: Firestore, Compute, GKE, Storage, App Engine, SQL, Filestore, Bigtable, CDN, AutoML, TensorFlow, Dataflow, Dataproc, Pub/Sub, CSCC, IAM, Function, CRM, StackDriver, …
• AlibabaCloud : ECS, RDS, OSS Redis, …
• IBMCloud : CNS, CEN, Image Search, RAM, WAF, CloudMonitor, ….
• Containerization : Kubernetes, Docker, OpenShift, Tanzu
• Proxy / Reverse Proxy : Nginix, HaProxy, Apache, Traefik, Kong, Varnish, TinyProxy..
• Protocole : SSL, TLS, IPSec, SSH, GRE, BGP, RIP, GRE, OSPF, VRF, ….
• Security Tool : Metasploit, Kali Linux, Burp Suite, OWASP ZAP, Nessus, Nmap, Splunk, Palo Alto, Azure Security Center, GCP Security Command Center, Tcpdump, Qualys, Elastic SIEM, Qualys
• CMS : Drupal, Contentful, Django, WordPress, Joomla, Flask
• IAC : Terraform, Ansible, CloudFormation, Packer, Chef, Puppet
• CI/CD : Jenkins, GitLab CI/CD, GitHub Actions, Bamboo, ArgoCD
• VCS : Git (GitHub, GitLab, Bitbucket), SVN
• Database : MySQL, PostgreSQL, MongoDB, Redis, SQLite, BigQuery, Redshift, Kafka, Snowflake
• Data : Dataflow, Glue, Databricks, PubSub, Looker ( Ex : Data Studio ), DBT, Airflow, S3, Lambda, CloudFunction
• Package Manager : Helm, Kustomize
• Testing Framework : PHPUnit, PHPCS, SimpleTest, Behat, Kitchen, Selenium, JUnit, Pytest
• Vulnerability Management : Snyk, Dependabot, WhiteSource, Trivy, Anchore
• Language : Python, PHP, Go, Node.js, Bash
• Key Management : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault, CyberArk
• Outils gestion project : Confluence, Jira, Trello, Notions, ClickUp
Expériences Professionnelles
01/2024 - 11/2024
ACS
Lead SRE / Data engineer
• Conduite de la migration complète d'un data center vers AWS, en garantissant la haute disponibilité et l'optimisation des ressources.
• Industrialisation des infrastructures existantes via Terraform, intégrant les bonnes pratiques de l'Infrastructure as Code.
• Utilisation de l'intelligence artificielle sur AWS pour le traitement et l'analyse de données, en exploitant les composants Amazon SageMaker, AWS Glue et Redshift ML afin d'automatiser l'extraction d'insights, l'optimisation des modèles prédictifs et la prise de décision basée sur les données.
• Automatisation des déploiements en utilisant des pipelines CI/CD (GitLabCI) pour améliorer la rapidité et la fiabilité des livraisons.
• Mise en place d'une stack ELK (Elasticsearch, Logstash, Kibana) intégrée avec Prometheus pour la surveillance avancée des infrastructures et des applications.
• Définition et rédaction d'architectures cloud sécurisées et évolutives adaptées aux besoins métiers.
• Déploiement et gestion d'infrastructures multi-cloud sur AWS et Google Cloud Platform (GCP), avec une approche axée sur la sécurité et la conformité.
• Conception & implementation des architectures de données robustes et évolutives pour répondre aux besoins.
• Centralisation des toutes les datas sur BigQuery, via Cloud function, Bucket. Restitution des data sur des dasboard Graphana & Looker.
• Formation des équipes à l'utilisation de Vertex AI pour le machine learning et l'exploitation de données sur GCP, favorisant l'autonomie et l'innovation.
• Mise en œuvre et automatisation des solutions de sécurité, incluant la gestion des identités, le chiffrement des données, et la protection des workloads.
• Modernisation et mise à jour continue de l'infrastructure existante pour répondre aux exigences en matière de performance, de scalabilité et de sécurité.
• Implémentation de HashiCorp Vault pour la gestion centralisée des secrets et le chiffrement des données sensibles en transit et au repos, répondant aux exigences de conformité (GDPR, ISO 27001).
• Intégration de solutions comme Snyk pour scanner les conteneurs Docker et les dépendances logicielles, assurant une détection proactive des vulnérabilités.
• Implémenter des contrôles de sécurité via des outils de type Cloud Security Posture Management (CSPM).
09/2023 - 12/2023
Somfy
Lead SRE
• Conception d’architectures cloud sur AWS basées sur une approche orientée microservices, en utilisant EKS (Elastic Kubernetes Service) et Fargate pour une scalabilité et une résilience optimales.
• Rédaction de documentations techniques détaillées pour les équipes internes, facilitant la maintenance et l’évolution des infrastructures.
• Utilisation de CloudFormation et Terraform pour provisionner des environnements robustes.
• Implémenter des contrôles de sécurité via des outils de type Cloud Security Posture Management (CSPM) pour renforcer la protection des environnements cloud.
• Déploiement de AWS WAF et de Shield Advanced pour protéger les applications contre les attaques DDoS et les vulnérabilités Web courantes.
• Création de pipelines CI/CD dans GitLab, intégrant des étapes de build, de test, d'analyse de sécurité avec Snyk et SonarQube, ainsi que de déploiement automatisé vers AWS et Kubernetes.
• Mise en place de CloudTrail pour suivre les activités API, garantissant une traçabilité complète pour les audits et les enquêtes sur les incidents.
• Création de tableaux de bord et d'alertes dans CloudWatch pour surveiller l'utilisation des ressources et optimiser les coûts.
05/2023 - 09/2023
Kaliop
SRE
• Collaboration étroite avec des équipes techniques pour gérer des projets complexes dans un environnement multi-client, garantissant la livraison dans les délais tout en respectant les exigences de qualité et de performance.
• Mettre en œuvre des solutions d'automatisation basées sur l'IA pour la détection, l'analyse et l'application automatique de correctifs sur des clusters Amazon EKS, en intégrant des services comme Amazon Bedrock, SageMaker et AWS Lambda pour optimiser la résilience et la performance des workloads Kubernetes.
• Standardisation des déploiements pour plusieurs clients à l’aide de Terraform, en créant des modules réutilisables pour les environnements multi-cloud (AWS, Azure, GCP, Alibaba Cloud, OVH).
• Mise en œuvre d’ArgoCD pour gérer le déploiement des services Kubernetes avec Helm et l’automatisation de la gestion de l’état des clusters.
• Automatisation des déploiements d’infrastructures Terraform via ArgoCD, réduisant le temps de mise en production et minimisant les risques d’erreurs humaines.
• Intégration de Cloudflare pour protéger les applications contre les menaces en ligne (DDoS, bots malveillants) et optimiser la performance grâce à son CDN.
• Déploiement de Elastic SIEM pour centraliser les données de sécurité et détecter les anomalies en temps réel sur les environnements multi-cloud.
• Mise en place de Splunk pour collecter et analyser les journaux d’événements, fournissant des rapports détaillés sur les activités suspectes et les tentatives d’accès non autorisées.
11/2022 - 05/2023
Cityscoot
Lead SRE / Architect cloud / NetDevOps
• Organisation et supervision de la transition d’un système legacy vers une architecture moderne basée sur des microservices
• Mise en place d’une méthodologie Agile pour structurer les sprints, avec une gestion proactive des retards et un suivi des progrès à l’aide de JIRA.
• Création d’un Terraform pour provisionner des environnements AWS (EKS, S3, CloudFront, VPC, Cloudwatch, …).
• Intégration avec des pipelines CI/CD sur GitHub Actions pour automatiser la gestion des changements d’infrastructure.
• Automatisation des déploiements de l’infrastructure et des applications avec des workflows CI/CD utilisant GitHub Actions.
• Déploiement de Vault pour la gestion des secrets, assurant le chiffrement des données sensibles et la rotation des clés de manière sécurisée.
• Intégration des données commerciales à partir de différentes sources via des entrées Cloud Functions et des buckets.
• Chargement et transformation des données dans BigQuery pour une analyse approfondie.
• Réalisation de rapports et de dashboards interactifs avec Looker pour faciliter la prise de décision.
• Mise en place d’outils de sécurité comme Snyk et SonarQube pour analyser les vulnérabilités dans le code source et les dépendances, renforçant la posture de sécurité de l’entreprise.
• Configuration de politiques Cloudflare pour protéger les applications contre les attaques DDoS et optimiser les performances Web.
6/2022 - 11/2022
Citygoo
Lead SRE / Architect cloud
• Coordination des équipes de développement pour garantir la livraison du MVP selon les spécifications et les délais, en assurant une communication fluide avec les parties prenantes.
• Élaboration de la feuille de route, définition des étapes clés et gestion des risques pour assurer la réussite de la phase de lancement du produit.
• Mise en place d’une pipeline CI/CD avec GitHub Actions pour automatiser les tests unitaires et les déploiements, permettant une validation rapide et continue des applications.
• Intégration des outils de sécurité Snyk et SonarQube dans le pipeline pour garantir que le code respecte les meilleures pratiques de sécurité et de qualité.
• Conception d’une architecture cloud évolutive et résiliente sur AWS, en mettant l'accent sur la sécurité, la haute disponibilité et la scalabilité.
• Conception des architectures de données robustes et évolutives pour répondre aux besoins.
• Utilisation de Terraform pour automatiser la gestion de l’infrastructure cloud, réduisant les erreurs humaines et assurant la cohérence des déploiements à travers les environnements.
• Implémentation de l’orchestration des conteneurs via EKS pour faciliter la gestion des microservices et améliorer la performance des applications déployées.
• Déploiement de Vault pour gérer et sécuriser les secrets d’application dans l’infrastructure cloud, en automatisant la rotation des clés et des certificats.
• Intégration de Detectify pour automatiser l'analyse des vulnérabilités de sécurité sur les applications et les systèmes, permettant de détecter rapidement les failles critiques.
• Évaluation continue des risques associés aux infrastructures cloud, en mettant en place des contrôles de sécurité pour anticiper et atténuer les menaces émergentes.
• Mise en place de stratégies de gestion des vulnérabilités en intégrant des outils comme Snyk et Detectify dans des pipelines de CI/CD pour assurer la détection précoce des failles de sécurité dans le code source et les conteneurs.
• Implémentation de la gestion des identités et des accès (IAM) dans les environnements cloud avec AWS IAM, en définissant des rôles et permissions minimales selon le principe du moindre privilège pour limiter l’exposition des ressources sensibles.
• Application de modèles d'architecture sécurisés dans le cloud avec des concepts comme Zero Trust et segmentation des réseaux en utilisant VPC et Private Subnets pour limiter l'impact des violations potentielles.
• Déploiement de contrôles automatisés dans Terraform pour appliquer les configurations de sécurité dans le cloud, comme les configurations des groupes de sécurité, des ACLs, et des configurations de stockage sécurisé.
• Mise en œuvre de solutions de gestion des secrets avec HashiCorp Vault, garantissant que tous les secrets sont chiffrés et accessibles uniquement aux entités autorisées selon les rôles définis.
• Application de politiques de chiffrement des données à la volée et au repos à l’aide de AWS KMS et Amazon S3, assurant que toutes les données sensibles sont sécurisées pendant le transit et le stockage.
• Conception et mise en œuvre de cloud architectures résilientes et sécurisées sur AWS et GCP, intégrant des contrôles de sécurité avancés pour garantir la disponibilité, la confidentialité et l’intégrité des
données.
12/2019 - 6/2022
Ingenico / Worldline
Lead NetDevOps & SRE / Data engineer
• Animation et gestion de l’équipe DevOps/SRE, avec un focus sur l’optimisation des flux de travail et l’assurance que les priorités métiers sont alignées avec les objectifs techniques.
• Gestion de la communication entre les équipes pour garantir que les besoins techniques et métiers sont bien compris et priorisés pour une livraison rapide et de qualité.
• Création de scripts personnalisés en Python et Bash.
• Analyse approfondie des besoins en ressources pour les déploiements en cloud hybride (Azure, GCP, AWS), avec une optimisation des coûts et des performances. Utilisation de Terraform et Helm pour définir des infrastructures as code évolutives et facilement maintenables.
• Utilisation de Composer de GCP pour orchestrer et gérer les workflows complexes, facilitant l'automatisation des processus et l'intégration continue dans un environnement cloud.
• Conception d’une architecture cloud sécurisée, en intégrant des principes de Zero Trust et de hautement disponible sur Azure et GCP pour garantir la résilience des systèmes critiques. Mise en place de réseaux sécurisés, de contrôles d'accès stricts et d'une gestion fine des secrets avec Vault.
• Administration et optimisation d’un cluster Kafka :
• Gestion de la scalabilité et de la haute disponibilité à travers un cluster multi-nœuds avec Zookeeper.
• Mise en place de stratégies de réplication et de partitionnement pour assurer la résilience des données et améliorer la performance.
• Optimisation des paramètres Kafka (retention.ms, min.insync.replicas, fetch.max.bytes) pour un équilibrage optimal de la charge et une latence minimale.
• Monitoring avancé avec Prometheus, Grafana et Kafka Manager pour suivre la consommation des topics, l’état des brokers et la santé globale du cluster.
• Automatisation des opérations de maintenance et des mises à jour à l’aide d’Ansible et de scripts Bash/Python.
• Implémenter des contrôles de sécurité via des outils de type Cloud Security Posture Management (CSPM) pour renforcer la protection des environnements cloud.
• Accompagner les équipes internes et transverses dans l'application des recommandations de sécurité, en guidant la mise en œuvre des meilleures pratiques.
• Conception & implementation des architectures de données robustes et évolutives pour répondre aux besoins.
• Reunification de tous les événements business, applicatif & monitoring dans bigquery afin de générer des dashboard sur data studio.
• Participer aux audits de sécurité internes et externes, et contribuer activement à la mise en conformité avec les standards requis.
• Assurer la gestion des demandes de remise en conformité suite aux audits de sécurité et appliquer les recommandations correspondantes.
• Rédiger des guides et standards de sécurité pour uniformiser les pratiques et renforcer les politiques de sécurité existantes.
• Effectuer une veille technologique continue pour identifier des solutions innovantes et scalables en matière de sécurité.
• Utilisation des outils SonarQube pour assurer la qualité et la sécurité du code à chaque itération, en intégrant des contrôles de sécurité automatiques dans les pipelines CI/CD.
• Application des meilleures pratiques de sécurité pour chaque fournisseur de cloud, avec une attention particulière à la gestion des identités et des accès (IAM), la configuration sécurisée des ressources (RDS, VPC, EKS), et le chiffrement des données au repos et en transit (via AWS KMS et Vault).
• Mise en place de Cloudflare pour ajouter une couche de protection DDoS et une gestion des WAF pour sécuriser les points d’entrée de l’application cloud, assurant une défense contre les attaques externes.
• Utilisation de Gatling pour effectuer des tests de sécurité en conditions réelles et identifier les failles potentielles sous charge.
• Mise en place de DevSecOps à travers la sécurisation de chaque étape du cycle de vie du développement avec l’intégration continue des outils Snyk pour la détection des vulnérabilités dans les dépendances et les conteneurs, et SonarQube pour garantir une qualité et une sécurité du code.
• Élaboration des spécifications techniques et sécuritaires en veillant à la conformité avec les normes et standards internationaux tels que ISO/IEC 27001, PCI-DSS (Payment Card Industry Data Security Standard), et les exigences spécifiques du secteur bancaire pour garantir la sécurité des données et des transactions.
• Application des bonnes pratiques pour respecter les règles de conformité bancaire, y compris la gestion des accès, le chiffrement des données sensibles, la surveillance des transactions, et la mise en place de mécanismes de sécurité adaptés aux environnements critiques du secteur bancaire.
10/2019 - 12/2019
Carrefour
DevOps / Data engineer
• Conception et déploiement d'un stack ELK (Elasticsearch, Logstash, Kibana) pour la collecte, l'indexation et l’analyse des logs métier afin de fournir des KPIs en temps réel. Cette architecture permet de centraliser les logs de plusieurs services et de générer des rapports dynamiques, facilitant la prise de décision stratégique et opérationnelle.
• Création de scripts personnalisés en Python.
• Implémentation de Kibana pour visualiser et analyser les données provenant des logs, et ajustement de la capacité d'indexation pour gérer plusieurs téraoctets de données.
• Optimisation de la gestion des logs en utilisant des pratiques de rétention, de compression et d'archivage pour garantir une performance optimale tout en respectant les exigences de conformité et de sécurité des données.
• Conteneurisation des applications avec Docker pour assurer une portabilité et une gestion simplifiée des services, permettant une intégration facile dans des environnements cloud ou sur site.
• Mise en place d'une gestion des versions et des configurations de conteneurs, en garantissant la sécurité des images Docker utilisées en intégrant des outils comme Snyk pour détecter les vulnérabilités.
• Application des principes de Zero Trust dans l'architecture cloud pour garantir un accès strictement contrôlé aux applications et ressources sensibles, limitant les risques d'accès non autorisé.
09/2019 - 10/2019
El pozo
DevOps
• Migration des applications et des microservices existants vers Amazon Elastic Kubernetes Service (EKS), permettant une gestion plus efficace des conteneurs et une orchestration optimale des services.
• Mise en place de pipelines CI/CD dans GitLab CI pour automatiser le déploiement sur EKS, en intégrant des tests de sécurité avec Snyk pour garantir la sécurité des conteneurs avant leur déploiement.
• Mise en place de Helm pour la gestion et l’automatisation des déploiements Kubernetes, facilitant ainsi la gestion des configurations complexes des applications.
• Supervision continue des infrastructures déployées sur AWS avec des outils comme CloudWatch pour surveiller les métriques système et les logs des services déployés.
• Utilisation de Datadog pour la collecte des métriques et des logs, offrant une vue centralisée de la performance de l’infrastructure cloud et permettant une détection proactive des anomalies.
• Mise en place d'alertes et de dashboards sur CloudWatch et Datadog pour assurer une surveillance efficace, réduire les temps d'indisponibilité et améliorer la réactivité face aux incidents de sécurité.
• Implémentation de contrôles d’accès basé sur les rôles (RBAC) dans AWS et Kubernetes pour limiter l’accès aux ressources sensibles uniquement aux utilisateurs et services autorisés.
• Application des meilleures pratiques de sécurité pour protéger les secrets et les clés d'API en utilisant AWS Secrets Manager et Vault, intégrés dans les pipelines pour garantir que les données sensibles ne sont jamais exposées.
03/2018 - 09/2019
Hubside
Responsable Infra / DevOps
• Gestion de l'équipe Infrastructure IT, coordination des efforts de mise en place de l'infrastructure en fonction des besoins métiers, et optimisation des processus pour répondre aux délais et aux exigences des différents projets.
• Priorisation des demandes d'amélioration et gestion des ressources pour assurer une mise en œuvre efficace des différentes phases de l'infrastructure MVP.
• Utilisation de Composer de GCP pour orchestrer et gérer les workflows complexes, facilitant l'automatisation des processus et l'intégration continue dans un environnement cloud.
• Conception de l'architecture infrastructure pour le MVP, avec une forte orientation vers la scalabilité et la sécurité des composants, en intégrant des services cloud sur GCP.
• Planification des différentes phases de l'architecture, de l'intégration initiale au déploiement progressif des nouvelles fonctionnalités.
• Mise en œuvre de Terraform pour l'infrastructure as code (IaC), garantissant la reproductibilité et la scalabilité de l'infrastructure tout en améliorant la gestion des environnements cloud.
• Déploiement et gestion des solutions logicielles telles que Shopify pour le e-commerce et Contentful pour la gestion de contenu.
• Gestion des environnements de production, de développement et de test pour assurer une livraison continue des applications et un haut niveau de sécurité des données et des interactions utilisateur.
• Administration et optimisation d’un cluster Kafka pour assurer une haute disponibilité et une scalabilité optimale, en mettant en place des stratégies de monitoring avancées et des mécanismes de récupération automatique en cas de panne.
• Création de scripts personnalisés en Python, Node.js, Bash.
• Mise en place de contrôles de sécurité autour des composants de l'infrastructure pour assurer la confidentialité, l'intégrité et la disponibilité des services déployés.
• Utilisation de Vault pour la gestion des secrets et des clés d'accès, garantissant une gestion sécurisée des informations sensibles dans l'environnement cloud.
• Mise en place d’un système de monitoring avec Datadog, ElasticSearch, et Cloudflare pour surveiller la performance des services et des applications.
• Rédaction des fiches d’intervention pour définir les actions à entreprendre en cas d'incident, facilitant ainsi une réponse rapide et efficace en cas de problème.
• Intégration des alertes de sécurité et de performance dans les dashboards de Datadog et Cloudflare pour une visibilité en temps réel des incidents ou des anomalies.
• Implémentation de IAM (Identity and Access Management) sur GCP pour définir des politiques d'accès strictes et limiter l'accès aux ressources sensibles uniquement aux utilisateurs autorisés.
• Application de pratiques Zero Trust dans l'architecture pour sécuriser l'accès aux ressources, avec des contrôles d'accès à chaque niveau de l'infrastructure et des outils de surveillance pour détecter les anomalies.
• Intégration de SonarQube, Snyk, et d'autres outils de sécurité dans le pipeline GitLab CI et Jenkins pour analyser le code et détecter les vulnérabilités avant le déploiement des applications.
• Mise en place de solutions de backups automatisés et de plans de reprise après sinistre pour garantir la continuité des services en cas de défaillance.
11/2017 - 03/2018
Radio France
Expert Technique GCP / Architect cloud
• Migration des sites Drupal depuis des machines virtuelles (VM) vers Kubernetes pour une gestion plus flexible des conteneurs et une meilleure scalabilité des applications.
• Utilisation de Terraform pour automatiser le déploiement et la gestion des infrastructures Kubernetes, permettant de déployer rapidement et de manière fiable les clusters Kubernetes sur GCP.
• Création de scripts personnalisés en Python et Bash.
• Optimisation des ressources et réduction des coûts d'infrastructure en exploitant les avantages de GKE (Google Kubernetes Engine), tout en améliorant la performance et la résilience des sites.
• Définition et mise en place de bonnes pratiques de développement pour améliorer la sécurité, la résilience et la maintenabilité des sites Drupal.
• Mise en œuvre de tests automatisés et d'intégration continue dans Jenkins pour garantir une qualité de code optimale et faciliter le déploiement sans interruption des services.
• Introduction de pratiques telles que la dockerisation des applications et des services afin de garantir leur portabilité et leur cohérence à travers différents environnements.
• Diagnostic et résolution des anomalies en production pour garantir la stabilité des sites Drupal et améliorer l'expérience utilisateur.
• Mise en place de solutions de surveillance et d'alertes pour détecter rapidement les problèmes et intervenir en temps réel.
• Collaboration avec les équipes de développement pour améliorer la robustesse des sites en production et prévenir les incidents futurs.
• Formation et coaching des développeurs pour les sensibiliser aux bonnes pratiques DevOps, Cloud et Kubernetes.
• Mise en place de processus et d’outils permettant une collaboration plus étroite entre les équipes de développement et les équipes d'infrastructure pour accélérer la livraison des applications.
• Encouragement de l’adoption d’une culture DevOps, avec l'accent sur l'automatisation des tests et des déploiements.
• Intégration de tests de sécurité dans les pipelines Jenkins pour analyser et prévenir les vulnérabilités avant le déploiement des applications.
• Mise en œuvre de pratiques de gestion des secrets avec Google Secret Manager pour sécuriser les informations sensibles comme les clés d'API et les mots de passe.
• Définition des politiques de sécurité sur GCP pour gérer les accès aux ressources cloud via IAM (Identity and Access Management), assurant ainsi un contrôle granulaire des autorisations.
• Mise en place de solutions de backups automatisés et de plans de reprise après sinistre pour garantir la continuité des services en cas de défaillance.
• Utilisation de GKE pour assurer une gestion automatisée des mises à jour et de la haute disponibilité des clusters, réduisant ainsi les risques liés aux pannes et aux incidents de sécurité.
05/2017 - 11/2017
France Média Monde
Lead Développeur
• Introduction et gestion des pratiques agiles dans le développement des sites et applications Drupal, avec un focus sur la gestion de projet via des sprints, des rétrospectives et des points de suivi réguliers.
• Collaboration avec les Product Owners et les équipes de développement pour garantir que les besoins métiers sont intégrés efficacement dans les cycles de développement et que les délais sont respectés.
• Création de scripts personnalisés en Python.
• Adoption des principes Scrum et Kanban pour améliorer la gestion des priorités et favoriser une approche plus collaborative.
• Mise en place d'une stratégie qualité (QA) pour garantir la stabilité, la performance et la sécurité des applications avant chaque mise en production.
• Utilisation de PHPUnit, SimpleTest et Behat pour l'automatisation des tests unitaires et des tests fonctionnels, assurant ainsi que chaque déploiement respecte les standards de qualité.
• Coaching des développeurs pour garantir que les bonnes pratiques sont suivies dans les projets Drupal, avec un focus particulier sur la scalabilité des applications et leur sécurisation.
• Mise en place de pratiques d’écriture de code réutilisable et optimisé, en intégrant des principes de Clean Code et en encourageant les développements modulaires.
• Mise en œuvre de solutions CMS robustes pour la gestion de contenus en back-end, en utilisant Drupal pour la flexibilité et la personnalisation, et Contentful pour une gestion plus centralisée et moderne des contenus.
• Gestion des environnements de développement, test et production pour ces CMS, afin de garantir une mise en œuvre fluide et évolutive des sites web.
• Élaboration et mise en place d’un Definition of Done (DoD) pour garantir que toutes les tâches sont complètes avant d'être considérées comme terminées.
• Intégration de la vérification des tests unitaires, des tests de sécurité et de performance, ainsi que de la revue de code dans le DoD.
• Mise en place des pipelines de test automatisés avec des outils comme PHPUnit, SimpleTest, Behat et PHPcs pour garantir la qualité du code et détecter les problèmes avant chaque déploiement.
• Assurer l'intégration des tests dans les pipelines CI/CD pour une validation continue du code à chaque commit.
10/2016 - 05/2017
France Télévision
Lead Développeur
• Organiser, gérer et coordonner l’équipe, recueillir et prioriser les besoins des équipes, implémentation d’une intégration continue avec Jenkins, mise en place d’un CDN Akamai pour optimiser la livraison des contenus, définition de l’architecture applicative, gestion des priorités, TMA (Tierce Maintenance Applicative), tests de charge avec Gatling et Siege, migration de la génération CSS vers Gulp, suivi de production et support niveau 3.
10/2015 - 10/2016
Dxo
Expert Technique
• Migration de plusieurs sites vers Drupal 8 et Magento, définition de l’architecture applicative et d'infrastructure afin de répondre aux besoins logiciels, gestion de la mise en place de la plateforme pour assurer la scalabilité et la performance des applications, gestion des dépendances et intégration continue avec Git et Jira, optimisation de l’infrastructure sur AWS.
9/2014 - 2/2016
Hippocampe
Expert Technique
• Implementation d’industrialisation de masse afin de diminuer les coûts de production, mise en place d’une infrastructure répondant aux exigences d’industrialisation de masse et à son automatisation, création de plusieurs clusters pour les projets Itavi (recherche d’emploi par token), Carmignac (recherche par agrégation metric ou matrix), montée en compétence rapide des équipes sur les processus et sur Drupal 7/8.
9/2013 - 8/2014
Smile
Développeur
• Analyse, conception, développement, tests et maintenance dans le cadre de la réalisation de TMA (Tierce Maintenance Applicative), définition de l’architecture logicielle, mainteneur de plusieurs modules Drupal, fourniture de patchs à de très nombreux modules Drupal, contribution active à la communauté open-source pour améliorer les outils et frameworks utilisés.
4/2013 - 8/2013
La souris verte
Développeur
• Analyse, conception, développement, tests et maintenance dans le cadre de la réalisation de TMA (Tierce Maintenance Applicative), définition de l’architecture logicielle, mainteneur de plusieurs modules Drupal, fourniture de patchs à de très nombreux modules Drupal, contribution active à la communauté open-source pour améliorer les outils et frameworks utilisés.
10/2012 - 3/2013
CGI
Développeur
• Analyse, conception, développement, tests et maintenance dans le cadre de la réalisation de TMA (Tierce Maintenance Applicative), définition de l’architecture logicielle, mainteneur de plusieurs modules Drupal, fourniture de patchs à de très nombreux modules Drupal, contribution active à la communauté open-source pour améliorer les outils et frameworks utilisés.
1/2010 - 9/2012
CLP Distribution
Développeur
• Développement d’une plateforme sur Drupal 7.x, WordPress, PrestaShop, développement en relation avec des webservices tiers, définition de l’architecture logicielle, mise en place de VM et paramétrage pour assurer la performance et la scalabilité des solutions proposées.
1/2003 - 1/2010
Armée de terre
Chef d’équipe
• Encadrement et gestion d’une équipe dans des missions opérationnelles et techniques, planification et coordination des tâches, gestion des ressources humaines et matérielles, formation continue des membres de l’équipe, mise en œuvre de stratégies pour optimiser l’efficacité de l’équipe dans un environnement exigeant, suivi et évaluation des performances des membres de l’équipe, gestion de crises et résolution de problèmes sur le terrain.
Consultants similaires
Compétences : CDP, CLOUDERA, GCP, JAVA 11, AWS, Data, KUBERNETES, ...
consultant Retenir
Compétences : DEVOPS, GCP, Kotlin, KUBERNETES, Terraform, AWS, JAVA, ...
consultant Retenir
Compétences : Cloud, Conseil, PROJET, Saas, Salesforce CRM, AGILE, ...
consultant Retenir
Compétences : Architecture, Data Science, GCP, Kafka, Mathématique ...
consultant Retenir
Compétences : BIG DATA, Cloud, DEVOPS, RPA, AD, Administration, AGILE, ...
consultant Retenir
Compétences : DEVOPS, docker compose, Jenkins, KUBERNETES, AWS, LINUX, ...
consultant Retenir
Compétences : Cloud, Data, ETL, Power BI, AGILE, Business, Planning, ...
consultant Retenir
Compétences : ansible, ELK, GCP, KUBERNETES, Terraform, AWS, CI/CD, ...
consultant Retenir
Compétences : Cloud, DEVOPS, Administration, AIX, Analyse, ANGLAIS, ...
consultant Retenir
Compétences : AWS, GCP, JAVA, PYTHON, Terraform, bash, C, C++, GIT, ...
consultant Retenir