
Description
de la mission
Data Engineer
Data Engineer
Île-de-France
À partir du - 36 mois - Renouvelable
Mission publiée le : 03/03/2025
Mission consultée : 278 fois
Consultants positionnés : 5
Référence : MISS0165707745
Compétences
EXPERT
. JAVA . Programmation . PYTHON . scala . Spark . Data . NoSQL . Stockage . AWS . Monitoring . INFRASTRUCTURE . Systèmes . Agilité . Architecture . Autonomie . développement . integration . Analyse . Business . Cloud . Delivery . Production . TESTS . workflowsDescription de la mission
Nous recherchons un(e) Data Engineer afin de renforcer le les équipes de notre client en vue d'optimiser la personnalisation, le taux de conversion et les assets du business.
Compétences requises :
• Maîtrise de technologies Big Data: développement SPARK, outils d'extraction de la donnée (workflows SPARK) et outils de stockage (stockage objet / base relationnelle / NoSQL).
• Agilité.
• AWS
Livrables attendus :
• Définir et analyser des structures de données,
• Contribuer aux assets des différentes équipes produits pour
interconnecter et collecter les données,
• Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire),
• Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés),
• Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, Présenter et expliquer les réalisations à des publics métiers et techniques.
Des connaissances en développement dans un langage de programmation (PYTHON, SCALA et/ou JAVA) seront appréciées.
Savoir être :
• Force de proposition.
• Autonomie.
• Bonne capacité à travailler en équipe.
• Esprit d’analyse et de synthèse.
Mission longue en Ile de france, à pourvoir début avril (Télétravail 3 jours / semaine autorisé)
Compétences requises :
• Maîtrise de technologies Big Data: développement SPARK, outils d'extraction de la donnée (workflows SPARK) et outils de stockage (stockage objet / base relationnelle / NoSQL).
• Agilité.
• AWS
Livrables attendus :
• Définir et analyser des structures de données,
• Contribuer aux assets des différentes équipes produits pour
interconnecter et collecter les données,
• Mettre à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données), Être garant de la production (mise en place de monitoring, d'alerting et intervention si nécessaire),
• Développer et maintenir le continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés),
• Construire l’architecture cloud AWS qui hébergera notre infrastructure existante ou future, Présenter et expliquer les réalisations à des publics métiers et techniques.
Des connaissances en développement dans un langage de programmation (PYTHON, SCALA et/ou JAVA) seront appréciées.
Savoir être :
• Force de proposition.
• Autonomie.
• Bonne capacité à travailler en équipe.
• Esprit d’analyse et de synthèse.
Mission longue en Ile de france, à pourvoir début avril (Télétravail 3 jours / semaine autorisé)