Le projet

1. Collecte et intégration des données

  • Développer des pipelines ETL (Extract, Transform, Load) robustes et automatisés pour intégrer les données provenant de sources variées (CAPEX, ERP, IoT, systèmes de production, etc.).
  • Assurer la qualité, la traçabilité et la conformité des données, notamment en lien avec le RGPD.

2. Architecture et stockage des données

  • Concevoir et maintenir des entrepôts de données (Data Warehouse) et des lacs de données (Data Lake) adaptés aux besoins métiers.
  • Sélectionner et administrer les bases de données (SQL, NoSQL, Hadoop, Spark, etc.) en fonction des cas d’usage.

3. Support aux équipes métiers et data science

  • Collaborer avec les équipes de data science pour industrialiser les modèles prédictifs et les algorithmes de machine learning.
  • Mettre à disposition des données fiables et pertinentes pour les analyses métiers (qualité, production, supply chain, R&D, etc.).

4. Veille technologique et amélioration continue

  • Assurer une veille sur les technologies Big Data, l’intelligence artificielle et les outils d’automatisation.
  • Proposer des solutions innovantes pour améliorer la performance des systèmes de données.

Profil recherché

Formation

Bac+5 en informatique, data engineering, statistiques ou école d’ingénieur.

Compétences techniques

  • Maîtrise des langages de programmation : Python, Java, Scala.
  • Expérience avec les outils ETL : Talend, Apache Nifi, Airflow.
  • Connaissance des bases de données : PostgreSQL, MySQL, MongoDB, Cassandra.
  • Compétence en gestion de données volumineuses : Hadoop, Spark, Kafka.
  • Connaissance d’un environnement cloud : AWS, Azure ou GCP.
  • Maîtrise de l’anglais technique.

Vous souhaitez postuler ?

< 256 MB.
< 256 MB.

D'autres missions vous correspondent !

Ces offres pourraient également vous intéresser.

20.10.2025

Business Analyst (H/F)

Recueillir et analyser les besoins métiers (Groupe et filiales) et les traduire en spécifications fonctionnelles
Rédiger et suivre les tickets dans Jira (clarification des demandes, priorisation, gestion du backlog : évolutions / anomalies)
Conduire des analyses de causes racines en cas d’anomalies (configurations, ordonnancement d’événements, incohérences de données)
Rédiger et maintenir la documentation fonctionnelle et la base de connaissances (modèles de configuration, règles métiers, cas d’usage)
Collaborer étroitement avec les équipes développement et QA (spécifications techniques, plans de tests, scénarios end-to-end)
Identifier les dépendances inter-systèmes et coordonner avec d’autres applications/modules
Accompagner les filiales dans leurs projets de déploiement (gap analysis, go/no-go, contrôle qualité des données, support mise en production)
Contribuer à l’amélioration continue des processus et de la documentation

20.10.2025

Data Analyst (H/F)

Le Data Analyst collecte, analyse et interprète les données relatives aux ventes, au comportement client et aux opérations commerciales pour optimiser la performance de l’entreprise et soutenir la prise de décision stratégique.

20.10.2025

Ingénieur DevOps (H/F)

Dans un contexte d’industrialisation et de modernisation des processus techniques, nous recherchons un Ingénieur DevOps pour automatiser, sécuriser et fiabiliser les déploiements applicatifs et l’infrastructure. Vous intégrerez une équipe technique en interaction avec les équipes de développement et d’exploitation.