Le projet
1. Collecte et intégration des données
- Développer des pipelines ETL (Extract, Transform, Load) robustes et automatisés pour intégrer les données provenant de sources variées (CAPEX, ERP, IoT, systèmes de production, etc.).
- Assurer la qualité, la traçabilité et la conformité des données, notamment en lien avec le RGPD.
2. Architecture et stockage des données
- Concevoir et maintenir des entrepôts de données (Data Warehouse) et des lacs de données (Data Lake) adaptés aux besoins métiers.
- Sélectionner et administrer les bases de données (SQL, NoSQL, Hadoop, Spark, etc.) en fonction des cas d’usage.
3. Support aux équipes métiers et data science
- Collaborer avec les équipes de data science pour industrialiser les modèles prédictifs et les algorithmes de machine learning.
- Mettre à disposition des données fiables et pertinentes pour les analyses métiers (qualité, production, supply chain, R&D, etc.).
4. Veille technologique et amélioration continue
- Assurer une veille sur les technologies Big Data, l’intelligence artificielle et les outils d’automatisation.
- Proposer des solutions innovantes pour améliorer la performance des systèmes de données.
Profil recherché
Formation
Bac+5 en informatique, data engineering, statistiques ou école d’ingénieur.
Compétences techniques
- Maîtrise des langages de programmation : Python, Java, Scala.
- Expérience avec les outils ETL : Talend, Apache Nifi, Airflow.
- Connaissance des bases de données : PostgreSQL, MySQL, MongoDB, Cassandra.
- Compétence en gestion de données volumineuses : Hadoop, Spark, Kafka.
- Connaissance d’un environnement cloud : AWS, Azure ou GCP.
-
Maîtrise de l’anglais technique.