Basé.e à Paris, vous êtes le moteur de la fiabilité des données. Votre mission est de transformer les données brutes en modèles analytiques performants, en appliquant des standards de qualité similaires à ceux du développement logiciel.
Vos principales responsabilités incluront :
Architecture & Modélisation dbt : Concevoir, développer et maintenir des modèles de données complexes dans l’entrepôt Cloud (Snowflake, BigQuery, etc.) en utilisant intensivement dbt (Data Build Tool).
DataOps & CI/CD : Mettre en œuvre les principes de DataOps (tests automatisés, intégration continue, version control) pour garantir la qualité, la traçabilité et la réplicabilité des modèles de données.
Développement de Pipelines : Participer à la construction des pipelines d’ingestion et d’orchestration de données, en exploitant Python pour les logiques de transformation avancée et les API.
Conseil en Ingénierie : Conseiller nos clients sur l’architecture de leur Data Warehouse (DWH) et les former aux meilleures pratiques d’ingénierie et de modélisation avec dbt.
Innovation & ML/IA : Structurer les couches de données pour qu’elles soient directement exploitables par des applications et des projets de Machine Learning (IA).
Gestion de Projet : Piloter le delivery technique des solutions en mode agile.
Vous êtes un.e team player avec une expertise prouvée en modélisation SQL et une culture forte du génie logiciel appliquée à la Data.
Compétences et Expérience requises :
Vous justifiez d’une expérience professionnelle de 2 ans minimum en tant que Data Engineer, Analytics Engineer ou rôle similaire.
Maîtrise Technique Indispensable :
dbt (Data Build Tool) : Expertise solide.
SQL : Maîtrise avancée pour la modélisation et la performance des requêtes.
Python : Compétences en scripting et développement (APIs, ETL).
Cloud & DWH : Expérience avec au moins un Entrepôt de Données Cloud moderne (Snowflake, BigQuery, Redshift, etc.).
Outils d’Écosystème : Familiarité avec un outil d’orchestration (Airflow, par exemple) et un outil de version control (Git).
Appétit pour l’Innovation : Une curiosité pour la Data Science/IA est un atout.
Méthodologie : Rigueur dans le développement et expérience en méthodologie Agile.
Vos Super-Pouvoirs (Soft Skills) :
Pédagogue et Codeur : Vous écrivez du code propre, testable et bien documenté, et êtes capable de transmettre ces bonnes pratiques.
Rigueur et Qualité : Votre priorité est la fiabilité des modèles de données et la performance des architectures.
Curiosité Insatiable : Vous suivez activement l’évolution du mouvement Analytics Engineering.