Baobab est un groupe de services financiers de premier plan, présent dans sept pays du continent africain. Par l’intermédiaire de ses filiales, Baobab accompagne un demi-million de micro-entrepreneurs et de petites entreprises, remplissant ainsi sa mission d’élargir l’accès au financement aux personnes mal desservies par les banques traditionnelles.
Vous évoluez au sein de l’équipe Data.
L’équipe, rattachée à la ligne TRANSFO, est organisée en 3 pôles de compétences (Data Engineering , Data Analytics, Data Science) s’articulant autour d’une plateforme Data sur le cloud (GCP) accessible pour l’analyse et la modélisation.
Le rôle de Lead Data Engineering est stratégique pour :
- Renforcer la robustesse, la scalabilité et la gouvernance de la Data Platform
- Piloter l’alignement entre les besoins data et les orientations de l’architecture d’entreprise
- Encadrer une équipe technique tout en définissant une vision d’évolution à long terme
- Participer activement à la mise en place de la gouvernance des données : catalogue, documentation, qualité, sécurité, accessibilité, lineage
Responsabilités
1. Leadership et Vision
- Définir une stratégie d’évolution de la Data Platform (GCP, BigQuery, dbt, Airbyte…) alignée sur les ambitions métiers et les choix d’architecture globale
- Collaborer avec l’équipe d’architecture d’entreprise pour établir des standards communs (interopérabilité, sécurité, modélisation, services data)
- Porter une vision produit de la plateforme data, en lien avec les parties prenantes internes (Analytics, Science, Métier, IT) et les équipes architecture
- Participer à la feuille de route data en alignement avec la stratégie du groupe
2. Encadrement et montée en compétences
- Encadrer une équipe de Data Engineers, favoriser la montée en compétence (code review, pairing, mentoring)
- Promouvoir des pratiques DevOps/DataOps/Finops modernes (CI/CD, tests, monitoring, documentation)
- Instaurer une culture d’amélioration continue et de transparence dans les processus d’ingénierie
- Favoriser la montée en compétence métier de l’équipe, afin d’améliorer la compréhension des cas d’usage, des indicateurs clés et des objectifs fonctionnels
3. Excellence technique et delivery
- Piloter la conception, l’industrialisation et la documentation de pipelines de données complexes avec Airbyte, dbt, Cloud Composer / Workflows, BigQuery
- Garantir la qualité, la sécurité, la performance et la conformité des pipelines (RGPD, auditabilité, différentes banques centrales de nos filiales…)
- Superviser les intégrations avec les systèmes métiers (Core Banking, APIs, CRM, etc.) en collaboration avec les architectes IT
- Piloter les problématiques de fraîcheur de la donnée, avec une attention particulière portée au traitement en temps réel ou quasi-réel lorsque nécessaire (ex : flux de transactions, scoring dynamique, alertes temps réel)
4. Data Governance
- Participer activement à la mise en place et à l’évolution de la gouvernance de la donnée au sein du groupe (centrée sur la conformité, la traçabilité, la qualité et l’accès)
- Définir et faire respecter les standards de documentation, de sécurité, de lineage et de qualité de données, en lien avec les architectes, les équipes IT et les métiers
- Collaborer à l’animation du catalogue de données (métadonnées, dictionnaires, ownership fonctionnel et technique)
- Soutenir la mise en œuvre d’une culture “data responsable” : respect du RGPD, auditabilité, minimisation des risques opérationnels ou réglementaires
- Travailler étroitement avec les Data Analysts, Data Scientists et équipes de contrôle pour garantir un cadre de gouvernance robuste et évolutif sur les datasets critiques (KYC, scoring, crédit, transactions…)
Compétences et qualités requises
Formation & Expérience
- Diplôme d’ingénieur ou master en informatique/data
- Expérience réussie de 6 à 10 ans en Data Engineering, dont au moins 2 à 3 ans dans un rôle de lead ou de manager
- Maîtrise approfondie de GCP, SQL avancé, dbt, outil d’ingestion Modern (Airbyte/Fivetran), orchestration (Cloud Composer / Airflow), data warehouse (BigQuery, Snowflake…)
Compétences clés
- Capacité à structurer une architecture data à l’échelle
- Maîtrise des outils de traitement massivement parallèles
- Vision claire des enjeux cloud / data mesh / sécurité
- Bonne compréhension des problématiques finance / bancaire (T24, Core Banking, risque, KYC…)
- Bonne connaissance en architectures de data warehousing (ex : BigQuery, Redshift ou Snowflake) et des environnements Cloud (ex : GCP, AWS ou Azure)
Compétences comportementales
- Leadership naturel et capacité à fédérer une équipe technique
- Pédagogie, capacité à vulgariser les enjeux data auprès des directions fonctionnelles
- Orientation produit, rigueur, autonomie, agilité
- Connaissance des outils de BI : Looker, Superset, Metabase
- Familiarité avec les frameworks IA générative (GPT, Gemini, LangChain)
- Expérience en environnement multi-pays / multi-cultures
Si vous avez envie de contribuer à notre projet d’entreprise et d’accompagner notre croissance, envoyez votre CV et lettre de motivation à [email protected] en mentionnant dans le titre de votre email la référence : L_DATA_ENG 10 2025