GOZEM recrute pour ce poste (02 Septembre 2025)

GOZEM recrute pour ce poste (02 Septembre 2025)

Informations sur l'emploi

Titre du Poste : Ingénieur de données

Niveau Requis : Master

Lieu du Travail : Bénin

Description de l'emploi

Fondé en 2018, Gozem est aujourd’hui un groupe technologique de plus de 400 personnes, agile et ambitieux, qui propose via son application mobile une très large gamme de services, notamment dans les domaines du transport, de la livraison, du financement, de l’argent mobile et bien d’autres encore, aux utilisateurs africains. Présent au Bénin, au Togo, au Gabon et au Cameroun, notre groupe a pour ambition de devenir la « Super App africaine » en s’implantant dans toute l’Afrique francophone. Notre solution est 100 % axée sur le marché africain et s’adresse aux chauffeurs, aux clients, aux commerçants et bientôt aux PME dans nos domaines d’activité.

Qu’est-ce qu’un ingénieur de données chez Gozem ?

Notre ingénieur de données fera le lien entre nos équipes de développement et d’ingénierie backend et l’ensemble du service d’analyse mondiale. Il/elle se concentrera sur la création et L’organisation mondiale d’analyse élargie. Il/elle se concentre sur la création et la maintenance d’infrastructures et de pipelines de données évolutifs, sécurisés et hautement performants dans plusieurs secteurs d’activité (transport, commerce électronique, technologies financières et services financiers).

Ce poste nécessite une solide expertise dans l’écosystème de données et d’analyse de Google Cloud, complétée par des compétences pratiques dans les outils d’ingénierie de données open source afin de garantir l’interopérabilité, la flexibilité et des solutions rentables.

Vos tâches

  • Gérer le cycle de vie complet des données : ingestion, pipelining (collecte, stockage, accès), transformation (nettoyage, enrichissement, création/sélection de fonctionnalités) et gouvernance (documentation, surveillance, observabilité).
  • Concevoir et mettre en œuvre des pipelines de données (par lots et en continu) à l’aide de BigQuery, Dataform, Dataflow, Pub/Sub, Cloud Storage et des frameworks open source (par exemple, Spark, Kafka, Airflow).
  • Collaborer avec les responsables des équipes d’analyse et les scientifiques des données afin de créer des ensembles de données et des fonctionnalités réutilisables et prêts à être mis en production, qui permettent une modélisation et un reporting avancés.
  • Soutenir le développement et l’optimisation du data lakehouse et des data marts de Gozem, en garantissant l’évolutivité et les performances dans plusieurs secteurs verticaux.
  • Évaluer les demandes des utilisateurs en matière de solutions d’analyse et de reporting, en déterminant la faisabilité, les délais requis et l’adéquation architecturale.
  • Mettre en place et maintenir des cadres de qualité des données (validation, surveillance, alertes) afin de garantir la fiabilité des actifs de données dans toute l’organisation.
  • Interagir avec les parties prenantes (responsables commerciaux, chefs de produit, etc.) afin de clarifier les exigences en matière de disponibilité et de fiabilité des données ainsi que les solutions requises, en veillant à ce que les informations soient exploitables et précises.
  • Vous êtes la personne idéale pour ce poste si vous possédez…
  • De solides compétences en matière de profilage et d’ingénierie des données, avec une expérience pratique de Google Cloud Platform (BigQuery, Dataform, Dataflow, Pub/Sub, Composer, Cloud Functions, Cloud Run) et des frameworks de traitement de données open source (Spark, Kafka, Airflow, etc.).
  • Une bonne compréhension de l’infrastructure et du déploiement (système d’exploitation Linux, Docker, environnements conteneurisés, workflows CI/CD).
  • Une expérience des bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, ClickHouse, etc.).
  • Une capacité avérée à concevoir et à mettre en œuvre des pipelines ETL/ELT, le traitement des données en temps réel et les transformations de données structurées et non structurées.
  • Une expérience confirmée dans des environnements où la documentation, les tests, la reproductibilité et la gouvernance des données sont valorisés.
  • Souhait de solutions propres, bien organisées et faciles à maintenir, pouvant s’adapter à toutes les équipes et tous les marchés.

 

Vous avez

  • Formation : Master recommandé (mais non obligatoire) en informatique, ingénierie des données ou dans un domaine connexe.
  • Expérience : au moins 3 ans d’expérience professionnelle dans des fonctions d’ingénierie des données ou d’ingénierie analytique.
  • Maîtrise de Python (obligatoire) et de SQL (niveau avancé), avec une connaissance pratique de Node.js pour prendre en charge les intégrations API et les flux de données backend.
  • Connaissance de l’orchestration des flux de travail (Airflow, Cron, etc.) et du contrôle de version.
  • Expérience des pratiques modernes en matière de pile de données : pipelines modulaires, CI/CD pour les données, observabilité des données, optimisation des coûts.
  • Outils à maîtriser : Asana, Google Suite, GitLab (obligatoire), connaissance de Jira.

Langues : français et anglais (maîtrise professionnelle requise).

Ce que nous apprécions le plus

  • Motivé, autonome dans son apprentissage et désireux de partager ses connaissances avec ses collègues.
  • Soucieux du détail et gestionnaire efficace du temps dans un environnement dynamique et en forte croissance.
  • Solides compétences en communication avec les parties prenantes techniques et non techniques.
  • Esprit constructif : enthousiaste à l’idée de concevoir des systèmes qui s’adaptent à l’écosystème des super applications africaines et ont un impact.

CLIQUEZ ICI POUR POSTULER