La multinationale ENGIE recrute un stagiaire (23 Juillet 2024)

Informations sur le stage

Titre du Poste : Stagiaire ingénieur de données

Pays / Lieu du Stage : Nigéria

Description de l'offre de stage

ENGIE Energy Access est le premier fournisseur de solutions de paiement à la consommation (PAYGo) et de mini-réseaux en Afrique. L’entreprise développe des solutions solaires innovantes hors réseau pour les particuliers, les services publics et les entreprises, permettant aux clients et aux partenaires de distribution d’accéder à une énergie propre et abordable.

Objectif du poste/Mission

Ce poste fera partie de l’équipe Global Data. Il s’agit d’une opportunité incroyable de rejoindre une équipe très performante, passionnée par l’innovation en matière de services financiers étendus aux clients hors réseau à la base de la pyramide.

Les principales responsabilités comprendront le soutien des fonctions de l’équipe de données, notamment la création et la maintenance de pipelines de données entre nos principales bases de données transactionnelles et analytiques, les données IoT fournies par les appareils, le PBX et notre système de billetterie interne.

Vous serez également chargé de créer des pipelines pour fournir des données en temps réel à l’application mobile de notre équipe de terrain afin de permettre la prise de décisions fondées sur les données sur le terrain, ainsi que de travailler avec les membres de l’équipe de données pour garantir une qualité de code et une conception de base de données élevées. Votre travail aura un impact significatif en permettant à Engie d’innover en permanence sur la manière dont nous accompagnons nos clients dans leur parcours de remboursement.

Responsabilités 

Modélisation des données et extraction, transformation et chargement (ETL) :

  • mettre en œuvre des modèles de données robustes pour prendre en charge les exigences d’analyse et de reporting.
  • maintenir des processus ETL évolutifs à partir de diverses sources, y compris plusieurs systèmes ERP, dans un entrepôt de données.

Pipelines de données d’ingestion et d’automatisation des données

  • Mettre en œuvre des contrôles de validation et de qualité des données pour garantir l’exactitude et l’exhaustivité.
  • maintenir des pipelines de données automatisés pour rationaliser le traitement et la transformation des données.
  • Utilisez des outils d’orchestration pour planifier et surveiller les flux de travail du pipeline.
  • Collaborer avec les analystes de données pour comprendre les exigences en matière de données et soutenir leurs besoins d’analyse.
  • Optimisez les structures de données et les requêtes pour améliorer les performances et la convivialité à des fins d’analyse.

Entreposage de données

  • Optimisez les solutions d’entreposage de données pour répondre aux besoins de business intelligence et d’analyse.
  • Mettre en œuvre des techniques de modélisation de données pour organiser et structurer les données en vue d’une interrogation et d’une analyse optimales.

Optimisation et réglage des performances des tableaux de bord de données

  • Dépannage et résolution des problèmes sur les rapports/tableaux de bord existants tout en apportant des améliorations en continu.
  • Optimisez les performances du tableau de bord et assurez la réactivité pour les grands ensembles de données et les requêtes complexes.
  • Conception, visualisation de données et tableaux de bord

Expérience :

  • Plus de 6 mois d’expérience dans le secteur  de l’ingénierie des données, en mettant l’accent sur l’ingestion de données, l’entreposage de données, l’automatisation des pipelines et le développement ETL
  • Expérience de programmation en Python/Scala/Java
  • Expérience avec SQL en plus d’un ou plusieurs des logiciels Spark/Hadoop/Hive/HDFS
  • Connaissance pratique des bases de données, des systèmes de données et des solutions d’analyse, y compris la maîtrise de SQL, NoSQL, Java, Spark et Amazon Redshift pour la création de rapports et de tableaux de bord.
  • Expérience dans la mise en œuvre de tests unitaires et d’intégration.
  • Capacité à recueillir les exigences et à communiquer avec les parties prenantes des équipes de données, de logiciels et de plateformes.
  • Sens de l’aventure et volonté de se lancer, de penser grand et d’exécuter avec une équipe.

Qualifications :

  • Baccalauréat ou maîtrise en informatique , en sciences mathématiques, en apprentissage automatique ou dans un domaine connexe.

Langue(s) :

  • Anglais
  • Le français est un plus.

Technologie :

  • Python, Java, SQL, NoSQL, Amazon Redshift, Kafka, Apache Beam, Apache Airflow, Apache Spark.

Postulez en ligne