Orange est une société française de télécommunications. De plus, elle comptait à la fin de 2019 près de 266 millions de clients dans le monde, des chiffres en hausse par rapport à ceux affichés en 2018.
Objectif du travail
En tant qu’ingénieur données, vous travaillerez en tant que développeur Big Data et participerez aux activités d’ingestion de données afin d’intégrer d’importants volumes de données dans notre Big Data Lake. Le/la candidat(e) jouera un rôle essentiel dans la création de nouveaux pipelines de données provenant de diverses sources structurées et non structurées vers Hadoop. Vous travaillerez en étroite collaboration avec les consommateurs de données et les propriétaires de sources afin de jeter les bases des activités d’analyse de données et de machine learning.
Fonctions et responsabilités
- Identifier les modèles d’ingestion de données et créer un cadre pour ingérer efficacement les données dans notre Data Lake
- Optimisation des performances des tâches d’ingestion pour améliorer le débit
- Améliorer le processus CI/CD en automatisant le framework de construction, de test et de déploiement
- Créez des algorithmes, des prototypes et des preuves de concept hautes performances
- Opportunités de recherche pour l’acquisition de données et nouvelles utilisations des données existantes
- Développer des processus d’ensemble de données pour la modélisation, l’exploration et la production de données
- Intégrer de nouvelles technologies de gestion des données et des outils d’ingénierie logicielle dans le cadre existant
- Travailler avec des outils de base de données en mémoire (Redis, Riak)
- Collaborer avec les architectes de données, les modélisateurs et les membres de l’équipe informatique sur les objectifs du projet.
Éducation
- Baccalauréat en génie des systèmes informatiques ou en informatique.
Expérience
- Plus de 5 ans d’expérience avec des applications basées sur Java et des technologies open source
- Plus de 3 ans d’expérience en ingénierie des données prenant en charge des flux de données à haut volume et à grande vitesse.
- Une expérience préalable de travail avec les technologies Hadoop telles que HBase, Hive, Spark est un plus
- L’optimisation des performances des applications Java et des technologies de messagerie est un plus
- Expérience préalable avec des bases de données relationnelles telles que MS SQL, Oracle et DB2
- La connaissance et la compréhension des procédures SDLC et Agile/Scrum, CI/CD et automatisation sont requises.
- La capacité à utiliser des conteneurs comme Dockers ou Kubernetes est un plus
- Capacité à écrire des requêtes SQL et à utiliser des outils tels que Hadoop, Tableau, QlikView et d’autres outils de création de rapports de données.
- Expérience des environnements transactionnels et d’entrepôt de données utilisant MySQL, Hive ou d’autres systèmes de bases de données. Compétences approfondies en jointures, sous-requêtes, fonctions de fenêtrage, etc.
- Solide expérience dans la conception de bases de données relationnelles telles que Postgres et de bases de données NoSQL telles que Mongo DB ou Cassandra.
Compétences et aptitudes
- Très bon anglais à l’écrit comme à l’oral.
- Bonnes compétences informatiques.
- Une expérience passée chez des opérateurs de télécommunications et des fournisseurs de services est préférable.
- Bonne connaissance des systèmes de bases de données et des solutions BI
- Bonnes compétences en programmation et en débogage.
- Bonnes capacités de résolution de problèmes.
- Capacité à administrer différentes solutions matérielles et de systèmes d’exploitation.
Contrat
CDI.