Data Architect
CDI
En savoir plus
Société :
Omnilog
Publié le :
3 décembre 2020
Type :
  • CDI
Compétences :
Java, Python, AWS, Azure, GCP, HDFS, MapReduce, Spark, Storm, Kafka, Hive, Elasticsearch, MongoDB, DevOps, ...
Poste à pourvoir à partir de :
1 janvier 2021
Votre mission

DESCRIPTION DE LA MISSION PRINCIPALE :

Au sein du Centre de Service Data & IA d’Omnilog, l’Architecte des Données a pour mission principale la conception, le développement et la maintenance des solutions et outils liés aux données. Au plus proche des équipes de développement, il s’assure que les développements réalisés sont compatibles avec une collecte et un traitement de données massives.

Sous la responsabilité et en partenariat avec le Chief Data Officer, il partage les bonnes pratiques entre les équipes, s’assure d’une bonne utilisation des outils choisis et réalise un travail de veille technologique.

MISSION / ACTIVITÉS :

Maintenir et améliorer les pipelines de traitement des données : Participer à la conception des workflows de calcul, mettre en évidence les points forts, les points faibles et les limites de ceux-ci, identifier les bottlenecks et proposer des solutions pour les supprimer.
Assister les équipes dans la mise en place de la collecte, le stockage et l’accès aux données : Identifier les solutions technologiques qui répondent aux besoins fonctionnels et opérationnels, en collaboration avec les tech lead. Assister à la mise en perspective de ces solutions au regard de leurs coûts. Participer au développement des outils dans le cadre des solutions qui auront été sélectionnées.
Soutenir l’exploitation, être force de proposition sur la qualité de service et l’amélioration continue. Participer à la mise en place d’outils de supervision de la qualité des données et la performance des traitements. Effectuer une veille technologique sur les nouvelles solutions pour le calcul distribué. Proposer des axes d’amélioration des éléments livrés.
Référent Data auprès des équipes de développement, il est le garant de la mise-en-oeuvre des bonnes pratiques pour le traitement distribué de données massives et hétérogènes. Communiquer / évangéliser ces bonnes pratiques de collecte et de traitement des données dans un contexte Big Data et Cloud aux équipes de développement.

COMPÉTENCES PRINCIPALES REQUISES :

Paradigmes du calcul distribué, traitements par lots, au fil de l’eau, temps-réel.
Excellente compréhension des problématiques du calcul distribué : failover, réplication, haute disponibilité.
Programmation en Java, Python.
A l’aise avec un interpréteur de lignes de commande de type Unix.
Connaissance de HDFS, MapReduce, Spark, Storm, Kafka, Hive, Elasticsearch, MongoDB,…
Cloud computing Azure / GCP / AWS, services PAAS de ces différents partenaires.
Techniques et outils de conteneurisation : Docker, Kubernetes.
Méthodologies DevOps et DataOps

SAVOIR-ÊTRE :

Curiosité intellectuelle, créativité, rigueur, autonomie et proactivité.
Excellente capacité à communiquer.
Fortes aptitudes collaboratives et adaptatives à un environnement interculturel.
Humble et passionné, aimant le travail en équipe.

FORMATION ET EXPÉRIENCES REQUISES

Diplomé Bac +5, Ingénieur
Expérience de 4 ans minimum au sein d’une équipe de développement, avec une première expérience réussie dans le déploiement d’une plateforme Data d’entreprise.

LANGUES

Anglais courant écrit et parlé.