Data ingénieur Bordeaux (F/H)
CDI
En savoir plus
Société :
Zenika
Publié le :
4 juillet 2019
Type :
  • CDI
Compétences :
Hadoop ; Spark ; Kafka ...
Poste à pourvoir à partir de :
8 juillet 2019
Votre mission

Qui sommes-nous ?
Rejoins l’agence Zenika à Bordeaux dans laquelle notre directeur Fabien accompagne au quotidien une trentaine de collaborateurs tous passionnés d’informatique.
Tes futurs collègues ? Une grande famille de consultants Java, web, DevOps, Big Data, sécurité, agiles…
Tu pourras aussi participer à de nombreux événements d’agence (les dejs du vendredi, le zPot (apéro Zenika) une fois par mois, les réunions d’agence, …) ou techniques (meet-up, nightclazz, formations, …)

Qu’est ce qu’on t’offre ?
En résumé, Zenika, te permettra :
De choisir d’intégrer ou quitter les projets clients de ton choix
De travailler dans un environnement agile
De réaliser des missions d’audit, d’expertise technique et des POCs
D’avoir du temps dédié pour contribuer à des projets Open-Source ou à tes projets personnels
D’animer ou de participer à des événements techniques
De participer aux meilleures conférences (Devoxx, Devfest, Breizhcamp, MixIT, BDX I/O, Snowcamp et bien d’autres)
D’avoir la possibilité de devenir formateur sur tes domaines d’expertise
De bénéficier de nos formations et de passer des certifications
De choisir ton matériel informatique (PC, Mac etc.)
De conserver un équilibre vie pro/vie perso
Surtout, d’avoir ta garde robe aux couleurs de Zenika !

Tes missions :
Tu collaboreras avec les équipes Big Data de nos clients pour concevoir et développer de nouvelles architectures de données.
Tu participeras à la mise en place ainsi qu’à l’enrichissement de datalakes basés sur l’écosystème Hadoop.
Tu implémenteras des workflows complexes d’acquisition et d’analyse de la donnée pour faire émerger des possibilités métiers encore inexploitées.
Tu travailleras de pair avec des Data Scientists dans un esprit de partage de compétences.
Tu as une première expérience significative sur un projet Big Data. Tu souhaites te challenger sur des infrastructures distribuées et temps réel à forte volumétrie. Tu aimes partager tes compétences et assumer tes choix techniques.

Qui es-tu ?
Tu as une première expérience significative sur un projet Big Data
Tu souhaites te challenger sur des infrastructures distribuées et temps réel à forte volumétrie
Tu t’investis sur la qualité des projets, tu adhères aux principes DevOps et tu es vigilant sur la performance
Même si tu n’es pas tombé dedans quand tu étais petit, tu as une réelle appétence pour le développement
Github, Gitlab, Stackoverflow ou encore bitbucket font partie de tes outils quotidiens
Tu aimes échanger et partager avec tes pairs et tu aimerais participer à des événements
Tu as hésité à passer le CAPES car tu es un formateur dans l’âme et tu souhaites en faire bénéficier le plus grand nombre
Tu ne te prends pas trop au sérieux et tu aimes travailler dans un environnement fun et convivial

Tes compétences :
Le Java est ta langue maternelle. La programmation orientée objet est un art dont tu maîtrises les techniques secrètes (design patterns).
Tu es familiarisé avec des Frameworks de tests tels que JUnit, Mockito, Gatling.
Le JSON et les APIs REST sont ton quotidien.
Les brokers de messages (Apache Kafka) ne te sont pas inconnus.
Tu préfères utiliser tes compétences « relationnelles » pour faire du team building plutôt que pour concevoir le stockage de tes données.
Le stream processing est la philosophie que tu as adoptée pour tes projets data (Spark, Flink, Kafka Streams, …)
Tu ne t’imagines pas travailler sur un environnement autre que Linux (Ubuntu, CentOS)
Tu es sensible aux approches craftsmanship (CleanCode, TDD).