BI / Data Engineer H/F - Sunevit
912
post-template-default,single,single-post,postid-912,single-format-standard,ajax_fade,page_not_loaded,,qode_grid_1300,footer_responsive_adv,qode-theme-ver-11.0,qode-theme-bridge,wpb-js-composer js-comp-ver-5.1,vc_responsive

BI / Data Engineer H/F

Détails de l’offre

Vous aimez travailler en équipe, faites preuve de réelles qualités humaines et vous êtes fortement motivé pour rejoindre une entreprise innovante, où vous pourrez proposer vos idées et les mettre en pratique: nous vous attendons!

En tant que BI engineer, vous travaillerez sous la direction du responsable BI engineering & Reporting, et occuperez un poste clé entre les analystes et l’infrastructure data, dans un contexte où la donnée joue un rôle capital. La data chez notre client, c’est :

  • Des centaines de milliers d’annonces déposées chaque jour
  • Des centaines de téraoctets de données à valoriser

Le contexte :

  • Vous évoluerez au quotidien au sein de l’équipe centrale BI & Reporting, composée d’ingénieurs et de chefs de projets BI et rattachée à la Tribe Data Tools & Services.
  • Développement sous Ubuntu en Java, Python et SQL avec IntelliJ, Gradle, Travis, Docker, Github, Ansible, Terraform.
  • Dans un environnement à la pointe des technologies BI actuelles : Airflow, Spark, Kafka, AWS (S3, Redshift, Athena), JupyterHub, Kubernetes. Cet environnement et ses bonnes pratiques sont partagés avec les data engineers.

Ce que vous ferez :

  • Analyser et formaliser les besoins utilisateurs afin de les intégrer aux évolutions
  • Développer des pipelines ETL complexes assurant une circulation optimale des données
  • Accompagner la conception de nouvelles sources de données temps réelles (Kafka / Avro)
  • Être au contact et coordonner les métiers fonctionnels et techniques concernés par la mise en place d’un projet BI
  • Participer activement à la veille technologique et à l’effort de R&D
  • Garantir le bon fonctionnement, la disponibilité, l’évolution et la performance des outils
  • Vous justifiez d’une expérience d’au moins 2 ans sur ce type de poste.
  • Vous connaissez les environnements Unix, possédez un niveau avancé en SQL et un bon niveau en Python (ou volonté de monter en compétences).
  • Vous êtes familier de la modélisation décisionnelle, de la conception et/ou de l’implémentation d’un data warehouse.
  • La connaissance de PostgreSQL / Redshift et d’Apache Spark serait un plus.
  • Excellent sens du résultat et de la qualité
  • Aptitudes à communiquer, en particulier avec les directions métiers
  • Sens du travail en équipe
  • Curiosité technique en général
  • Aptitudes rédactionnelles

Postuler à cette offre

Les champs munis d’une * sont obligatoires

Joignez votre CV au format .doc ou .pdf :