À propos

OVHcloud, leader européen du cloud computing, est présent dans une quinzaine de pays et fournit des solutions d’hébergement et de cloud sécurisées, fiables et accessibles.

Dans un monde où le numérique occupe une place prédominante et est en constante évolution, nous croyons que l’avenir réside dans un cloud ouvert, fiable et durable, qui permet aux utilisateurs de choisir en toute liberté la façon dont ils souhaitent gérer leurs données.

Nous privilégions toujours le collectif, c’est pourquoi nous travaillons de manière rapprochée avec et pour notre écosystème composé tout d'abord de nos collaboratrices et collaborateurs, de nos clients, de nos partenaires et d’acteurs institutionnels.

  • Fondée en 1999
  • 2 900 collaborateurs dans 15 pays
  • 40+ data centres

Descriptif du poste

SRE Kafka H/F/N

Au sein de votre équipe #OneTeam

  • En tant que DevOps SRE Kafka vous intègrerez l'équipe QAAS (Queue As A Services) de la Squad Global Infrastructure Services Data chez OVHCloud au sein de la DSI.
  • Vous rejoindrez une équipe composée d'un Squad Leader, Tech Lead et de deux développeurs/experts Apache Kafka. L'équipe est organisée en mode Agile (sprint).
  • Apache Kafka est utilisé pour le transfert de données en temps réel. Il s'agit d'un service qui a pour vocation de répondre à des besoins de streaming d'évènements entre différentes applications. Cela s'inscrit dans une vision globale de construction d'une entreprise centrée sur la donnée (Data Centric).
  • De nombreuses équipes internes OVHCloud utilisent donc ce service au quotidien pour leurs transferts de données.nIl s'agit d'environnements (serveurs) dédiés ou mutualisés déployés sur les environnements OVHCloud.


Vos principales responsabilités
  • Participer au monitoring (RUN) et la maintenance (MCO) des plateformes basées sur la solution Apache Kafka
  • Prendre part aux évolutions de ces plateformes dans le respect de la roadmap (trimestrielle)
  • Tester et documenter les fonctionnalités des nouvelles releases
  • Garantir la sécurité de la plateforme
  • Etre à l'écoute des utilisateurs et avoir le rôle d'un véritable ambassadeur de la plateforme auprès de ces derniers
  • Effectuer une veille constante afin de pouvoir partager le fruit de vos recherches avec vos co-équipiers
  • Exécuter des opérations et support aux clients utilisant la plateforme :

    - Analyser des incidents techniques en production (trouble shooting)

    - Gérer le support applicatif niveau 1, notamment en heures non ouvrées

    - Faire l'interface avec les experts infrastructure (Supply, DC...) pour tout ce qui concerne la production
  • Proposer / Définir des standards pour la plateforme.
  • Participer au design des solutions techniques et aux études de faisabilité sur les futurs standards (e.g. nouveaux services)
  • Proposer des solutions techniques pérennes pour la validation des développements applicatifs (ex. Framework pour les tests de non-régression).
  • Effectuer des tests de performance et d'intégration pour assurer un bon niveau de qualité de service.
  • Participer à la validation (phases d'UATs) du cycle de vie de la plateforme pour s'assurer du bon " tuning " pour finaliser le(s) produit(s)/services
  • Produire et diffuser la documentation (produit, architecture...)
  • Supporter les clients dans les phases de migration vers un nouveau cluster


Votre futur impact

Dans 6 mois
  • Vous serez autonome sur le monitoring, de la maintenance et du support de niveau 1 des plateformes Kafka en production.
  • Vous aurez participé aux évolutions de la plateforme selon la roadmap trimestrielle.
  • Vous aurez proposé des standards pour la plateforme.
  • Votre veille sera régulière et vous en partagerez les résultats avec avec l'équipe.


Et dans 1 an
  • Vous serez reconnu en interne comme un des référents Apache Kafka.
  • Vous aurez contribué de façon significative au design de nouvelles solutions techniques et à l'étude de faisabilité de futurs services.
  • Vous aurez implémenté des solutions pérennes pour la validation des développements applicatifs (frameworks de tests) et le tuning des plateformes.
  • Vous tiendrez un rôle proactif dans l'écoute et le support des utilisateurs, et dans la promotion de la plateforme en interne (et pourquoi pas en conférences externes ?)


Compétences requises :
  • Vous connaissez Apache Kafka
  • Vous avez de fortes compétences en administration Linux (debian)
  • Les outils Puppet, Docker, Terraform et Ansible vous sont familiers
  • Vous développez en Golang et/ou Java

C'est un +
  • Vous avez déjà fait de l'administration Kafka

Informations complémentaires

  • Type de contrat : CDI
  • Lieu : Bordeaux
  • Unknown