Job 2 van 2


Report this listing

Solliciteren



Geavanceerde Data Engineer met expertise in event streaming en Confluent Kafka


We zoeken een ervaren Data Engineer met expertise in event streaming en Confluent Kafka. ">

Jobbeschrijving

In onze context bouw je samen met een agile team aan toekomstgerichte digitale oplossingen. Je werkt vanuit de primaire locatie in Melle (2 dagen onsite, 3 dagen home office) of vanuit een Cegeka-kantoor.

">

Vereisten en taken

  • Onderhouden en ontwikkelen van real-time datastromen met Kafka Streams
  • Integreren van data uit meerdere Kafka-topics tot consistente en betrouwbare snapshots
  • Samenwerken met de Java Developer aan performante en schaalbare oplossingen
  • Afstemmen met Functioneel en Business Analisten om technische implementaties goed te laten aansluiten op de businessbehoeften
  • Implementeren van monitoring, logging en foutafhandeling binnen de datastromen
  • Bewaken van datakwaliteit, validatie en correcte timestamping van assetinformatie

Vereiste vaardigheden en kennis

  • Grondige kennis van Apache Kafka en Kafka Streams
  • Eervaring met Java in een data-engineering context
  • Inzicht in event-driven architectuur en stream processing patterns
  • Kennis van data-integriteit, schema-evolutie (zoals Avro/Protobuf) en fouttolerantie
  • Eervaring met CI/CD en containerisatie (Docker/Kubernetes)
  • Eervaring met Microsoft Azure (AKS, Azure Container Apps)
  • Eervaring met Confluent Kafka

Waarom jij?

  • Grondige kennis van Apache Kafka en Kafka Streams
  • Eervaring met Java in een data-engineering context
  • Inzicht in event-driven architectuur en stream processing patterns

Wat wij bieden

We bieden een uitdagende rol met veel ruimte voor eigen initiatief en groei.

"> Kafka engineer, Data engineer, Event streaming, Confluent Kafka, Agile team

Solliciteren

Meer banen van je zoekopdracht