We zoeken een ervaren Data Engineer met expertise in event streaming en Confluent Kafka. " Jobbeschrijving
In onze context bouw je samen met een agile team aan toekomstgerichte digitale oplossingen. Je werkt vanuit de primaire locatie in Melle (2 dagen onsite, 3 dagen home office) of vanuit een Cegeka-kantoor.
"
Vereisten en taken
Onderhouden en ontwikkelen van real-time datastromen met Kafka Streams
Integreren van data uit meerdere Kafka-topics tot consistente en betrouwbare snapshots
Samenwerken met de Java Developer aan performante en schaalbare oplossingen
Afstemmen met Functioneel en Business Analisten om technische implementaties goed te laten aansluiten op de businessbehoeften
Implementeren van monitoring, logging en foutafhandeling binnen de datastromen
Bewaken van datakwaliteit, validatie en correcte timestamping van assetinformatie
Vereiste vaardigheden en kennis
Grondige kennis van Apache Kafka en Kafka Streams
Eervaring met Java in een data-engineering context
Inzicht in event-driven architectuur en stream processing patterns
Kennis van data-integriteit, schema-evolutie (zoals Avro/Protobuf) en fouttolerantie
Eervaring met CI/CD en containerisatie (Docker/Kubernetes)
Eervaring met Microsoft Azure (AKS, Azure Container Apps)
Eervaring met Confluent Kafka
Waarom jij?
Grondige kennis van Apache Kafka en Kafka Streams
Eervaring met Java in een data-engineering context
Inzicht in event-driven architectuur en stream processing patterns
Wat wij bieden
We bieden een uitdagende rol met veel ruimte voor eigen initiatief en groei.
"
Kafka engineer, Data engineer, Event streaming, Confluent Kafka, Agile team