We zoeken een ervaren Data Engineer met expertise in event streaming en Confluent Kafka. ">
Jobbeschrijving
In onze context bouw je samen met een agile team aan toekomstgerichte digitale oplossingen. Je werkt vanuit de primaire locatie in Melle (2 dagen onsite, 3 dagen home office) of vanuit een Cegeka-kantoor.
"> Vereisten en taken
- Onderhouden en ontwikkelen van real-time datastromen met Kafka Streams
- Integreren van data uit meerdere Kafka-topics tot consistente en betrouwbare snapshots
- Samenwerken met de Java Developer aan performante en schaalbare oplossingen
- Afstemmen met Functioneel en Business Analisten om technische implementaties goed te laten aansluiten op de businessbehoeften
- Implementeren van monitoring, logging en foutafhandeling binnen de datastromen
- Bewaken van datakwaliteit, validatie en correcte timestamping van assetinformatie
Vereiste vaardigheden en kennis
- Grondige kennis van Apache Kafka en Kafka Streams
- Eervaring met Java in een data-engineering context
- Inzicht in event-driven architectuur en stream processing patterns
- Kennis van data-integriteit, schema-evolutie (zoals Avro/Protobuf) en fouttolerantie
- Eervaring met CI/CD en containerisatie (Docker/Kubernetes)
- Eervaring met Microsoft Azure (AKS, Azure Container Apps)
- Eervaring met Confluent Kafka
Waarom jij?
- Grondige kennis van Apache Kafka en Kafka Streams
- Eervaring met Java in een data-engineering context
- Inzicht in event-driven architectuur en stream processing patterns
Wat wij bieden
We bieden een uitdagende rol met veel ruimte voor eigen initiatief en groei.
"> Kafka engineer, Data engineer, Event streaming, Confluent Kafka, Agile team
Solliciteren