We zijn op zoek naar een Data Engineer met ervaring in event streaming en Confluent Kafka om bij ons team te werken. Job Beschrijving
In deze rol werk je aan de ontwikkeling van een oplossing voor het samenstellen van snapshots met correcte assetinformatie, afkomstig uit verschillende Kafka-topics. Je zult werken aan het ontwikkelen en onderhouden van real-time datastromen met Kafka Streams, integreren van data uit meerdere Kafka-topics tot consistente en betrouwbare snapshots en samenwerken met de Java Developer aan performante en schaalbare oplossingen.
Benodigde Vaardigheden en Kwalificaties
Grondige kennis van Apache Kafka en Kafka Streams
Ervaring met Java in een data-engineering context
Inzicht in event-driven architectuur en stream processing patterns
Kennis van data-integriteit, schema-evolutie (zoals Avro/Protobuf) en fouttolerantie
Ervaring met CI/CD en containerisatie (Docker/Kubernetes)
Voordeel
Jouw werk zal plaatsvinden vanuit onze primaire locatie in Melle, waar je 2 dagen onsite en 3 dagen home office werkt. Dit biedt jou de mogelijkheid om te werken in een dynamische omgeving terwijl je toch ook thuis werkt.
Overige
We zijn op zoek naar iemand die sterke communicatieve vaardigheden heeft, een echte teamspeler is en proactief denkt. Jouw taalvaardigheid in Nederlands moet vlot zijn en je bent in staat om technische keuzes helder toe te lichten aan functionele stakeholders.