Senior Data Engineer Locatie: Brussel (2 dagen onsite) Voor een internationale organisatie actief binnen de Europese energiesector zoeken we een Senior Data Engineer. Deze organisatie speelt een sleutelrol in de coördinatie van hoogspanningsnetwerken en draagt bij aan een stabiele en veilige elektriciteitsvoorziening op regionaal niveau. De werkomgeving is dynamisch, inhoudelijk sterk en gelegen in Brussel. Als Senior Data Engineer vertaal je businessnoden naar bruikbare inzichten. Je bouwt en optimaliseert datastromen en datamodellen die ingezet worden voor rapportering en machine learning toepassingen. Daarnaast zorg je voor het onderhoud en de verdere evolutie van bestaande pipelines en tools. Jouw verantwoordelijkheden Data Engineering & Pipelines Ontwerpen, bouwen en onderhouden van schaalbare ETL/ELT-pipelines in Python. Waarborgen van datakwaliteit (validatie, deduplicatie, schema-consistentie). Verwerken van complexe tijdsreeksen binnen netwerkgerelateerde datasets. Workflow Orchestratie Opzetten en beheren van geautomatiseerde workflows met Apache Airflow. Garanderen van betrouwbare dagelijkse, wekelijkse en maandelijkse dataleveringen voor kritische rapportering. Data Modelling & Transformaties Ontwikkelen van modulaire en testbare transformaties met dbt. Schrijven van geavanceerde SQL-queries voor modellering en analytics. Optimaliseren van datamodellen voor analytische en regulatorische rapportering. Platform & Infrastructuur Containeriseren van data-componenten met Docker. Werken met Git voor versiebeheer en samenwerking. Bijdragen aan verbeteringen in CI/CD-processen binnen het dataplatform. Database & Storage Management Beheren en optimaliseren van PostgreSQL-databases. Focus op performantie (indexering, partitionering, tuning). Samenwerking & Support Nauwe samenwerking met business stakeholders om noden te vertalen naar technische oplossingen. Zorgen voor tijdige oplevering van operationele en regulatorische rapporten. Constructieve communicatie en feedback binnen multidisciplinaire teams. Documentatie & Continue Verbetering Documenteren van dataflows, modellen en processen. Actief inzetten op automatisatie, betrouwbaarheid, observability en data governance volgens moderne data engineering standaarden. Jouw profiel Masterdiploma in Informatica, IT, Ingenieurswetenschappen of gelijkwaardig door ervaring. Minstens 5 jaar ervaring met het bouwen van data pipelines in Python. Sterke kennis van Apache Airflow, dbt, SQL en PostgreSQL. Ervaring met Docker binnen development- en deploymentprocessen. Grondige expertise in tijdsreeksanalyse (resampling, interpolatie, rolling windows, time-based joins). Sterk inzicht in datamodellering, ELT-architecturen en datakwaliteitsprincipes. Ervaring met minstens één BI-tool (bijv. Power BI, Tableau, …). Sterke analytische en communicatieve vaardigheden. Teamspeler met voldoende autonomie om complexe pipelines end-to-end op te nemen. start date 02/03/2026 End date 01/03/2027