Over de rol
Voor organisaties met moderne data-omgevingen zoeken wij een Data Engineer die een sleutelrol speelt in datagedreven werken. Je werkt aan cloud-native dataplatformen, bouwt schaalbare dataproducten en maakt self-service analytics mogelijk voor de business. De focus ligt op kwaliteit, betrouwbaarheid en het ontsluiten van data voor besluitvorming.
Wat ga je doen?
- Ontwikkelen en opleveren van dataproducten voor self-service analytics en reporting (bijv. Power BI).
- Realiseren en ondersteunen van de transitie naar een modern cloud data platform.
- Werken binnen een Scrum-productteam aan data-ingesties, datamodellen, parsing, cleansing en dashboarding.
- Vertalen van businessbehoeften naar functionele en technische ontwerpen in samenwerking met product owners en solution architects.
- Exponeren, analyseren en verrijken van data uit diverse databronnen.
- Omzetten van ruwe data naar schaalbare data-oplossingen volgens moderne datawarehousingprincipes.
- Documenteren en onderhouden van programmatuur, datastructuren en dataprocessen.
- Dagelijks beheer, monitoring, troubleshooting en kwaliteitsborging van dataproducten.
- Uitvoeren van migraties naar Azure Cloud-gebaseerde dataomgevingen.
Jouw technische stack
- Azure Cloud (o.a. Databricks, Microsoft Fabric)
- Modern Data Warehousing, Kimball-modellering (facts & dimensions)
- Python
- Azure DevOps / MS DevOps (Data Pipelines, CI/CD)
- Datamodellering, data-inname, parsing & cleansing
- Scrum / DevOps
Wat breng jij mee?
- Ervaring met moderne datawarehousingconcepten.
- Vaardigheid met Azure Cloud-platformen zoals Databricks en Microsoft Fabric.
- Aantoonbare ervaring met Kimball-modellering (dimensions & facts).
- Sterke vaardigheden in requirement gathering en businessanalyse.
- Ervaring met Python voor data-engineeringtoepassingen.
- Ervaring met CI/CD-processen via DevOps Data Pipelines.
- Bekendheid met Scrum- en DevOps-werkwijzen.
Pré / gewenst
- Ervaring met data-visualisatie (Power BI).
- Kennis van relationele databases (PostgreSQL, Oracle).
- Ervaring met containerization (Docker, Kubernetes).
- Kennis van Kafka of andere event streaming platforms.
- Ervaring met object storage-oplossingen.
- Inzicht in security binnen ETL- en dataverwerkingsprocessen.
- Brede DevOps-kennis.
Karakter van de functie
- Gericht op het bouwen van schaalbare dataproducten voor reporting, analytics en automatisering.
- Sterke balans tussen ontwerpen, ontwikkelen, beheren en optimaliseren van data pipelines.
- Werken in multidisciplinaire teams met een hoge mate van verantwoordelijkheid.
- Focus op betrouwbaarheid, performance, datakwaliteit en cloud-native oplossingen.
- Centrale rol in datagedreven besluitvorming binnen de organisatie.