AI gedreven Data Engineer
Goede beslissingen beginnen met goede data. Bij Insight First bouwen we het fundament onder de groei van snelgroeiende e-commerce merken. We zijn een team van gedreven Analytics Engineers en zoeken een AI-gedreven Data Engineer. Iemand die experimenteert met nieuwe technologie, onderzoekt hoe AI het werk slimmer maakt, en snapt dat betrouwbaarheid en schaalbaarheid de basis zijn van een goede data-infrastructuur.
Wat ga je doen?
Je werkt aan alles van API-koppelingen en ETL tot het ontwerpen van een robuust data warehouse in BigQuery. Je schrikt niet van Python, Google Cloud, BigQuery en CI/CD, maar ook niet van puzzelen met SQL en het omzetten van ruwe data naar bruikbare genormaliseerde tabellen. Je houdt ervan om systemen niet alleen te laten draaien, maar ze ook continu te verbeteren en toekomstbestendig te maken.
Geen dag is hetzelfde: de ene keer onderzoek je hoe een nieuwe API werkt, de andere keer optimaliseer je partitioning in BigQuery of bouw je een SQL model in dbt van honderden tabellen. Ook werken we veel met Claude, n8n en reverse ETL flows. Ondertussen kijk je vooruit: hoe kunnen we dit slimmer, sneller, stabieler doen?
Kortom: jij bouwt mee aan de technische backbone van ons werk voor meer dan 45 e-commerce klanten.
Geen dag is hetzelfde: de ene keer onderzoek je hoe een nieuwe API werkt, de andere keer optimaliseer je partitioning in BigQuery of bouw je een SQL model in dbt van honderden tabellen. Ook werken we veel met Claude, n8n en reverse ETL flows. Ondertussen kijk je vooruit: hoe kunnen we dit slimmer, sneller, stabieler doen?
Kortom: jij bouwt mee aan de technische backbone van ons werk voor meer dan 45 e-commerce klanten.
In het kort

Locatie
Utrecht

Afdeling
IT

Werkplek
Inhouse
Waar kom je te werken?
Insight First is het remote data & BI-team voor merken als Pink Gellac, Cloudpillo, Buienalarm en Alpine. Wij halen data op uit 50+ systemen (Shopify, Amazon, Meta, Google Ads, you name it), modelleren die met DBT en slaan alles op in BigQuery. Het resultaat: een single source of truth (data warehouse), overzichtelijke dashboards en analyses. We investeren veel in nieuwe tools en innovatie zoals conversational analytics, reverse ETL en automations om onze klanten te helpen sneller en slimmer te groeien op basis van data.
Ons team bestaat uit nieuwsgierige analytics engineers die houden van puzzelen, bouwen en verbeteren. Vanuit ons kantoor bij Utrecht Vaartsche Rijn (met uitzicht op het Ledig Erf ) werken we hybride: de helft op kantoor, de helft thuis.
Wat ga je doen
Ons team bestaat uit nieuwsgierige analytics engineers die houden van puzzelen, bouwen en verbeteren. Vanuit ons kantoor bij Utrecht Vaartsche Rijn (met uitzicht op het Ledig Erf ) werken we hybride: de helft op kantoor, de helft thuis.
Wat ga je doen
- Integraties & pipelines: bouwen van API-koppelingen en ETL-flows met Google Cloud Run (Python) en ETL-tools, zoals Airbyte en Dataddo.
- Infra & CI/CD: schaalbaar en betrouwbaar inrichten van onze achterliggende infrastructuur op Google Cloud o.a. met Terraform & CI/CD (Github)
- DWH-ontwerp: slim inrichten van BigQuery (partitioning, clustering, hashing, cost-control).
- Datamodellering: dbt-modellen bouwen en beheren (staging ? marts), inclusief tests en documentatie.
- Data-kwaliteit & security: verbeteren en beheren van monitoring, logging, hashing/anonimisering, governance, bouwen van semantic layer voor AI
- Innovatie & experiment: PoC’s voor AI-toepassingen of kleine tools bouwen in google stack (denk aan App Script, tool op BigQuery, reverse ETL flow, n8n workflow etc.)
Wij zijn een data-gedreven adviesbureau uit Utrecht, gespecialiseerd in snelgroeiende DTC brands. Sinds 2020 helpen we organisaties om structuur aan te brengen in hun datafundament, van data engineering en modellering tot dashboards en deep-dive analyses.

Type bedrijf
Start-up

Medewerkers
1-10

Branche
IT
Wat wij vragen
- 3+ jaar ervaring in data engineering of een vergelijkbare rol.
- Sterk in Python en SQL (BigQuery-dialect).
- Ervaring met cloud (bij voorkeur Google Cloud Platform) in bijvoorbeeld het opzetten van: (BigQuery) DWH’s, containeriseren en deployen van Python functies, IAM/Secret Manager, Infrastructure as Code (Terraform), en CI/CD (GitHub Actions/Cloud Build).
- Ervaring in versiebeheer, bijvoorkeur in GitHub, bij merge conflicts weet jij de juiste commando’s te vinden
- Begrip van datawarehousing-principes en best practices: partitioning, clustering, normalisatie.
- Je bent een zelfstarter: je onderzoekt hoe een API werkt, test het in Python, en zet het robuust in productie.
- Nieuwsgierig, analytisch en je wordt enthousiast van nieuwe tools.
- Tech is voor jou niet alleen werk, maar ook in je vrije tijd volg jij de ontwikkelingen in het IT en AI landschap op de voet. Medium, Substack of Reddit zit onder jouw speeddial.
Nice to haves
- Ervaring met DBT of Airbyte.
- Kennis van observability / monitoring.
- Ervaring met privacy/security (hashing, OAuth2, RLS).
- Affiniteit met AI, automatisering of het bouwen van interne tools.
- Ervaring met werken in een servicegerichte organisatie of agency (ad hoc & dynamisch, uren schrijven)
Wat wij bieden
- Een uitdagende rol met veel afwisseling en ownership;
- Werken met een brede variëteit aan klanten, datasets en tools;
- Werken in een team met gelijkgestemde, behulpzame nerds;
- Salaris tussen de €3600 en €6500 bruto per maand, afhankelijk van werkervaring;
- Contract: 32–40 uur, hybride werken; NL/EN werktaal;
- 25 vakantiedagen + volledige reiskostenvergoeding;
- MacBook, telefoonvergoeding, diverse opleidings- en trainingsmogelijkheden;
- Een fijne werkplek in Utrecht vlakbij Ledig Erf (thuiswerken 50%)
Direct solliciteren
Ben jij deze topper die we zoeken? Reageer dan online op deze vacature. Voor eventuele vraag over deze rol kun je contact opnemen met Douwe Kappelle. We spreken je graag!



