At DX-Solutions, we didn't jump into AI yesterday. Our first AI event was back in 2019. Back then, generative AI was still in its infancy, but we already saw its enormous potential for businesses. In 2023 and 2024, we organized AI hackathons again, exploring with customers and partners how AI can deliver real added value to business processes. Today, we're building on this foundation. We continue to brainstorm, test, and experiment with our team to understand the technical and strategic needs for building sustainable, reliable, and affordable AI solutions. One of the most interesting experiments we've conducted recently revolves around comparing small models (1.5B) with large models (70B).
Wat betekent 1.5B of 70B eigenlijk?
Het getal achter een AI-model, zoals 1.5B of 70B, verwijst naar het aantal parameters in het model.
-
Meer parameters = meer kennis en redeneervermogen, maar ook veel meer geheugen en energieverbruik.
-
Een 1.5B-model is klein en licht, ideaal voor eenvoudige toepassingen of embedded oplossingen.
-
Een 70B-model is vele malen krachtiger, kan complexere redeneringen aan, maar vraagt ook zware hardware en veel energie.
Dit klinkt misschien eenvoudig: groter is beter, toch? Maar in de praktijk ligt het genuanceerder.
De grote verschillen in de praktijk
Toen we dezelfde taak lieten uitvoeren door een 1.5B-model en een 70B-model, waren de verschillen duidelijk. Het grote model was accurater, vollediger en kon complexere verbanden leggen. Maar daar staat tegenover:
-
Exponentieel hogere kosten om te hosten
-
Veel zwaardere hardware (denk aan GPU’s zoals H100’s die tot 700W per kaart verbruiken)
-
Meer latency (langere responstijd)
Een 70B-model is dus krachtiger, maar niet altijd de meest duurzame of kostenefficiënte keuze.
Duurzame & betrouwbare AI gaat verder dan alleen een groot model
Achter elke slimme AI-assistent schuilt niet alleen een model, maar een ecosysteem van data, hardware, energie en optimalisatie.
Als we écht duurzame en betrouwbare AI willen bouwen, moeten we verder kijken dan alleen de output.
1. Het model zelf
Grotere modellen (70B+) zijn krachtiger, maar vragen exponentieel meer geheugen en energie. Kleinere modellen (1.5B–7B) zijn goedkoper en lichter, maar vereisen betere data en optimalisatie om betrouwbaar te presteren.
Een hybride aanpak wint hier terrein: kleine modellen voor 80% van de taken, grote modellen alleen voor de complexere uitzonderingen.
2. Data is de brandstof
Het gaat niet om meer data, maar om betere data.
-
Curatie en cleaning zijn essentieel
-
Fine-tuning maakt een model slimmer in een specifieke context
-
Distillation kan kennis van een groot model overbrengen naar een kleiner model
Zo kan een klein model toch prestaties leveren die verrassend dicht in de buurt komen van een groot model, maar met veel minder energieverbruik.
3. Hardware en energieverbruik
Draai je een 70B-model in productie, dan praat je al snel over duizenden euro’s per maand aan hostingkosten en energieverbruik.
Slimmere keuzes zoals quantization (het verkleinen van modelgewichten zonder veel kwaliteitsverlies) en distillation kunnen het energieverbruik halveren – zonder noemenswaardige impact op de kwaliteit van de antwoorden.
4. Optimalisatie = duurzaamheid
Je hoeft niet altijd het grootste model te draaien. Vaak volstaat een kleiner model met:
Met deze optimalisaties kun je kleine modellen slim laten lijken zonder het dure en logge karakter van de grootste modellen.
5. Betrouwbaarheid komt niet vanzelf
AI moet niet alleen antwoorden genereren, maar ook uitleggen waarom het iets zegt.
-
Monitoring en feedback loops zijn cruciaal
-
Kwaliteitschecks maken het verschil tussen een gimmick en een waardevolle tool
-
AI moet herhaalbaar en voorspelbaar presteren om in bedrijfsprocessen betrouwbaar te zijn
De toekomst van AI: slimmer, bewuster en duurzamer
De toekomst van AI is dus niet simpelweg “groter is beter”, maar slimmer, bewuster en duurzamer.
Door bewust te kiezen voor de juiste balans tussen modelgrootte, data, hardware en optimalisatie, bouwen we AI die niet alleen slim is, maar ook energiezuinig, schaalbaar en future proof.
Hoe wij dit aanpakken bij DX-Solutions
Bij DX-Solutions helpen we bedrijven bewust kiezen. Samen kijken we welke AI-strategie en modelkeuze het beste past bij hun noden. Zo bouwen we oplossingen die:
✅ Slimmer zijn door de juiste data en optimalisatie
✅ Betaalbaar en schaalbaar zijn in productie
✅ Duurzaam zijn in energieverbruik en hardwarekosten
✅ Betrouwbaar blijven door monitoring en feedback