GPT-NL houdt het, bij gebrek aan transparantie en openheid, bij een wat pompeuze site vol marketing over openheid en transparantie, soevereniteit, en wederkerigheid.
open
maar niet open-weights… Dat vertelt de GPT-NL FAQ ons via het volgende taalkundige hoogstandje: “Wordt het model open-weights? Nee, het zit genuanceerder.” Die nuance? Het model is gesloten, je moet betalen voor commercieel gebruik, en (tot tegenbericht) eigenlijk ook voor non-commercieel gebruik:
“we onderzoeken nog of de onderzoekslicentie gratis of tegen een symbolisch bedrag aangeboden MAG worden”
en transparant…?
Voor wie het niet weet: GPT-NL is met 13.5M gefinancierd door de overheid (wat, heb ik me laten vertellen, een volstrekt niet open proces is geweest), en wordt getraind op o.a. private data die optioneel worden gecompenseerd (uit de licentieinkomsten van GPT-NL), en data die al open waren.
Maarja, GPT-NL is gestart met trainen. En gelukkig is er die (summiere) blog over geschreven, anders kon je het niet weten:


ergens anders misschien?
Soortgelijke (maar veelal grotere) initiatieven om een “eerlijke/open” (mbt data) of “lokale” LLM op te leveren, zoals EuroLLM (met EU funding) of BLOOM (met funding van Frankrijk), zijn niet alleen open-weights (duh), maar ook volledig transparant over data (welke, hoeveel, waarvandaan) en technische details (architectuur, training, post-training, etc.). Zie bijvoorbeeld ook de recent uitgebrachte SmolLMv3;
We’re releasing SmolLM3 with our engineering blueprint. It includes architecture details, exact data mixtures showing how we progressively boost performance across domains in a three-stage pretraining approach, and the methodology for building a hybrid reasoning model. Usually, achieving these results would require months of reverse engineering. Instead, we’re providing the full methodology.
Het kan dus wel! Maar niet bij GPT-NL…