Een team van internationale onderzoekers van vooraanstaande academische instellingen en techbedrijven heeft de AI-sector opgeschud met de introductie van OpenThinker-32B. Dit geavanceerde open-source model behaalt prestaties die concurreren met en soms zelfs beter zijn dan DeepSeek’s Qwen 32B, terwijl het slechts 14% van de trainingsdata nodig had. Dit meldt DeCrypt.
Indrukwekkende benchmarkresultaten
OpenThinker-32B, ontwikkeld door het Open Thoughts-consortium, behaalde een nauwkeurigheidsscore van 90,6% op de MATH500-benchmark, waarmee het DeepSeek’s 89,4% overtrof. Ook op algemene probleemoplossende taken excelleerde het model met een 61,6-score op de GPQA-Diamond-benchmark, tegenover 57,6 voor DeepSeek’s Qwen 32B-distillatie. Daarnaast behaalde het 68,9 op de LCBv2-benchmark, wat duidt op sterke prestaties over een breed scala aan testscenario’s.
Deze resultaten tonen aan dat OpenThinker-32B niet alleen uitblinkt in algemene wetenschappelijke kennis (GPQA-Diamond), maar ook DeepSeek overtreft op MATH500, een benchmark die wiskundige vaardigheden test. Wel presteerde het model iets minder op de AIME-benchmark, een andere wiskundige toets.
Efficiëntie en open-source voordelen
Een van de meest opmerkelijke aspecten van OpenThinker-32B is de efficiëntie. Het model behaalde deze prestaties met slechts 114.000 trainingsvoorbeelden, tegenover 800.000 die DeepSeek gebruikte. Dit toont aan dat goed samengestelde datasets en efficiënte modelarchitecturen een cruciale rol spelen in AI-ontwikkeling.
De OpenThoughts-114k dataset bevat uitgebreide metadata voor elk probleem, inclusief diepgaande oplossingen, testcases voor codeproblemen, startercode en domeinspecifieke informatie. Het aangepaste Curator-framework valideerde codeoplossingen via testcases, terwijl een AI-rechter verantwoordelijk was voor wiskundige verificatie.
Op programmeergebied scoorde OpenThinker-32B iets lager dan DeepSeek met 68,9 versus 71,2. Maar omdat het model volledig open-source is, kunnen onderzoekers en ontwikkelaars deze prestaties mogelijk verder verbeteren door middel van community-gedreven optimalisaties.
DeepSeek versus OpenThinker: de bredere impact
DeepSeek legde eerder al de inefficiëntie van conventionele AI-ontwikkelingsprocessen bloot door een krachtig model te trainen voor slechts iets meer dan $5 miljoen, terwijl bedrijven als OpenAI en Anthropic miljarden dollars besteden aan rekencapaciteit. Met DeepSeek R1 als gratis en aanpasbare release gaf het Chinese AI-laboratorium de sector een flinke impuls.
Echter, in tegenstelling tot Open Thoughts, hield DeepSeek zijn trainingsdata geheim. Dit maakt OpenThinker-32B een aantrekkelijker alternatief voor ontwikkelaars die volledige transparantie en reproduceerbaarheid wensen.
Een betrouwbaar alternatief voor westerse AI-ontwikkelaars
Voor AI-onderzoekers en bedrijven die terughoudend zijn om een Chinees model te gebruiken, biedt OpenThinker-32B een transparant en toegankelijk alternatief. Het model is direct beschikbaar voor download op Hugging Face, samen met een kleinere 7B-variant voor minder krachtige apparaten.
Het Open Thoughts-team bracht experts samen van toonaangevende Amerikaanse universiteiten zoals Stanford, Berkeley en UCLA, evenals het Juelich Supercomputing Center in Duitsland. Daarnaast wordt het project ondersteund door het in de VS gevestigde Toyota Research Institute en andere Europese AI-instituten.
Met deze ontwikkelingen bewijst de open-source gemeenschap wederom dat het mogelijk is om efficiënte en concurrerende AI-modellen te ontwikkelen zonder toegang tot grootschalige, gesloten datasets. OpenThinker-32B markeert een belangrijke stap in de richting van een transparantere en breed toegankelijke AI-toekomst.
Door: Drifter
Aanbevolen Reacties
Er zijn geen reacties om weer te geven.
Log in om te reageren
Je kunt een reactie achterlaten na het inloggen
Login met de gegevens die u gebruikt bij softtrack