PEKING, 27 december 2025 /PRNewswire/ — Op 22 december heeft Z.ai GLM-4.7 uitgebracht, de nieuwste versie van zijn GLM large language model-familie. Ontworpen om multi te verwerkenPEKING, 27 december 2025 /PRNewswire/ — Op 22 december heeft Z.ai GLM-4.7 uitgebracht, de nieuwste versie van zijn GLM large language model-familie. Ontworpen om multi te verwerken

Z.ai lanceert GLM-4.7 ontworpen voor praktische ontwikkelomgevingen en vestigt zich als "China's OpenAI"

PEKING, 27 dec. 2025 /PRNewswire/ — Op 22 december heeft Z.ai GLM-4.7 uitgebracht, de nieuwste versie van zijn GLM grote taalmodelfamilie. GLM-4.7 is ontworpen om meerstapstaken in productie uit te voeren en richt zich op ontwikkelomgevingen met langdurige taakcycli, veelvuldig gereedschapsgebruik en hogere eisen aan stabiliteit en consistentie.

Gebouwd op GLM-4.6 met Focus op Complexe Ontwikkeling

GLM-4.7 is een stap vooruit ten opzichte van GLM-4.6 met verbeterde functies voor ontwikkelaars. Het biedt robuuste ondersteuning voor codeerworkflows, complexe redenering en agentische uitvoering, waardoor het model meer consistentie heeft, zelfs bij lange meerstapsaken, evenals stabieler gedrag bij interactie met externe tools. Voor ontwikkelaars betekent dit dat GLM-4.7 een betrouwbaar hulpmiddel is voor dagelijkse productie.

De verbeteringen gaan verder dan technische prestaties. GLM-4.7 produceert ook natuurlijke en boeiende output voor conversatie-, schrijf- en rollenspelscenario's, waardoor GLM evolueert naar een samenhangend open-source systeem. 

Ontworpen voor Echte Ontwikkelworkflows

Verwachtingen over modelkwaliteit zijn een centraal aandachtspunt geworden voor ontwikkelaars. Naast het volgen van prompts of plannen, moet een model de juiste tools aanroepen en consistent blijven bij lange meerstapsaken. Naarmate taakcycli langer worden, kunnen zelfs kleine fouten verstrekkende gevolgen hebben, waardoor de debuggingkosten stijgen en leveringstijdlijnen worden opgerekt. GLM-4.7 is getraind en geëvalueerd met deze realistische beperkingen in gedachten.

In meertalige programmeer- en terminalgebaseerde agentomgevingen vertoont het model meer stabiliteit over uitgebreide workflows. Het ondersteunt al "denk-dan-handel" uitvoeringspatronen binnen veelgebruikte codeerframeworks zoals Claude Code, Cline, Roo Code, TRAE en Kilo Code, wat beter aansluit bij hoe ontwikkelaars complexe taken in de praktijk benaderen.

Z.ai heeft GLM-4.7 geëvalueerd op 100 echte programmeertaken in een Claude Code-gebaseerde ontwikkelomgeving, met frontend-, backend- en instructievolgende scenario's. Vergeleken met GLM-4.6 levert het nieuwe model duidelijke winsten op in taakvoltooiingspercentages en gedragsconsistentie. Dit vermindert de noodzaak voor herhaalde promptaanpassingen en stelt ontwikkelaars in staat zich directer op levering te concentreren. Vanwege de uitstekende resultaten is GLM-4.7 geselecteerd als standaardmodel voor het GLM Coding Plan.

Betrouwbare Prestaties bij Gereedschapsgebruik en Coderingsbenchmarks

Over een reeks codegeneratie- en gereedschapsgebruiksbenchmarks levert GLM-4.7 competitieve algehele prestaties. Op BrowseComp, een benchmark gericht op webgebaseerde taken, scoort het model 67,5. Op τ²-Bench, die interactief gereedschapsgebruik evalueert, behaalt GLM-4.7 een score van 87,4, het hoogste gerapporteerde resultaat onder publiek beschikbare open-source modellen tot nu toe.

In belangrijke programmeerbenchmarks waaronder SWE-bench Verified, LiveCodeBench v6 en Terminal Bench 2.0 presteert GLM-4.7 op of boven het niveau van Claude Sonnet 4.5, terwijl het duidelijke verbeteringen toont ten opzichte van GLM-4.6 over meerdere dimensies.

Op Code Arena, een grootschalig blind evaluatieplatform met meer dan een miljoen deelnemers, staat GLM-4.7 op de eerste plaats onder open-source modellen en houdt het de toppositie onder modellen ontwikkeld in China.

Meer Voorspelbare en Controleerbare Redenering

GLM-4.7 introduceert meer fijnmazige controle over hoe het model redeneert door langlopende en complexe taken. Naarmate kunstmatige intelligentiesystemen integreren in productie-workflows, zijn dergelijke mogelijkheden een toenemend aandachtspunt geworden voor ontwikkelaars. GLM-4.7 kan consistentie handhaven in zijn redenering over meerdere interacties, terwijl het ook de diepte van redenering aanpast volgens de complexiteit van de taak. Dit maakt zijn gedrag binnen agentische systemen in de loop van de tijd voorspelbaarder. Bovendien verkent Z.ai actief nieuwe manieren om AI op schaal in te zetten terwijl het de GLM-serie ontwikkelt en verfijnt.

Verbeteringen in Front-end Generatie en Algemene Mogelijkheden

Naast functionele correctheid toont GLM-4.7 een merkbaar volwassener begrip van visuele structuur en gevestigde front-end ontwerpconventies. Bij taken zoals het genereren van webpagina's of presentatiemateriaal heeft het model de neiging lay-outs te produceren met meer consistente afstanden, duidelijkere hiërarchie en meer coherente styling, waardoor de noodzaak voor handmatige revisies later wordt verminderd.

Tegelijkertijd hebben verbeteringen in conversatiekwaliteit en schrijfstijl het scala aan gebruiksscenario's van het model verbreed. Deze veranderingen maken GLM-4.7 geschikter voor creatieve en interactieve toepassingen.

Ecosysteemintegratie en Open Toegang

GLM-4.7 is beschikbaar via de BigModel.cn API en is volledig geïntegreerd in de Z.ai full-stack ontwikkelomgeving. Ontwikkelaars en partners in het mondiale ecosysteem hebben het GLM Coding Plan al in hun tools opgenomen, waaronder platforms zoals TRAE, Cerebras, YouWare, Vercel, OpenRouter en CodeBuddy. Adoptie door ontwikkelaarstools, infrastructuuraanbieders en applicatieplatforms suggereert dat GLM-4.7 wordt gebruikt in bredere technische en productcontexten.

Z.ai wordt het "Eerste Grote-Model Beursgenoteerde Bedrijf ter Wereld"

Z.ai heeft aangekondigd dat het streeft ernaar het eerste beursgenoteerde grote-model bedrijf ter wereld te worden door te noteren op de Hong Kong Stock Exchange. Deze geplande beursgang markeert de eerste keer dat kapitaalmarkten een beursgenoteerd bedrijf verwelkomen waarvan de kernactiviteit de onafhankelijke ontwikkeling van AGI-basismodellen is.

In 2022, 2023 en 2024 verdiende Z.ai respectievelijk 57,4 miljoen RMB (~8,2 miljoen USD), 124,5 miljoen RMB (~17,7 miljoen USD) en 312,4 miljoen RMB (~44,5 miljoen USD) aan omzet. Tussen 2022 en 2024 bereikte het samengestelde jaarlijkse omzetgroeipercentage (CAGR) van het bedrijf 130%. De omzet voor de eerste helft van 2025 bedroeg 190 miljoen RMB (~27 miljoen USD), wat drie opeenvolgende jaren van verdubbelde omzet markeert. Tijdens de rapportageperiode was de grote-model-gerelateerde activiteit van het bedrijf de belangrijkste groeimotor.

GLM-4.7 Beschikbaarheid

Standaardmodel voor Coding Plan: https://z.ai/subscribe

Probeer het nu: https://chat.z.ai/

Weights: https://huggingface.co/zai-org/GLM-4.7

Technische blog: https://z.ai/blog/glm-4.7

Over Z.ai

Opgericht in 2019, is Z.ai voortgekomen uit de commercialisering van technologische prestaties aan Tsinghua University. Het team zijn pioniers in het lanceren van grote-modelonderzoek in China. Door gebruik te maken van zijn originele GLM (General Language Model) pre-training architectuur, heeft Z.ai een full-stack modelportfolio gebouwd dat taal, code, multimodaliteit en intelligente agenten omvat. De modellen zijn compatibel met meer dan 40 binnenlands geproduceerde chips, waardoor het een van de weinige Chinese bedrijven is waarvan het technische roadmap gelijke tred houdt met wereldwijde topnormen.

Cision Bekijk originele inhoud om multimedia te downloaden:https://www.prnewswire.com/news-releases/zai-releases-glm-4-7-designed-for-real-world-development-environments-cementing-itself-as-chinas-openai-302649821.html

BRON Z.ai

Marktkans
Sleepless AI logo
Sleepless AI koers(AI)
$0.03917
$0.03917$0.03917
+0.90%
USD
Sleepless AI (AI) live prijsgrafiek
Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met service@support.mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.