GLM-4.7-Flash开源、免费

今天,GLM-4.7-Flash正式发布并开源。

GLM-4.7-Flash是一个混合思考模型,总参数量为30B,激活参数量为3B,作为同级别SOTA模型,为轻量化部署提供了一个兼顾性能与效率的新选择。

即日起,GLM-4.7-Flash将替代GLM-4.5-Flash,在智谱开放平台BigModel.cn上线,并供免费调用。

小而强

在SWE-bench Verified、τ²-Bench等主流基准测试中,GLM-4.7-Flash的综合表现超过gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507,在相同和近似尺寸模型系列中取得开源SOTA分数。

在内部的编程实测中,GLM-4.7-Flash在前、后端任务上表现出色。在编程场景之外,我们也推荐大家在中文写作、翻译、长文本、情感/角色扮演等通用场景中体验GLM-4.7-Flash。

GLM-4.7-Flash开源、免费

开始使用

API接入

体验中心:https://bigmodel.cn/trialcenter/modeltrial/text?modelCode=glm-4.7-flash

使用指南:https://docs.bigmodel.cn/cn/guide/models/free/glm-4.7-flash

接口文档:https://docs.bigmodel.cn/api-reference/模型-api/对话补全

上一代免费语言模型GLM-4.5-Flash将于2026年1月30日下线,请您及时将模型编码更新为最新版本。GLM-4.5-Flash正式下线后,相关请求将会自动路由至GLM-4.7-Flash。

开源部署

Hugging Face:https://huggingface.co/zai-org/GLM-4.7-Flash

魔搭社区:https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash

广告也精彩
 
老罗爱折腾
  • 版权声明 本文源自 智谱老罗爱折腾 整理 发表于 2026 年 1 月 20 日 10:50:36
  • 转载请务必保留本文链接:https://www.130510.com/2345.html
匿名

发表评论

匿名网友
:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:
确定

拖动滑块以完成验证