昨日,智谱 GLM 团队介绍了新一代基座大模型 GLM-4-Plus,这是智谱全自研 GLM 大模型的最新版本,主要更新如下:
- 语言基座模型 GLM-4-Plus:在语言理解、指令遵循、长文本处理等方面性能得到全面提升,保持了国际领先水平。
- 文生图模型 CogView-3-Plus:具备与当前最优的 MJ-V6 和 FLUX 等模型接近的性能。
- 图像/视频理解模型 GLM-4V-Plus:具备更强的图像理解能力,并具备基于时间感知的视频理解能力。该模型将上线开放平台(bigmodel.cn),并成为国内首个通用视频理解模型 API。
- 视频生成模型 CogVideoX:在发布并开源 2B 版本后,5B 版本也正式开源,其性能进一步增强,是当前开源视频生成模型中的最佳选择。
在 benchmark 对比中,语言文本能力方面,GLM-4-Plus 和 GPT4o 及 405B 参数量的 Llama3.1 相当。
清言 app 迎来「视频通话」功能,这也是国内首个面向 C 端开放的视频通话功能,跨越了文本模态、音频模态和视频模态,并具备实时推理的能力。