KDD 2024智谱AI展示最新基座大模型GLM-4-Plus,清言上线视频通话功能

工具推荐 1725071358更新

0

      在KDD国际数据挖掘与知识发现大会上,智谱AI展示了其最新的基座大模型GLM-4-Plus,该模型在语言理解、指令遵循、长文本处理等方面性能得到全面提升,并保持了国际领先水平。

      GLM-4-Plus采用了创新技术如PPO,显著提升了在数学、编程算法等推理任务上的表现,并更好地反映了人类偏好。此外,智谱AI还宣布了清言app的全新升级,引入了国内首个面向C端用户开放的视频通话功能,该功能将于8月30日上线,首批面向部分用户开放,并逐步扩大使用范围。

      同时,智谱AI还发布了其他几个模型更新,包括文生图模型CogView-3-Plus具备与当前最优的 MJ-V6 和 FLUX 等模型接近的性能,图像/视频理解模型GLM-4V-Plus具备基于时间感知的视频理解能力,该模型将上线开放平台,并成为国内首个通用视频理解模型 API 。视频生成模型CogVideoX的5B版本开源,后者在性能上进一步增强,成为当前开源视频生成模型中的优选。智谱AI的开源模型累计下载量已突破2000万次,为开源社区做出了重要贡献。

      ▲ 生图模型CogView-3-Plus 图片示例

      智谱AI致力于推动AI技术的普惠,8月27日,宣布GLM-4-Flash模型完全免费,用户可以通过调用该模型快速、免费地构建专属模型和应用。

      GLM-4-Flash模型特别适合需要快速响应的简单任务。它支持多轮对话、网页浏览、Function Call和长文本推理,覆盖了包括中文、英语、日语、韩语、德语等在内的26种语言。在技术层面,GLM-4-Flash通过自适应权重量化、并行化、批处理策略和投机采样等方法优化了运行效率,显著降低了推理成本。预训练阶段采用大语言模型筛选数据,获得了超过10TB的高质量多语言数据,是ChatGLM3-6B模型的三倍以上。同时,FP8技术的应用大幅提升了预训练效率。

      在性能方面,GLM-4-Flash在逻辑推理能力测试中表现出色,生成速度达到72.14token/s(约115字符/s),仅次于GPT-3.5-turbo。此外,模型还具备实时网页检索能力,可快速访问天气、新闻等信息,其函数调用能力与GPT-4相当。此外,智谱AI还提供了模型微调功能,帮助用户将GLM-4-Flash模型更好地适配到各种应用场景中。