--- license: GLM-4 license_name: glm-4-9b license_link: LICENSE pipeline_tag: text-generation tags: - chatglm - gptq - int4 - 量化修复 - vLLM --- # GLM-4-9B-Chat-GPTQ-Int4-量化修复 原模型 [ZhipuAI/glm-4-9b-chat](https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat) ### 【模型更新日期】 ``` 2024-06-05 ``` ### 【模型大小】 `6.2GB` ### 【介绍】 似乎需要确保flash attention的安装 GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。 在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出较高的性能。 除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理(支持最大 128K 上下文)等高级功能。 本代模型增加了多语言支持,支持包括日语,韩语,德语在内的 26 种语言。我们还推出了支持 1M 上下文长度(约 200 万中文字符)的模型。 [更多详情...](https://www.modelscope.cn/models/ZhipuAI/glm-4-9b-chat/summary) ### 【量化修复】 调优了现有 `AWQ` 与 `GPTQ` 量化算法的量化策略。带有`量化修复`标签的`Int3`模型,可以比肩默认`AWQ`与`GPTQ`算法的`Int8`模型的能力。 1. 量化修复可以极大减少模型的`1.乱吐字`、`2.无限循环`、`3.长文能力丢失`等量化损失造成的模型不可用的情况。 2. 调优后的量化模型,`AWQ`与`GPTQ`模型在能力上没有表现出明显区别。同时考虑到`GPTQ`的`vLLM`引擎的并发推理效率最好,所以不再制作`AWQ`模型。 3. 待工作完成后补充... ### 【同期量化修复模型】 待工作完成后补充... ### 【模型下载】 ```python from modelscope import snapshot_download model_dir = snapshot_download('tclf90/模型名', cache_dir="本地路径") ``` ### 【[vLLM](https://github.com/vllm-project/vllm)推理(目前仅限Linux)】 #### 1. Python 简易调试 待工作完成后补充... #### 2. 类ChatGPT RESTFul API Server ``` >>> python -m vllm.entrypoints.openai.api_server --model 本地路径/tclf90/模型名称 ```