项目简介
ChatGLM-6B是一个开源的对话语言模型,基于GLM架构,拥有62亿参数。该项目结合了模型量化技术,支持用户在消费级的显卡上进行本地部署。ChatGLM-6B针对中文问答和对话进行了大量训练和优化,能生成符合人类偏好的回答。
项目的主要特性和功能
- 语言模型:基于GLM架构,具备62亿参数,支持中英双语交流。
- 模型量化:支持FP16、INT8和INT4量化,最低只需6GB显存即可运行。
- 本地部署:可在消费级显卡上本地部署,无需依赖云服务。
- 中文优化:针对中文问答和对话进行专门优化,回答流畅且符合人类偏好。
- 多样Demo:提供命令行和网页版的演示程序,方便用户与模型交互。
安装使用步骤
- 硬件准备:确保计算机的GPU显存足够支持模型本地部署。
- 环境安装:安装Python环境,同时安装
transformers
和gradio
等必要的依赖库。 - 代码运行:运行
web_demo.py
或cli_demo.py
代码文件,启动网页版或命令行版演示程序。 - 模型部署:若有需要,可按照指南将模型部署到本地,用于自定义开发和集成。
注意事项
由于ChatGLM-6B模型容量较小,其能力存在一定限制,可能会出现事实性错误、生成有害或偏见内容,上下文能力也相对较弱,使用前请了解这些局限性。
协议和引用
- 代码遵循Apache - 2.0 License开源协议。
- ChatGLM-6B模型的使用需遵循Model License。
- 若项目对您的研究或工作有帮助,请考虑引用相关论文。
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】