ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。ChatGLM-6B 使用了和 ChatGLM 相同的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答。

成为VIP会员查看完整内容
134

相关内容

ChatGPT(全名:Chat Generative Pre-trained Transformer),美国OpenAI 研发的聊天机器人程序 [1] ,于2022年11月30日发布 。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文任务。 [1] https://openai.com/blog/chatgpt/
【ChatGPT系列报告】国内外大模型和AI应用梳理,40页ppt
专知会员服务
196+阅读 · 2023年5月22日
【ChatGPT系列报告】AIGC行业应用畅想,22页ppt
专知会员服务
150+阅读 · 2023年3月28日
【ChatGPT系列报告】GPT-4及ChatGPT相关应用梳理,33页ppt
专知会员服务
324+阅读 · 2023年3月19日
ChatGPT如何work的?最新《大型语言模型》综述,51页slides
专知会员服务
161+阅读 · 2023年2月28日
【ChatGPT系列报告】ChatGPT不断突破,AI驶入快车道
专知会员服务
135+阅读 · 2023年2月23日
ChatGPT 背后的“功臣”——RLHF 技术详解
专知会员服务
168+阅读 · 2023年2月21日
【ChatGPT系列报告】AIGC & ChatGPT 发展报告,27页ppt
专知会员服务
354+阅读 · 2023年2月18日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
阿里版ChatGPT就快来了
机器之心
4+阅读 · 2023年4月4日
开源双语千亿预训练模型GLM-130B 项目原作解读
机器之心
0+阅读 · 2022年9月5日
参数量1/50,Meta发布110亿参数模型,击败谷歌PaLM
机器之心
0+阅读 · 2022年8月18日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
Arxiv
0+阅读 · 2023年5月30日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【ChatGPT系列报告】国内外大模型和AI应用梳理,40页ppt
专知会员服务
196+阅读 · 2023年5月22日
【ChatGPT系列报告】AIGC行业应用畅想,22页ppt
专知会员服务
150+阅读 · 2023年3月28日
【ChatGPT系列报告】GPT-4及ChatGPT相关应用梳理,33页ppt
专知会员服务
324+阅读 · 2023年3月19日
ChatGPT如何work的?最新《大型语言模型》综述,51页slides
专知会员服务
161+阅读 · 2023年2月28日
【ChatGPT系列报告】ChatGPT不断突破,AI驶入快车道
专知会员服务
135+阅读 · 2023年2月23日
ChatGPT 背后的“功臣”——RLHF 技术详解
专知会员服务
168+阅读 · 2023年2月21日
【ChatGPT系列报告】AIGC & ChatGPT 发展报告,27页ppt
专知会员服务
354+阅读 · 2023年2月18日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
107+阅读 · 2020年12月19日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
7+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员