文章主题:清华大学, 知识工程, 数据挖掘, ChatGLM-6B

666AI工具大全,助力做AI时代先行者!

作者:Tommyvinny

购买理由

ChatGLM-6B是由我国清华大学的知识工程和数据挖掘团队开发的一款类似于ChatGPT的开源对话机器人。这款机器人的独特之处在于,它接受了大约1T个标识符的中英文训练,而且大部分都是中文,因此它非常适合在我国使用。

如果你有OpenAI的ID的话,而且你已经用的非常顺畅的话,可以不看了。

作为一名拥有8G显存显卡的用户,且使用Unraid作为NAS系统的 writer,我强烈推荐大家尝试一下这款工具。实际上,自从我开始使用它以来,我的工作效率得到了显著提升。以写一篇关于XXXX的心得为例,我可以更快地完成文章结构,从而将写作时间缩短至原来的两倍。此外,在进行对话式修改时,我也能够更加自如地调整文章内容,使其满足我的需求。同时,我还发现,在使用这款工具处理简单工作时,其便捷性也体现得非常出色。比如,当我需要撰写一篇关于XXXX的文章,或者制定一个项目计划并进行详细的阐述时,都可以通过输入该工具来快速完成。这样一来,不仅可以提高我的写作速度,还能保证文章的质量,让我能够更好地满足自己的需求。综上所述,我认为这款工具对于那些需要频繁进行写作、制定项目计划以及处理简单工作的人來說,是非常有帮助的。它的出现,让我们的工作变得更加高效,同时也提高了我们的工作质量。因此,我强烈推荐大家去尝试一下这款工具,相信你们一定会和我一样,对它爱不释手。

由于是在本机运行,没有敏感词,唯一限制你的就是模型的大小和显卡显存的大小。

注意NAS的内存大小,不要少于32G可用,都有独立显卡了,还在乎内存的耗电么?

ChatGLM-6B 是清华大学 KEG 实验室与智谱 AI 公司于 2023 年共同训练的语言模型,是 GLM-130B 的升级版。该模型的预训练任务包括中文问答、中文文本生成、中文文本分类等,适用于多种自然语言处理任务。ChatGLM-6B 在中文问答方面表现出色,能够对用户的问题和要求提供适当的答复和支持。此外,它还可以用于中文文本生成、翻译、摘要、情感分析等任务,具有广泛的应用前景。

在GitHub上,有关ChatGLM-6B的开源项目公开信息显示,完整的版本在进行推理时需要13GB的显存,然而,其INT4量化版本却能仅需6GB的显存就能正常运行。这对于个人本地的部署而言,无疑是一个极大的优点。

以下是部署docker添加方式。

名称:chatglm-6b

存储库:mkaliez99/chatglm-6b:1.1.0

额外参数:–runtime=nvidia

变量 名称 显卡调用 键

ChatGLM-6B:一款适合国内使用的开源对话机器人

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!