ShareClaude计划的RWKV微调分支
项目的初心是,摆脱大公司的控制,建立所有人都能涩涩的本地大语言模型。
目前以7B 15G的全量微调模型为最佳效果,全面超过Claude-Slack版,略差于Claude2。
本项目完全依靠广大贡献者的聊天数据支持,还有不少匿名参与者提供专业卡,进行微调。
在此感谢他们的贡献。
我们目前已经基本结束了对Claude-Slack对话的收集,下一步计划主要围绕Claude2酒馆的对话收集展开。
如果你也希望参与这个项目的建设,欢迎加入ShareClaude交流群:839206500。
所有贡献者均有对模型的优先访问权,可以提前得到未发布的内测模型。