所以我在我的数据集(https://huggingface.co/datasets/qingy2019/Natural - Text)上对Mistral Nemo 12B(基础版)进行了持续预训练。这是微调后的模型:https://huggingface.co/qingy2019/NaturalLM。实际上它听起来相当不错,这里是它的输出示例(粗体部分为提示词):**‘要了解计算机的历史,我们得追溯到1822年。查尔斯·巴贝奇刚刚创造了他所谓的‘差分机’,这是一种用于计算数字表格的机械装置。但他有一个更宏大的想法。他想要建造一台更强大的机器,能够解决任何数学问题。他称其为‘分析机’。它本能够将数字存储在穿孔卡片上,并且只需按下按钮就能进行计算。它有点像一个巨大的计算器。巴贝奇甚至设计出了一种‘程序员’,可以向分析机输入指令。但巴贝奇从未实现他的梦想,他没有资金,也没有技术。巴贝奇的愿景再过100年才成为现实。1936年,剑桥大学的年轻数学家艾伦·图灵写了一篇名为《论可计算数》的论文。在论文中,他描述了一种能够解决数学问题的简单机器。他称其为‘通用计算机器’。图灵的机器有点像巴贝奇的分析机,但要简单得多。它有一个中央处理器(CPU)、一个存储器以及一种输入和输出信息的方式。它可以被编程来执行一系列步骤,称为算法,并且可以一直运行直到得到解决方案。图灵的机器是现代计算机的先驱。1941年,英国政府委托艾伦·图灵带领的一组工程师建造一台能够破解德国恩尼格玛密码的机器。结果就是‘巨人’(Colossus),世界上第一台电子计算机。它是一台巨大的机器,占据了整个房间。它有1500个电子管、5000个电容器和1000个继电器。它太大了,以至于必须分部件建造,然后在现场组装。‘巨人’取得了巨大的成功。它能够在几分钟内破解恩尼格玛密码,而之前需要几个小时。‘巨人’如此成功,以至于英国政府决定建造更多。1944年,他们建造了‘巨人’Mark II,它比原版更大、更强大,能够在几秒内破解德国恩尼格玛密码。目前,它仍然是基础模型,我还没有找到合适的指令微调数据集,但如果对任何人有用的话,我就先把这个发布出来 :D
讨论总结
原帖分享了在特定数据集上对Mistral Nemo 12B进行连续预训练得到的模型,评论者主要对原帖作者的操作过程表示好奇,有人对原帖表示感谢与赞同,还有人针对模型训练的不同方面进行提问,例如连续微调是否按照特定指南进行、是否有指令调整经验等,也有人关注模型能否通过微调遵循语法规则,部分评论者对模型的故事创造力感兴趣并给出测试提示,还根据提示展示了模型目前在遵循指令方面的表现,整体氛围比较积极友好🧐
主要观点
- 👍 想要知道原帖作者的操作过程
- 支持理由:认为了解操作过程很有趣
- 反对声音:无
- 👍 认为原帖内容有用
- 正方观点:直接表达感谢,肯定原帖价值
- 反方观点:无
- ❓ 关注原作者在指令调整方面的经验
- [解释]:原帖提到在找合适的指令调整数据集,评论者由此询问
- 反对声音:无
- 🤔 关注AI能否通过微调遵循严格语法规则
- [解释]:原帖关于模型微调的分享引发对语法规则的思考
- 反对声音:无
- 🔥 对原帖内容表示感兴趣并提出用于测试故事创造力的提示
- [解释]:觉得原帖有趣,想进一步测试模型的故事创造力
- 反方观点:无
金句与有趣评论
- “😂 我很想知道你遵循的过程。(了解所有这些更有趣 :D)”
- 亮点:直接表达对原帖作者操作过程的好奇,且语气轻松
- “👍 FellowKidsFinder69: thanks that’s super usefull!”
- 亮点:简洁地表达对原帖内容的认可与感谢
- “❓ Have you ever instructed tuned anything before?”
- 亮点:针对原帖提到的未找到指令调整数据集,直接提问
- “🤔 Is it possible to fine tune an AI to force it to adhere to some strict grammar rules?”
- 亮点:从原帖模型微调引出对语法规则的关注
- “🔥 morbidSuplex:Interesting. Can you try these prompts? I use these to test for creativity in stories.”
- 亮点:表达对原帖兴趣并提出测试故事创造力的提示
情感分析
总体情感倾向是积极正面的。主要分歧点较少,大部分评论者都是在原帖基础上进行提问或者表达正面态度。可能的原因是原帖分享的是一个新的模型成果,大家处于探索和好奇的阶段,没有涉及到有争议性的话题😉
趋势与预测
- 新兴话题:模型在故事创造力方面的表现以及如何提高其遵循指令的能力可能会引发后续讨论。
- 潜在影响:如果模型在故事创造力和遵循指令方面能够得到改进,可能会对自然语言处理相关领域产生积极影响,例如在文本创作、智能问答等方面提高效率和质量。
详细内容:
《关于 NaturalLM 的热门讨论》
在 Reddit 上,有一则关于“NaturalLM - A Natural Sounding LLM”的帖子引起了广泛关注。该帖作者在 Mistral Nemo 12B(base)基础上进行了持续预训练,并分享了数据集链接https://huggingface.co/datasets/qingy2019/Natural-Text以及微调后的模型链接https://huggingface.co/qingy2019/NaturalLM。作者还展示了模型输出的一段示例,听起来效果不错。此帖获得了众多评论,大家纷纷就相关内容展开了热烈讨论。
讨论的焦点集中在多个方面。有人表示很想了解作者所遵循的过程,认为学习这些很有趣。还有人提供了训练时所参考的笔记本链接[Unsloth Fine - Tuning Notebook](https://colab.research.google.com/drive/1ef - tab5bhkvWmBOObepl1WgJvfvSzn5Q?usp = sharing#scrollTo = 2eSvM9zX_2d3)。有人询问这是否按照 rombodawgs 指南进行的连续微调,作者予以否认,但表示会去研究该指南。有人想知道能否通过微调让 AI 严格遵循语法规则。
有人分享了一些用于测试故事创造性的提示,作者也根据这些提示进行了尝试,但结果不尽如人意,作者表示目前模型在遵循指令方面还不太出色。
在这些讨论中,大家对于模型的训练方法、应用前景以及存在的不足等方面都发表了各自的看法。不过,也有一些共识,比如都对这一研究表现出了浓厚的兴趣,希望能看到更多的进展和优化。
总之,关于 NaturalLM 的讨论展现了大家对这一自然语言处理模型的关注和期待,相信未来会有更多的探索和改进。
感谢您的耐心阅读!来选个表情,或者留个评论吧!