原贴链接

我刚刚在Github发布了Kiln的一个更新版本,它允许你从Deepseek R1(或者任何推理模型/思维链)中提炼出一个自定义的微调模型。整个过程只需要大约30分钟,包括生成一个合成训练数据集。这不需要任何编码或者命令行操作。

附上的视频展示了这个过程。

如果你想自己尝试的话,我们的文档有一个[提炼R1的指南](https://docs.getkiln.ai/docs/guide - train - a - reasoning - model)。

这里是[Github仓库](https://github.com/Kiln - AI/Kiln),包含所有的源代码。

我还想特别感谢r/localllama,他们对我上一个帖子给予了很棒的反响。这真的激励我继续开发。我已经做了大约30项改进,并且构建了一些功能需求,这些需求来自于通过r/localllama发现它的人。

Kiln在本地运行,我们永远无法访问你的数据集。如果你有本地训练的GPU,Unsloth是完全支持的。如果你愿意,你也可以使用像Fireworks和OpenAI这样的训练服务(数据会用你的密钥发送给他们,我们仍然永远无法访问)。

如果有人想尝试Kiln,这里是[GitHub仓库](https://github.com/Kiln - AI/Kiln),[文档在这里](https://github.com/Kiln - AI/Kiln)。开始使用非常容易——只需一键安装就能设置并运行。

我很想得到任何反馈/想法。这对我改进Kiln真的很有帮助。谢谢!

Kiln AI演示 - 提炼Deepseek R1

讨论总结

原帖作者分享了Kiln AI在Github上的更新,能在30分钟内从Deepseek R1等蒸馏出定制微调模型,且无需编码或命令行操作。评论者们的讨论围绕这个工具展开,有的对工具制作数据集的作用表示认可并期待好的数据集产生,有的针对多轮/长上下文数据集、离线操作、运行成本等方面提出疑问,还有人对原帖中的小失误觉得有趣,回答者针对疑问进行了解答。

主要观点

  1. 👍 认可工具对制作数据集的作用并期待有人制作好的数据集。
    • 支持理由:认为这个用于制作数据集的工具看起来很不错。
    • 反对声音:无
  2. 🔥 关心多轮/长上下文数据集相关操作的可行性。
    • 正方观点:多轮/长上下文数据集的相关情况对工具的实用性有影响。
    • 反方观点:无
  3. 💡 对Kiln的初步印象是看起来很惊人。
    • 支持理由:工具的功能和效果看起来不错。
    • 反方观点:无
  4. 🤔 不清楚是否能完全离线进行相关操作。
    • 支持理由:想要知道是否可以完全本地操作,例如在笔记本电脑和训练服务器上。
    • 反方观点:无
  5. 😎 对工具表示期待,希望在需要时能使用。
    • 支持理由:工具看起来很酷,对微调模型可能有帮助。
    • 反方观点:无

金句与有趣评论

  1. “😂 Many_Obligation_3737:idk why but i found you calling llama lamda at 3:01 funny”
    • 亮点:这是一个比较轻松有趣的发现,从原帖的视频内容中找到趣味点。
  2. “🤔 This looks pretty great for making datasets!”
    • 亮点:直接表达对工具制作数据集功能的认可。
  3. “😎 Looks cool. Hopefully when I want to finetune a model, I ’ll find this tool :D”
    • 亮点:体现出对工具在微调模型方面的期待。
  4. “💡 I hope with a community effort we can get some varied synthetic datasets for finetuning.”
    • 亮点:表达对社区制作数据集的希望。
  5. “👍 Yup - it should work totally offline if you use Ollama for inference. No signup needed.”
    • 亮点:针对离线运行的疑问给出了肯定答复。

情感分析

总体情感倾向是积极的。主要分歧点较少,大家更多是在对工具的功能、使用等方面进行提问和探讨。可能的原因是原帖介绍的是一个新的工具,大家都处于了解和探索的阶段,没有太多矛盾观点。

趋势与预测

  • 新兴话题:可能会有更多关于模型微调后的实际应用情况以及与其他类似工具比较的讨论。
  • 潜在影响:如果这个工具得到更多关注和完善,可能会对模型训练领域的本地操作、成本效益等方面产生积极影响,促进更多人尝试自制推理模型。

详细内容:

《关于 Kiln AI 训练工具的热门讨论》

在 Reddit 上,有一则关于 Kiln AI 的帖子引发了广泛关注。该帖称在 Github 上发布了 Kiln 的更新,能让用户在约 30 分钟内从 Deepseek R1 或其他推理模型中提炼出定制的微调模型,包括生成合成训练数据集,无需编码和命令行操作,并附上了相关视频和链接。此帖获得了众多点赞和评论。

讨论的焦点集中在多个方面。有人对其制作数据集的能力表示称赞,同时也提出了一系列问题,比如能否处理多轮/长上下文数据集,如何生成提示,是否能包含系统提示,以及如何处理指令格式等。

有用户表示:“对于多轮/长上下文数据集,现在是针对单轮数据集,多轮合成数据集还在计划中。”对于提示生成,“我们有一些元提示,会结合任务的提示/要求,然后让其生成多样且相关主题的主题树或实际样本输入。”关于系统提示,“这包括系统提示,创建任务时可进行设置,还有很酷的自动提示选项。”对于指令格式,“支持许多常见的格式,有下拉选项供选择。”

还有用户关心能否完全离线运行,得到回复是若使用 Ollama 进行推理则可以完全离线,无需注册。也有人好奇微调模型的运行成本,回复称微调模型与基础模型大小相同,速度相同。

文章的核心问题在于 Kiln AI 工具的功能是否能满足用户需求,以及其在实际应用中的效果和成本如何。通过这些讨论,我们能更深入地了解这一工具的特点和潜在价值。