原贴链接

大家好,

我非常希望一个LLM能够掌握所有使用Blender的知识,以及如何为其编写Python脚本。

大多数LLM并没有在大量的Blender数据上进行训练…

我是否可以抓取数百个文档,并以某种方式将其整合到LLM的数据集中?我知道上下文长度会太大,无法在一次正常对话中使用。

感谢阅读!

讨论总结

本次讨论围绕如何通过训练大型语言模型(LLM)来掌握Blender的使用知识和编写Python脚本的能力展开。参与者探讨了数据整合、上下文长度、文档压缩等技术挑战,并提出了使用大上下文窗口的LLM、RAG方法、付费模型等解决方案。此外,讨论还涉及了Unreal Engine的比较和VR开发的应用,展示了技术的广泛应用前景。

主要观点

  1. 👍 希望LLM掌握Blender知识和Python脚本能力
    • 支持理由:通过抓取和整合Blender文档来训练LLM,以实现这一目标。
    • 反对声音:这种训练方法会导致上下文长度过大,不适合正常对话。
  2. 🔥 使用大上下文窗口的LLM处理压缩后的文档
    • 正方观点:将文档压缩成最不冗余的格式,使用具有大上下文窗口的LLM处理。
    • 反方观点:如果文档仍然太大,可以使用RAG方法。
  3. 💡 Mistral Large 2在编写Blender Python脚本方面表现出色
    • Mistral Large 2优于Llama 3.1 70B,如果模型在特定使用场景下存在不足,可以考虑使用RAG。

金句与有趣评论

  1. “😂 ieatdownvotes4food:rag it up son, ollama + open webui”
    • 亮点:提出了使用RAG方法和Ollama模型的有趣组合。
  2. “🤔 arthurwolf:Use a LLM to "compact" the documentation into the least redundant/most compact format possible.”
    • 亮点:强调了文档压缩的重要性,以适应LLM的上下文窗口。
  3. “👀 SeymourBits:I remember one of us fine-tuning Llama on Unreal documentation last year with good results.”
    • 亮点:分享了成功微调Llama模型的经验,为Blender文档训练提供了参考。

情感分析

讨论的总体情感倾向为积极探索和技术讨论。主要分歧点在于如何有效整合Blender文档数据以训练LLM,同时避免上下文长度过大的问题。参与者提出了多种解决方案,如文档压缩、使用大上下文窗口的LLM、RAG方法等,显示了对技术挑战的积极应对态度。

趋势与预测

  • 新兴话题:使用RAG方法和Ollama模型结合,以及Mistral Large 2在Blender Python脚本编写中的应用。
  • 潜在影响:这些技术的发展可能推动Blender和Python脚本编写的自动化,提高开发效率,特别是在VR开发和3D动画领域。