我是个新手。在2022年底,我尝试在树莓派上运行llama.cpp,但速度非常慢。
正如标题所问,有没有什么模型推荐我可以微调并在树莓派上运行。如果能处理编程相关任务,那就更好了。
讨论总结
本次讨论主要集中在如何在Raspberry Pi 4 4GB上运行和微调适合编程任务的模型。作者在2022年末尝试过在Raspberry Pi上运行llama.cpp,但发现速度非常慢。现在寻求新的模型推荐,特别是那些能够执行编程任务的模型。评论者推荐了Qwen和Phi3两个模型,并讨论了它们的优缺点,包括是否适合在Raspberry Pi上运行以及如何进行微调。讨论中还涉及了模型的性能优化和技术细节。
主要观点
- 👍 在Raspberry Pi上运行llama.cpp速度非常慢
- 支持理由:作者在2022年末的实际体验证明了这一点。
- 反对声音:无。
- 🔥 推荐使用Qwen和Phi3模型
- 正方观点:Qwen和Phi3可能在Raspberry Pi上运行更快,适合微调和执行编程任务。
- 反方观点:无。
- 💡 微调Phi3需要配备特定GPU的计算机
- 解释:Phi3-mini的参数较少,因此更容易进行微调,但需要Nvidia、Amd或Intel GPU的计算机。
金句与有趣评论
- “😂 You said you tried llama.cpp in late 2022 while it was released in March of the following year. Please share your time machine with us ;)”
- 亮点:幽默地指出了作者时间上的错误,增加了讨论的趣味性。
- “🤔 No dumb question at all ;) Phi-3-mini only has 3.8 B parameters so it’s easier to fine tune. (Less vram needed)”
- 亮点:鼓励性的回答,解释了Phi3-mini的微调优势。
情感分析
讨论的总体情感倾向积极,主要分歧点在于模型的选择和性能优化。评论者对新技术表现出浓厚的兴趣和兴奋,讨论氛围友好且技术导向。
趋势与预测
- 新兴话题:可能会有更多关于如何在低功耗设备上运行和微调模型的讨论。
- 潜在影响:对嵌入式系统和边缘计算领域可能产生积极影响,推动更多适合小型设备的模型开发。
感谢您的耐心阅读!来选个表情,或者留个评论吧!