https://v.redd.it/5vscfvr5blld1/DASH_1080.mp4?source=fallback
讨论总结
本次讨论主要集中在Jan软件的最新更新,特别是对Llama 3.1和Gemini 2的支持以及稳定性改进。用户对Jan的稳定性和性能提升表示赞赏,同时也提出了一些功能请求,如增加对ollama和自定义模型的支持,以及改进用户体验的建议。讨论中还涉及了Jan的开源性质、技术支持和对未来更新的期待。总体上,讨论氛围积极,用户对Jan的未来发展持乐观态度。
主要观点
- 👍 Jan的稳定性得到了显著提升
- 支持理由:团队专注于提升Jan的稳定性,而非推出新功能。
- 反对声音:无
- 🔥 Jan现在支持Llama 3.1和Gemini 2
- 正方观点:用户对新版本的支持表示欢迎。
- 反方观点:无
- 💡 请求增加对ollama和自定义模型的支持
- 支持理由:用户迫切需要这些功能以扩展Jan的应用范围。
- 反对声音:无
- 🌟 Jan是一个优秀的开源前端工具
- 支持理由:用户赞赏Jan的开源性质和与TabbyAPI、exllamav2的结合使用。
- 反对声音:无
- 🚀 团队计划不久后发布更多好消息
- 支持理由:用户对未来的更新和改进充满期待。
- 反对声音:无
金句与有趣评论
- “😂 Please ollama and custom model/provider support I beg!”
- 亮点:表达了用户对新功能的迫切需求。
- “🤔 We’ve been focusing on improving Jan’s stability, rather than shipping new features over the past few weeks.”
- 亮点:揭示了团队在稳定性方面的努力。
- “👀 Jan is the best! Thanks for the hard work on it!”
- 亮点:用户对Jan的支持和感谢。
情感分析
讨论的总体情感倾向积极,用户对Jan的稳定性和性能提升表示赞赏,并对未来的更新充满期待。主要的分歧点在于对新功能的需求,如增加对ollama和自定义模型的支持。用户对Jan的开源性质和技术支持也表示满意。
趋势与预测
- 新兴话题:对ollama和自定义模型的支持可能会成为未来讨论的热点。
- 潜在影响:Jan的稳定性和新功能支持将进一步提升用户体验,增强其在市场上的竞争力。
详细内容:
标题:Jan 迎来重大更新,引发社区热烈讨论
最近,Reddit 上关于 Jan 的一个帖子引发了众多关注。该帖子的标题为“Jan finally supports Llama 3.1 and Gemma 2 (with stability improvements)”,并附上了相关视频链接https://v.redd.it/5vscfvr5blld1/DASH_1080.mp4?source=fallback 。此帖获得了大量的点赞和众多的评论,大家主要围绕着 Jan 的新功能、稳定性改进以及未来发展方向展开了热烈讨论。
在讨论中,有人表示:“我们一直在专注于提升 Jan 的稳定性,而非过去几周的新功能推送。在最新的版本中,我们在性能方面取得了扎实的进步,比如升级了推理引擎以实现更好的表现。”还有人兴奋地说道:“终于等到本地 LLM 的稳定性提升了,迫不及待要尝试!”
有人询问是否有对 Ollama 集成和更简单的现有本地模型库模型的更新。开发人员回应称很快会有好消息。
有人提出了一系列对于 Jan 的改进建议,比如“可定制的系统提示预设,并能设置为默认”“请求失败时能够重新生成的选项”“针对模型的多个网络配置文件”“为模型状态提供指示灯”等。开发人员不仅对这些建议表示感谢,还给出了在 GitHub 上跟踪处理进度的相关链接。
有人好奇地问道:“Jan 支持视觉模型吗?”得到的回答是“目前还不支持。”
有人将 Jan 与 LM Studio 进行比较,询问使用 Jan 的原因,有人回应称 Jan 是开源的,这一点很重要,而且使用起来更简单。
有人询问是否计划在 Flathub 上推出 Linux 版本,得到的回复是在待办事项中,但可能需要一些时间。
还有人提出了自己对 Jan 的期望,比如更好地支持现有的 GGUF 模型、新的量化类型、更便捷的提示和系统消息切换方式等。开发人员表示正在努力改进相关方面。
总之,这次关于 Jan 的讨论展现了用户对其的关注和期待,同时也反映出了当前存在的一些问题和未来发展的方向。相信在大家的共同关注和努力下,Jan 会越来越好。
感谢您的耐心阅读!来选个表情,或者留个评论吧!