Hugging Face团队最近更新了HuggingChat上的模型列表。现在你可以免费尝试以下模型,并使用它们创建助手:
- Qwen/Qwen2.5-72B-Instruct
- meta-llama/Llama-3.2-11B-Vision-Instruct(支持视觉功能!)
- mistralai/Mistral-Nemo-Instruct-2407
- NousResearch/Hermes-3-Llama-3.1-8B
- microsoft/Phi-3.5-mini-instruct
我们还提供了以下支持工具调用的模型:
- meta-llama/Meta-Llama-3.1-70B-Instruct
- CohereForAI/c4ai-command-r-plus-08-2024
你希望在HuggingChat上看到其他模型吗?欢迎告诉我们,我们一直在努力展示社区最感兴趣的模型!
讨论总结
HuggingChat最近更新了其模型列表,新增了多个强大的模型,如Llama 3.2、Qwen、Hermes 3等,引发了用户的广泛关注和讨论。主要话题集中在建议引入Jamba Mini和LongWriter-glm4-9b模型,探讨其性能和适用性。此外,用户对工具调用功能的具体操作存在疑问,并对HuggingChat的技术实现进行了深入探讨。整体氛围积极,用户对模型的性能和实用性表现出浓厚兴趣。
主要观点
- 👍 引入Jamba Mini模型
- 支持理由:在256K上下文中表现优异,幻觉率低。
- 反对声音:技术支持和授权问题需解决。
- 🔥 推荐LongWriter-glm4-9b模型
- 正方观点:能一次性生成超10,000字内容,适合硬件强大的公司。
- 反方观点:讨论较少,具体反对意见不明确。
- 💡 工具调用功能疑问
- 用户对Llama模型调用FLUX的具体操作不理解,希望获得更清晰的解释。
- 🛠 技术实现探讨
- 用户探讨HuggingChat的后端技术,确认使用text-generation-inference支持视觉模型。
- 💰 成本效益分析
- 用户赞赏Hermes 3 8B模型的多用途和低成本优势。
金句与有趣评论
- “😂 Jamba Mini! With the niche being fantastic performance at 256K, and apparently a very low hallucination rate for summarization.”
- 亮点:简洁概括了Jamba Mini的优势。
- “🤔 Hi, it would be really cool to have LongWriter-glm4-9b by thudm, which is trained to, and is capable of ‘generating 10,000+ words at once.’”
- 亮点:明确提出了对LongWriter-glm4-9b模型的期待。
- “👀 So I don’t understand why someone would need Llama to use flux? I thought flux itself can handle prompts?”
- 亮点:直接点出了对工具调用功能的不解。
情感分析
整体情感倾向积极,用户对HuggingChat的模型更新表示赞赏,并对新模型的性能和实用性表现出浓厚兴趣。主要分歧点在于技术实现的细节和特定模型的引入建议,部分用户对工具调用功能存在疑问。
趋势与预测
- 新兴话题:Jamba Mini和LongWriter-glm4-9b模型的引入可能成为后续讨论的热点。
- 潜在影响:新模型的加入和工具调用功能的优化可能进一步提升HuggingChat的用户体验和社区活跃度。
详细内容:
《HuggingChat 模型更新引发热议》
近日,Hugging Face 团队对 HuggingChat 上可用的模型进行了更新,这一消息在 Reddit 上引起了广泛关注,获得了众多用户的点赞和大量评论。帖子中提到,用户现在可以免费试用多种新模型来创建助手,包括Qwen/Qwen2.5-72B-Instruct、 meta-llama/Llama-3.2-11B-Vision-Instruct等,并指出部分模型已启用tool calling功能。同时,帖子还询问大家是否有其他希望在 HuggingChat 上看到的模型。
在讨论中,各种观点层出不穷。有人提出希望能看到 Jamba Mini 模型,认为其在 256K 时有出色的性能表现,且幻觉率低,比如用户 Downtown-Case-1755 就提到“https://github.com/hsiehjackson/RULER”和“https://huggingface.co/spaces/vectara/Hallucination-evaluation-leaderboard”这两个相关链接。也有人认为 Jamba Mini 模型缺乏 TGI 支持是个问题。还有用户提到希望能有 LongWriter - glm4 - 9b 模型,认为其能一次生成 10000 多个单词,很适合硬件条件好的公司。
关于工具调用功能,有人表示不太理解,比如 Many_SuchCases 问道:“我刚试用了工具调用功能,但不太明白。例如,它允许我使用 Llama 调用图像生成器,然后将提示转发给 FLUX.1-schnell。为什么需要 Llama 来使用 flux?也许您能帮我更好地理解它是如何工作的。我以为 flux 本身就能处理提示?”而 SensitiveCranberry 回应称可以直接调用 flux,在某些对话场景中如果想让 llama 在对话中生成一些图像可能会有用,更好的用例是调用代码解释器工具或 RAG 工具,并提供了相关博客文章的链接“https://huggingface.co/blog/community-tools”。
有人对使用的后端技术提出疑问,BobDerFlossmeister 表示:“看起来他们在底层使用 llama.cpp。他们如何运行其视觉模型,因为 llama.cpp 不支持它们?”SensitiveCranberry 回应称使用的是text-generation-inference作为后端,支持视觉模型,而不是 llama.cpp。
有人称赞这项服务,比如用户 Amgadoz 表示:“非常感谢这项服务。我每天都使用它,现在很少去使用封闭模型了。”并希望能提到每个模型的精度。
总之,此次 HuggingChat 的模型更新引发了用户们的热烈讨论,大家在期待更多优秀模型加入的同时,也对现有功能和技术细节进行了深入探讨。
感谢您的耐心阅读!来选个表情,或者留个评论吧!