Qwen/QVQ - 72B - Preview模型在Hugging Face平台
[围绕Qwen/QVQ - 72B - Preview展开讨论,包含对模型大小的质疑、对模型表现的惊叹、对运行设备的探讨以及一些资源分享等内容,整体氛围积极且充满探索性]
[围绕Qwen/QVQ - 72B - Preview展开讨论,包含对模型大小的质疑、对模型表现的惊叹、对运行设备的探讨以及一些资源分享等内容,整体氛围积极且充满探索性]
[Aider发布新的代码编辑基准测试(Polyglot基准测试涵盖6种语言)引发讨论,涉及JavaScript题目难度、模型表现、Qwen相关情况、C#被忽视、基准测试饱和等话题,整体讨论氛围热烈且话题多元。]
[原帖感慨LLMs发展迅速,评论者们从不同角度如自身应用体验、技术限制、发展对比等表达对LLMs发展的看法,整体氛围积极乐观]
[围绕当前14b左右最佳模型展开讨论,涉及多种模型推荐、比较以及性能评价,整体氛围积极交流]
[原帖发布llama.cpp支持Llama - 3_1 - Nemotron - 51B的消息,评论者有表达兴奋、感谢的,也有提及模型相关技术更新、开发、特性、比较等内容,还有一些如硬件需求、首次使用遇到问题等其他话题的讨论]
[原帖询问微软宣称周末于HF发布的Phi - 4未发布且无消息,评论围绕Phi - 4的发布情况展开,有调侃、推测未发布原因、提供相关信息等多种观点,整体氛围较疑惑且夹杂失望情绪]
[原帖对2025年10月可能出现8B参数达到GPT - 4o等级的LLM进行预测,评论者们从模型性能、参数、发展趋势、预训练等多方面展开讨论,有赞同、质疑等不同态度,整体氛围积极且充满探索性]
[围绕Drummer"s Anubis 70B v1模型展开讨论,包括模型性能、评估、角色扮演方面的观点,还有关于智能手机运行模型以及对模型命名政策、是否支持ERP的疑问等内容,整体氛围比较积极多元]
[关于phi4在哪里的问题,讨论涵盖phi4已发布但未在Hugging Face正式发布、其在微软Azure AI Foundry发布、性能表现、运行状态、官方不上传原因等多方面内容,整体氛围较积极且充满技术探讨,但也有个别负面态度]
[围绕Llama 3.3 (70B) instruct ablated版本展开讨论,涉及模型的能力、审查相关、版本差异等多方面话题,讨论氛围较为理性且有探索性]