模型与技术 性能对比

是否有人测试过phi4?其性能如何?

[该讨论围绕phi4模型展开,大家从不同方面评价其性能,有正面肯定,也指出不足,整体氛围比较理性、客观]

 ·  · 
模型与技术 性能对比

小参数模型能否在各方面匹敌超大参数模型

[关于小型模型是否能在各方面与大型模型匹敌或超越大型模型展开讨论,涉及数据效率、模型性能、训练成本等多方面因素,整体氛围理性且充满探索性]

 ·  · 
模型与技术 新模型发布

根据LLM密集化规律,2025年10月或将出现8B参数的类GPT - 4o大模型

[原帖对2025年10月可能出现8B参数达到GPT - 4o等级的LLM进行预测,评论者们从模型性能、参数、发展趋势、预训练等多方面展开讨论,有赞同、质疑等不同态度,整体氛围积极且充满探索性]

 ·  · 
模型与技术 技术讨论

Tokenization并非LLMs的瓶颈

[原帖认为标记化不是LLMs的根本问题,评论者们从不同角度对原帖观点、研究内容、结论等进行质疑、讨论,氛围以理性探讨为主。]

 ·  · 
模型与技术 性能对比

2024年12月无审查大语言模型测试结果

[原帖发布2024年12月无审查LLM测试结果,评论者们围绕测试内容、模型特性、测试方式等展开讨论,氛围比较多元,有赞同、质疑等不同态度]

 ·  · 
模型与技术 技术讨论

OpenAI员工推文透露o1和o3架构信息

[OpenAI员工关于o1和o3架构的推文引发讨论,包括对模型推理技巧的好奇、X登录限制的吐槽、o3 - mini的技术分析以及对o1和o3模型替换的猜测等内容,讨论氛围较为理性和平和]

 ·  · 
模型与技术 技术讨论

QwQ模型如何进行如4692*2的计算?

[围绕QwQ模型如何进行如4692*2这样的计算展开讨论,包含多种观点如模型可能通过学习、记忆训练数据、利用神经网络特性等,总体氛围是积极探讨且充满技术分析]

 ·  · 
模型与技术 新模型发布

Drummer发布Anubis 70B v1:基于Llama 3.3 RP微调

[围绕Drummer"s Anubis 70B v1模型展开讨论,包括模型性能、评估、角色扮演方面的观点,还有关于智能手机运行模型以及对模型命名政策、是否支持ERP的疑问等内容,整体氛围比较积极多元]

 ·  · 
模型与技术 技术讨论

多轻型语言模型协作能否优于单个模型

[原帖提出将多个不笨的LLMs置于环境中“争论”是否比单个表现更好,评论者从不同角度发表观点,包括与已知方法比较、实验设想、类比人类等,整体氛围积极探讨且各抒己见]

 ·  · 
模型与技术 其他

模型数量多得令人不知所措

[原帖抱怨量化和微调变体太多难以找到适合脚本编写的模型,评论中有人提供相关网址、推荐模型、给出选择模型的思路,还涉及对微调模型的看法等内容,整体氛围较为积极互助。]

 ·  ·