硬件与部署 性能对比

RTX 3090与Threadripper 3970X及256GB内存的LLM推理基准测试

[原帖分享特定硬件组合下的LLM推理基准测试结果,评论围绕硬件相关话题如PCIe节流、服务器电源,LLM技术相关如不同组件特性、推测性解码,还有对原帖的感谢认可、疑问建议等展开,整体氛围积极探讨为主。]

 ·  · 
硬件与部署 性能对比

AMD使用性能调查

[Reddit用户分享自己使用AMD产品的性能体验,包括不同型号在各种任务和软件下的表现,既有正面评价,也提到了一些问题,整体氛围较为理性和客观。]

 ·  · 
模型与技术 性能对比

小模型(<5B)的MMLU - Pro分数

[该讨论围绕小模型(<5B)的MMLU - Pro分数展开,涉及多种模型的性能比较、评价以及基准测试的适用性等,大家观点不一且存在争议]

 ·  · 
模型与技术 性能对比

分析不同输入长度下各类TTS模型的延迟

[关于不同TTS模型在不同输入长度下的延迟分析的帖子引发了一系列讨论,包括模型测试的改进建议、特定模型的特性、语音质量考量、颜色显示问题以及一些新的期望等,整体氛围积极且充满建设性。]

 ·  · 
硬件与部署 性能对比

llama.cpp在不同设备/后端下的计算与内存带宽效率

[原帖分享llama.cpp在不同设备/后端的计算和内存带宽效率,评论围绕数据补充、特定硬件性能、技术疑问、运算方式等展开,整体氛围偏技术交流]

 ·  · 
模型与技术 性能对比

Qwen2.5 14b是代理的最佳模型

[原帖认为Qwen2.5 14b在功能调用、思维链推理和指令遵循方面表现很棒,评论围绕Qwen2.5 14b展开模型比较、性能探讨、应用场景等讨论,整体氛围积极且充满探索性。]

 ·  · 
模型与技术 性能对比

最小可行的大型语言模型

[原帖探讨能产生连贯文本的最小LLM规模,评论者从不同角度发表看法,有提出技术设想、给出具体规模数值、分享模型实例等,整体氛围积极且充满技术交流]

 ·  · 
模型与技术 性能对比

对SuperNova - Medius - GGUF的看法

[原帖分享SuperNova - Medius - GGUF模型用于编码体验优于qwen2.5 - coder,评论者们围绕该模型评价、与其他模型比较、运行硬件需求以及衡量模型的基准等方面展开讨论,整体氛围积极且多元。]

 ·  · 
模型与技术 性能对比

伊利亚·苏茨克维访谈后模型可靠性发展

[帖子关于2023年3月到2024年10月模型是否变得更可靠,评论涉及不同方面,包括浏览器字幕问题、特定模型表现、对某些现象的厌烦等,整体氛围多样且有争议。]

 ·  · 
模型与技术 性能对比

超小语言模型有何意义?是否有用?

[原帖质疑超小LLMs是否有用,评论从多个方面阐述小型LLMs的价值,包括可用于特定任务、在特定设备上运行、可进行微调等,整体氛围积极探讨]

 ·  ·