硬件与部署 其他

AMD消费级GPU用户何处获取Flash Attention

[AMD GPU用户询问获取Flash Attention的途径,评论围绕不同工具(如llama.cpp、PyTorch、MLC - LLM)中Flash Attention的获取、性能表现、量化质量以及相关的系统要求等展开讨论,整体氛围较为专业和平和]

 ·  · 
模型与技术 技术讨论

准确使用"多"字,避免滥用

[原帖呼吁不要滥用“multi”一词,评论围绕模型能力表述中的用词规范展开,有赞同也有反对,整体氛围争议较大]

 ·  · 
行业与社区 公司动态

深析科技创始人身家:10亿还是150亿美元?

[围绕DeepSeek创始人价值的不同说法展开讨论,涉及技术行业估值、盈利模式、与其他企业或人物关系等多方面观点,整体氛围活跃且多元]

 ·  · 
模型与技术 新模型发布

阿里国际数字商业集团推出Ovis2多模态大模型(1B - 34B)

[关于阿里巴巴国际数字商务集团的Ovis2多模态大语言模型,大家主要讨论其模型性能,如1B模型在OCR测试、识别能力方面的表现,还有模型的本地运行、转换、兼容性等问题,整体讨论热度参差不齐。]

 ·  · 
模型与技术 新模型发布

Kimi.ai发布Moonlight 3B/16B MoE模型及改进的Muon优化器

[关于Kimi.ai发布的Moonlight模型,大家从优化器、性能、模型比较等多方面进行讨论,整体氛围积极且充满探索性]

 ·  · 
其他 其他

终获稳定

[该讨论围绕标题“Finally stable”展开,涉及3090显卡的过热、电源连接、稳定性等问题,还包含硬件散热、功率优化等方面的观点交流,氛围比较积极地分享技术和经验]

 ·  · 
硬件与部署 内存需求

是否存在参数少于100万的大语言模型?

[原帖寻求小于100万参数的LLM以适配640KB内存进行llama2.c到DOS的移植,评论中有人提供模型资源,有人提出技术建议,还有人对原帖需求与LLM定义的关系进行探讨,同时也涉及一些回忆和积极态度的表达等内容]

 ·  · 
模型与技术 其他

小型语言模型是否值得投入大量时间和金钱?

[关于在小型语言模型(LLMs)上花费大量时间和金钱是否值得的讨论,涉及小型LLMs的特性、适用场景、与大型LLMs的比较等多方面,整体氛围有争议且讨论深入]

 ·  · 
模型与技术 新模型发布

Perplexity发布无审查的DeepSeek R1 Llama 70B模型相关版本

[原帖分享Perplexity可能悄悄发布DeepSeek R1 Llama 70B无审查版本相关内容,评论涉及模型版本需求、量化意义、GGUFs标签错误、技术对比等多方面内容,讨论热度整体较低]

 ·  · 
模型与技术 其他

小型(1 - 3 - 8B)模型的应用场景有哪些?

[该讨论围绕小模型(1 - 3B、8 - 9B等)展开,探讨了其在各种任务中的使用场景、性能表现、与大模型的比较、成本效益等多方面内容,整体氛围积极且充满干货。]

 ·  ·