模型与技术 技术讨论

大语言模型(LLMs)究竟如何做到的?

[围绕LLMs如何运作展开讨论,涉及图像理解、计数等任务中的表现,包含对其机制、能力、局限性等方面的观点,讨论氛围较为理性且多元]

 ·  · 
模型与技术 性能对比

NoLiMa:超越字面匹配的长文本评估——终于有个好基准能显示大语言模型在长文本下的糟糕表现,所有模型在仅32k文本长度时性能大幅下降

[围绕LLM长上下文性能展开讨论,涉及基准测试、模型表现及长文本处理等方面,有观点交流、质疑与期待,整体氛围积极探讨]

 ·  · 
模型与技术 技术讨论

谷歌可能未意识到的潜在突破论文

[原帖认为某论文可能是谷歌未察觉的突破,评论围绕论文展开,包括模型相关的技术、成果、操作、比较等多方面讨论,整体氛围积极且充满探索性]

 ·  · 
模型与技术 模型更新

修剪后的Phi-4模型及其不安全因素

[原帖介绍了对Phi - 4进行修剪后的Phi - Lthy4,评论围绕模型相关话题展开,包括与其他模型比较、运行硬件需求、资源获取等,氛围比较轻松,有幽默元素]

 ·  · 
模型与技术 性能对比

测试多款小型编码模型,Nvidia/AceInstruct-7B表现惊艳却鲜有人提及

[原帖分享AceInstruct - 7B在编码方面表现不错但被忽视,评论围绕AI模型与项目展开,包括模型的评价、比较、性能等,还涉及到编码工作中的相关话题以及模型选择偏好等内容]

 ·  · 
模型与技术 新模型发布

OpenThinker发布32B和7B版本

[围绕OpenThinker - 32B和7B展开讨论,涉及模型微调、性能、存在的问题等多方面,总体氛围理性且专业]

 ·  · 
模型与技术 性能对比

10亿参数语言模型能否超越405亿参数语言模型?重新思考计算最优测试时缩放

[围绕1B语言模型能否超越405B语言模型的研究展开讨论,涉及研究内容、模型能力、验证、未来发展等多方面,整体氛围较为理性和积极探讨]

 ·  · 
模型与技术 其他

14B以内最佳多语言模型

[原帖主询问适用于德语和英语的多语言模型(用于文本总结/YouTube字幕总结和问答任务且受RTX 3060的VRAM限制)的最佳选择,评论者们推荐了多种模型并分享使用经验,还有人进行自我推广]

 ·  · 
模型与技术 其他

是否有像GPT - 4o能听音频的开源AI?

[针对是否存在像gpt - 4o一样能处理音频的开源AI的问题展开讨论,介绍了多个可能的开源AI及其相关功能、性能,也提及了gpt - 4o的多模态能力等,整体氛围平和理性]

 ·  · 
模型与技术 新模型发布

新论文表明大语言模型可在潜在空间“思考”

[围绕LLMs在潜在空间“思考”这一论文成果展开讨论,涉及与思维关系、模型相关问题、存在的风险等多方面,有赞同也有质疑,氛围热烈且观点多元]

 ·  ·