硬件与部署 内存需求

ollama 0.6.2预发布版让Gemma 3正常工作

[ollama 0.6.2预发布版本使Gemma 3的性能得到提升,引发了关于其功能、内存使用、参数设置等方面的讨论,总体氛围积极且具有一定的技术探讨性]

 ·  · 
硬件与部署 内存需求

新Mac的512GB统一内存使框架和DIGITS相形见绌

[围绕Framework、DIGITS和苹果新Mac在性能、价格、内存等方面展开讨论,涉及不同操作系统偏好、性价比、是否被苹果生态锁定等观点,有多种不同意见且存在争议]

 ·  · 
硬件与部署 内存需求

本地大语言模型的上下文容量有多大?

[原帖询问本地LLM的上下文大小相关问题,评论者分享了各自的设置、观点及相关经验,整体氛围偏向技术交流与分享]

 ·  · 
硬件与部署 内存需求

苹果Mac Studio内存提升至512GB

[关于Mac Studio新配置的讨论,涉及价格、性能、运行模型能力等方面,存在不同观点,整体氛围既有认可也有质疑]

 ·  · 
硬件与部署 内存需求

AMD Medusa Halo预计2026年上半年发布,可选384位内存总线

[AMD Medusa Halo相关消息引发讨论,涉及AMD产品供应、命名方式、推出时机等方面,既有对AMD不满的声音,也有对产品性价比等方面的期望,整体氛围较为复杂。]

 ·  · 
硬件与部署 内存需求

如何知晓或计算哪些模型适配VRAM?

[原帖询问如何知晓或计算哪些模型适合VRAM,评论提供了多种方法、资源和相关经验,整体氛围积极互助]

 ·  · 
硬件与部署 内存需求

是否存在参数少于100万的大语言模型?

[原帖寻求小于100万参数的LLM以适配640KB内存进行llama2.c到DOS的移植,评论中有人提供模型资源,有人提出技术建议,还有人对原帖需求与LLM定义的关系进行探讨,同时也涉及一些回忆和积极态度的表达等内容]

 ·  · 
硬件与部署 内存需求

Unsloth实现10倍长推理训练上下文,显存减少90%

[原帖介绍Unsloth在推理训练方面的成果,评论者们大多表达感谢和认可,也有不少针对Unsloth的功能、技术支持、资源使用等方面的提问和疑惑,整体氛围积极友好。]

 ·  · 
硬件与部署 内存需求

本地AI模型VRAM需求估算工具

[电气工程大三学生分享本地AI模型VRAM估算网络应用项目,引发多种讨论,包括技术使用疑问、解答、功能改进建议及正面评价等]

 ·  · 
硬件与部署 内存需求

Unsloth制作动态R1量化 - 仅需80GB内存即可运行

[帖子介绍Unsloth的动态R1量化成果可在低内存运行,评论围绕信息重复、模型性能、内存需求等展开讨论,氛围较为理性且多元]

 ·  ·