硬件与部署 内存需求

Llama-3.2-3B-Instruct-abliterated需35GB显存

[原帖讲述Llama - 3.2 - 3B - Instruct - abliterated模型VRAM使用异常,评论给出多种观点如与上下文大小有关、可能是未释放资源、模型在做特殊尝试等及相应解决建议,整体氛围积极探讨问题]

 ·  · 
硬件与部署 内存需求

Ollama合并K/V缓存量化支持,上下文内存减半

[Ollama合并K/V缓存量化支持引发讨论,大家积极感激开发者的努力,也进行了技术层面探讨如量化影响、硬件关联,还涉及LLMs优化与未来发展的相关讨论]

 ·  · 
硬件与部署 内存需求

Qwen2.5 - Coder - 32B推理VRAM计算待确认

[原帖探讨Qwen2.5 - Coder - 32B - Instruct的GPU内存使用计算,评论围绕降低硬件成本的方法、模型运行的策略、对ChatGPT计算结果的质疑等展开,总体氛围较平和且具有一定的技术探讨性]

 ·  · 
硬件与部署 内存需求

M4 128到手,有哪些好玩的尝试?

[原帖作者询问M4 128设备上可尝试的有趣事情,评论围绕模型运行、速度、推荐等展开,氛围积极且充满技术交流]

 ·  · 
硬件与部署 内存需求

1TB内存能否满足DeepSeek v2.5 fp8最大上下文长度运行需求

[原帖询问1TB内存能否运行DeepSeek V2.5 FP8最大上下文长度,评论围绕模型运行所需的硬件配置(如内存、显存、CPU等)、技术问题(如构建失败、运行速度慢等)展开讨论,整体氛围比较技术向。]

 ·  · 
硬件与部署 内存需求

成功购买更多内存后运行Llama 3.1 405B

[原帖讲述成功运行Llama 3.1 405B后,评论围绕运行效率、硬件需求、相关概念混淆等展开讨论,氛围较为技术化且存在不同观点的交流]

 ·  · 
硬件与部署 内存需求

运行Llama3.1 70b需要多少内存?

[原帖主询问将迷你电脑的32GB内存升级到96GB对运行llama3.1 70b的速度和性能是否有显著差异,评论主要围绕硬件配置、不同内存下模型运行情况、性能表现等展开,整体氛围比较专业务实]

 ·  · 
硬件与部署 内存需求

M4 Max支持高达128GB统一内存

[围绕苹果M4 Max支持128GB统一内存展开讨论,涉及内存提升是否足够、在其上运行模型的效果、与其他模型或产品对比等多方面内容,整体氛围偏向理性探讨]

 ·  · 
硬件与部署 内存需求

使用405b的Llama 3.1,服务器内存是否够用

[原帖询问特定服务器能否运行Llama 3.1 405b模型,评论围绕硬件配置对运行的影响、不同量化等级、免费资源、订阅试用等展开,整体氛围理性探讨]

 ·  · 
硬件与部署 内存需求

将笔记本内存从32GB升级到64GB是否值得

[原帖询问笔记本电脑内存从32GB升级到64GB是否值得,价格约100欧元,评论观点不一,有人认为值得,有人则指出可能存在性能限制等问题,总体氛围较为理性探讨]

 ·  ·