硬件与部署 内存需求

M4 Max支持高达128GB统一内存

[围绕苹果M4 Max支持128GB统一内存展开讨论,涉及内存提升是否足够、在其上运行模型的效果、与其他模型或产品对比等多方面内容,整体氛围偏向理性探讨]

 ·  · 
硬件与部署 内存需求

使用405b的Llama 3.1,服务器内存是否够用

[原帖询问特定服务器能否运行Llama 3.1 405b模型,评论围绕硬件配置对运行的影响、不同量化等级、免费资源、订阅试用等展开,整体氛围理性探讨]

 ·  · 
硬件与部署 内存需求

将笔记本内存从32GB升级到64GB是否值得

[原帖询问笔记本电脑内存从32GB升级到64GB是否值得,价格约100欧元,评论观点不一,有人认为值得,有人则指出可能存在性能限制等问题,总体氛围较为理性探讨]

 ·  · 
硬件与部署 内存需求

高容量DDR5内存即将到来?64GBx2与96GBx2前景如何

讨论围绕高容量DDR5内存的推出时间、技术进展及其在桌面电脑中的应用展开,主要关注内存容量、速度和主板支持等话题,整体氛围偏向技术探讨和未来预测。

 ·  · 
硬件与部署 内存需求

iPhone 16 Pro:有哪些本地模型可以在只有8GB内存的新iPhone上运行?与拥有16GB内存的Pixel 9 Pro和12GB内存的Galaxy S24 Ultra相比,内存真的那么低吗?苹果的智能功能如何在8GB内存上运行?

讨论围绕iPhone 16 Pro的8GB RAM配置展开,质疑其是否足够支持高质量的本地模型运行,同时探讨了苹果的技术实现和用户对RAM需求的担忧。

 ·  · 
硬件与部署 内存需求

愚蠢的问题:27B模型是否可能比34B模型需要更多的VRAM?

讨论围绕LLM模型VRAM消耗的复杂性展开,涉及参数数量、GQA因子、模型权重格式等因素,揭示了计算器在处理某些模型时的错误。

 ·  · 
硬件与部署 内存需求

苹果智能在最新的iPhone 16s上只有不到8GB的RAM,它能有多智能?

讨论围绕iPhone 16s的内存限制对Apple Intelligence的影响展开,涉及AI性能、云端计算、硬件优化等多个方面,总体情感倾向为质疑和期待。

 ·  · 
硬件与部署 内存需求

使用48GB VRAM和128GB RAM运行Mistral Large 2是否可能?

讨论围绕在48GB VRAM和128GB RAM的条件下,如何运行Mistral Large 2模型,涉及性能优化、量化设置和硬件配置的详细讨论。

 ·  · 
硬件与部署 内存需求

Command-R的全131K上下文在24GB内存中以3.75bpw运行

讨论围绕Command-R模型的性能、量化缓存、上下文长度和推理速度展开,涉及模型压缩、开源社区活跃度和商业化可能性。

 ·  · 
硬件与部署 内存需求

3090 VRAM 困惑

讨论围绕如何在有限的VRAM中优化模型性能,涉及上下文大小调整、量化级别选择和缓存技术应用。

 ·  ·