硬件与部署 本地部署方案

构建保护AI隐私的操作系统

[针对一个用于保护AI隐私的开源主权云操作系统Olares,有质疑其操作系统定义、隐私性等方面的声音,也有表示认可看好、提出疑问和推荐其他系统的不同观点,整体氛围比较多元。]

 ·  · 
硬件与部署 推理速度优化

AMD MI60与vLLM助力Llama3.3 70B达20 tokens/s

[原帖分享2x AMD MI60使Llama3.3 70B达到20 tokens/s的成果,评论涉及AMD卡的意义、技术问题、硬件选择等,整体氛围积极且充满技术探讨]

 ·  · 
硬件与部署 硬件选择

双3090性能接近理想但仍有不足

[原帖作者觉得2张3090显卡运行相关程序接近理想但仍有不足,评论者围绕3090显卡硬件、不同模型选择、硬件升级等方面展开讨论,整体氛围专注于技术交流]

 ·  · 
硬件与部署 性能对比

Test - Time Compute模型是否使M系列Mac不再适合运行大型语言模型

[原帖探讨M系列Mac因Test - Time Compute模型引入是否不再适合运行LLMs,评论从性能、功率、使用体验、硬件对比等多方面展开讨论,整体氛围理性且多元]

 ·  · 
硬件与部署 硬件选择

12GB 3080上的混元FP8可在10分钟内生成移动端质量的GIF

[该讨论围绕Hunyuan和LTX在视频生成方面展开,涉及速度、硬件兼容性等,还讨论到二者在动漫图像、成人内容创作上的比较]

 ·  · 
硬件与部署 硬件选择

本地大语言模型使用案例与所用硬件

[原帖询问本地LLM使用案例与硬件投入的成本效益,评论者从隐私、工作、学习、娱乐等多方面阐述本地LLM使用场景,同时也涉及硬件配置和成本效益相关讨论]

 ·  · 
硬件与部署 其他

应采用集群推理

[原帖提出应进行群集推理,评论从不同角度如技术可行性、相关项目、潜在问题等展开讨论,氛围较为多元既有支持也有反对]

 ·  · 
硬件与部署 其他

MI300X、H100、H200训练基准测试:CUDA仍具优势(上)

[这是一个关于MI300X、H100和H200基准测试训练部分的讨论,涉及AMD训练的问题、GPU推理表现、AMD的硬件软件差距、现状及性能成本,还包含对后续文章的期待等内容,整体氛围较为理性且充满希望]

 ·  · 
硬件与部署 硬件选择

RTX 5090(32GB显存)可运行哪些模型

[原帖询问RTX 5090(32GB显存)能运行哪些模型,评论主要围绕模型运行情况、硬件对比选择、显存容量影响等方面展开,整体氛围较理性探讨]

 ·  · 
硬件与部署 本地部署方案

Layla支持手机运行大语言模型时通过Stable Diffusion生成图像

[关于Layla这个可在手机上运行LLMs并通过Stable Diffusion生成图像的应用,评论者们从付费模式、使用体验、配置等多方面进行讨论,整体氛围较为理性且各抒己见]

 ·  ·