硬件与部署 硬件选择

刚刚将Llama 3.1 70B @ iQ2S替换为Qwen 2.5 32B @ Q4KM

讨论围绕Qwen 2.5 32B模型的性能、优缺点及与Llama 3.1 70B等模型的对比展开,涉及模型优化、硬件配置和审查机制等多个方面。

 ·  · 
硬件与部署 硬件选择

有人在用RTX 8000(48GB)或MI100(32GB)显卡进行LLM推理吗?

讨论围绕RTX 8000和MI100显卡在大型语言模型(LLM)推理中的性能、性价比和适用性展开,主要关注VRAM、INT8 TOPS、功耗和价格等因素。

 ·  · 
硬件与部署 硬件选择

大型LLM提供商,你使用哪个,为什么?

讨论围绕大型语言模型(LLM)提供商的选择展开,主要关注输出长度、性价比、免费服务和数据隐私保护,用户分享了各自的使用体验和推荐。

 ·  · 
硬件与部署 硬件选择

够了。如果我不能在我的3090上运行它,我不想再听到关于它的事情。

讨论围绕OpenAI 01 Preview在本地模型和开源社区中的影响展开,涉及硬件性能、技术需求、不满情绪和未来展望。

 ·  · 
硬件与部署 硬件选择

评估 - OpenAI o1

讨论围绕OpenAI的新模型o1的性能评估展开,涉及其在数学、编程和语言任务上的表现,以及对AI未来发展的不同看法。

 ·  · 
硬件与部署 硬件选择

作为LLM工程师,你使用什么笔记本/PC和服务器配置,以及你最常使用哪些模型?

讨论主要围绕LLM工程师的工作和家庭硬件配置、使用的模型以及成本效益展开,涵盖了从个人开发到服务器训练的多种场景。

 ·  · 
硬件与部署 硬件选择

在6950XT(16GB VRAM)上运行良好的最佳当前小型LLM模型?

讨论集中在6950XT显卡上运行的小型语言模型选择,涉及模型性能、多语言支持、逻辑推理等多个方面。

 ·  · 
硬件与部署 硬件选择

Deepsilicon 使用比传统方法少 5 倍的 RAM 和快约 20 倍的神经网络。他们正在为此开发软件和定制芯片

讨论围绕Deepsilicon公司开发的神经网络技术,重点关注其在减少RAM使用和提高运行速度方面的创新,以及面临的硬件支持、市场竞争和投资策略等挑战。

 ·  · 
硬件与部署 硬件选择

刚刚花了3000美元组装了一台3x3090的机器

讨论围绕花费3000美元购买3张RTX 3090显卡的硬件配置展开,涉及AI开发、量化技术、噪音问题及成本效益等多个方面。

 ·  · 
硬件与部署 硬件选择

AMD宣布统一UDNA GPU架构——将RDNA和CDNA结合,挑战Nvidia的CUDA生态系统

AMD宣布统一UDNA GPU架构,旨在整合RDNA和CDNA以挑战Nvidia的CUDA生态系统,讨论围绕技术优势、市场竞争、用户体验和软件支持展开,情感倾向复杂,既有期待也有质疑。

 ·  ·