硬件与部署 硬件选择

适用于33B模型的CPU和RAM

讨论围绕如何以低功耗高效运行33B模型,涉及CPU和GPU的选择与配置,以及内存和功耗的优化。

 ·  · 
硬件与部署 硬件选择

那么... P40 不再便宜了。现在我们这些平民能买到的性价比最高的加速器是什么?

讨论围绕P40显卡价格上涨后,寻找性价比高的替代加速器,涉及性能、能效、市场价格和技术更新等多方面观点。

 ·  · 
硬件与部署 硬件选择

为20名用户搭建4xRTX4090的内部系统

讨论围绕如何在内部为20个用户高效部署基于LLama 2 13b模型的LLM系统,重点探讨了计算资源、成本优化、内存管理和云服务等解决方案。

 ·  · 
硬件与部署 硬件选择

这个H100售价5000美元,划算吗?

Reddit用户围绕一个标价为5000美元的H100商品展开讨论,主要关注其价格异常、潜在骗局、商品损坏及购买安全等问题。

 ·  · 
硬件与部署 硬件选择

有人混合使用Nvidia和AMD吗?

讨论围绕混合使用Nvidia和AMD显卡的可行性、性能优化、成本效益和技术挑战展开,涉及多种技术细节和用户经验分享。

 ·  · 
硬件与部署 硬件选择

Windows还是Linux适合LLMs和AI?

讨论主要集中在选择Linux还是Windows作为操作系统的优劣,特别是在AI和LLMs的开发和应用中,Linux因其更好的软件支持和性能优势而受到多数用户的推荐。

 ·  · 
硬件与部署 硬件选择

有没有推荐的性价比高的云服务器来托管我的RAG?初期支持20个并发用户,全天候运行,但也可以扩展。

讨论围绕如何选择成本效益高的云服务器来托管RAG系统,涉及并发用户支持、扩展性、模型托管和推理框架等多个技术与经济考量。

 ·  · 
硬件与部署 硬件选择

最适合在8GB显卡上使用的LLM(主要用于代码帮助)?

讨论集中在推荐适合8GB VRAM显卡的LLM模型,强调性能优化和资源限制下的模型选择。

 ·  · 
硬件与部署 硬件选择

尝试在CMP 30Hx gpu上运行llama3.1

讨论围绕在CMP 30Hx GPU上运行llama3.1时遇到的驱动安装和技术问题,涉及手动操作、电源连接和BIOS设置等多个技术层面。

 ·  · 
硬件与部署 硬件选择

在配备8GB RAM的树莓派5上,哪些开源模型可以运行得相当好?

讨论集中在树莓派5等低成本设备上运行开源模型的可行性、性能优化和硬件选择,涉及多种模型和硬件配置,以及语音识别技术的应用。

 ·  ·