硬件与部署 本地部署方案

已购买硬件,现在寻找最佳方式在生产环境中部署LLM

讨论围绕如何在生产环境中有效部署大型语言模型(LLM),重点关注硬件配置、显存需求、性能优化及成本效益,同时涉及多种技术建议和专业意见。

 ·  · 
硬件与部署 本地部署方案

一年前,我提出了将树莓派5作为小型模型的测试平台。随着类似这种进一步的显卡集成,这个概念可能终于站得住脚。

讨论围绕Raspberry Pi 5作为小型模型测试平台的可行性展开,涉及性能、价格、替代方案和技术整合等多个方面。

 ·  · 
硬件与部署 本地部署方案

在线服务已中断,幸好你有本地服务

讨论围绕多个在线服务故障展开,涉及技术原因、用户体验和幽默讽刺观点,同时探讨了本地服务和AI模型的替代方案。

 ·  · 
硬件与部署 本地部署方案

给Llama分配自己的Windows实例

讨论围绕一个AI模型“Llama”在独立Windows实例中的应用,涉及技术实现、潜在风险和未来展望。

 ·  · 
硬件与部署 本地部署方案

昨日报告的llama.cpp中RPC服务器的新关键安全漏洞

讨论围绕llama.cpp项目中的严重安全漏洞展开,涉及漏洞影响、修复建议、替代方案及项目稳定性等多方面内容。

 ·  · 
硬件与部署 本地部署方案

我创建了一个带有AI调酒师的3D酒吧,可以在网页上使用,我应该制作一个本地/自托管版本吗?

讨论围绕一个由AI驱动的3D网络酒吧项目展开,涉及自托管版本的可行性、技术实现、用户兴趣和潜在的滥用问题。

 ·  · 
硬件与部署 本地部署方案

为什么未经审查和删节的微调模型仍然拒绝我的请求

讨论围绕用户在使用声称“未审查”的AI模型时遇到的道德限制问题,寻求更少审查的模型,并探讨了模型审查机制、提示策略和未来AI发展趋势。

 ·  · 
硬件与部署 本地部署方案

Ollama仍然是运行本地LLM的最佳方式吗?

讨论围绕Ollama是否仍然是运行本地大型语言模型(LLMs)的最佳方式展开,涉及RAG支持、模型管理、容器化和性能优化等多个技术层面。

 ·  · 
硬件与部署 本地部署方案

适合16GB VRAM的本地编码LLM设置

讨论围绕在16GB VRAM限制下选择和优化编程语言模型,涉及模型性能、量化、参数调整、成本效益和硬件升级等多个方面。

 ·  · 
硬件与部署 本地部署方案

在安卓手机上使用2.5 GB内存运行Llama-3.1-8b-Instruct

讨论围绕将AQLM+PV量化技术集成到Executorch中以实现移动部署,涉及性能优化、多线程处理和模型量化等技术细节。

 ·  ·