硬件与部署 本地部署方案

两个小时的o1-preview无法做到Mistral-Large-Instruct-2407在本地运行时为我做的事情 :(

讨论主要围绕 o1-preview 和 Mistral-Large-Instruct-2407 两个模型在复杂任务处理和代码生成方面的表现,普遍认为 o1-preview 在处理复杂任务时表现不佳,而 Mistral-Large-Instruct-2407 在本地运行时表现出色。

 ·  · 
硬件与部署 本地部署方案

Claude-Dev 现已支持本地 LLM!(Ollama,OpenAI 兼容服务器)

Claude-Dev最新版本支持本地LLM,引发用户兴奋和讨论,涉及模型比较、用户体验和工具改进。

 ·  · 
硬件与部署 本地部署方案

在本地使用Mistral.rs运行Phi 3.5 MoE(具有70b性能的6.6b活跃模型)!

讨论围绕Mistral.rs支持Phi 3.5 MoE模型的本地运行展开,涉及多GPU支持、量化加速、VRAM需求等技术细节,同时关注用户硬件兼容性和使用习惯。

 ·  · 
硬件与部署 本地部署方案

我制作了自己的本地AI,你可以免费使用它

讨论围绕用户自建的本地AI服务器展开,涉及免费使用、隐私保护、技术支持和社区参与等多个方面。

 ·  · 
硬件与部署 本地部署方案

RWKV v6 模型支持合并到 llama.cpp

Reddit用户讨论了RWKV v6模型支持合并到llama.cpp的情况,主要关注模型的性能、成本效益、技术发展及其在特定任务如翻译和编程中的优势。

 ·  · 
硬件与部署 本地部署方案

边缘LLM排行榜,我们需要一个吗?

讨论围绕创建一个针对边缘硬件的动态排行榜展开,聚焦于使用 Raspberry Pi 5 等设备进行实时模型性能比较,探讨了低成本、实时性、硬件多样性和激励机制等关键因素。

 ·  · 
硬件与部署 本地部署方案

有没有可以在手机上运行的本地模型,它们经过微调以适应生存和文明重建?

讨论围绕在末日情境下使用移动设备上的本地模型进行生存和文明重建的可行性,涉及模型性能、信息可靠性、生存技能等多方面观点。

 ·  · 
硬件与部署 本地部署方案

Tinybox 终于进入生产阶段

Tinybox进入生产引发了对自建硬件成本、技术挑战、云服务比较及市场定位的广泛讨论。

 ·  · 
硬件与部署 本地部署方案

为什么你会选择自托管而不是使用托管端点来运行llama 3m1 70B

讨论围绕自托管与使用托管端点运行llama 3m1 70B模型的优劣展开,主要关注隐私保护、成本效益和数据安全,多数用户倾向于自托管以保持控制和隐私。

 ·  · 
硬件与部署 本地部署方案

通过ChatterUI在Android上运行Minitron-4b-Width

讨论主要围绕在Android设备上运行Minitron-4b-Width模型及其优化、隐私保护和功能扩展。

 ·  ·