硬件与部署 本地部署方案

LLM(小语言模型)在ESP32-S3上运行,并带有屏幕输出!

讨论围绕在ESP32-S3芯片上运行的小语言模型展开,涉及技术实现、模型连贯性、未来应用及潜在改进,总体氛围积极且充满期待。

 ·  · 
硬件与部署 本地部署方案

本地LLaMA是未来

讨论围绕本地大型语言模型(LLMs)的未来发展,主要关注其在企业环境中的数据安全优势和硬件需求,同时也有关于云端服务的讨论。

 ·  · 
硬件与部署 本地部署方案

如何在本地运行Qwen2-VL 72B

讨论主要围绕如何在本地运行 Qwen2-VL 72B 模型,涉及量化、并行计算、多 GPU 支持等技术问题,社区成员分享了各自的解决方案和遇到的挑战。

 ·  · 
硬件与部署 本地部署方案

在家用PC上运行LLM用于编程?

讨论了在家庭PC上运行LLM进行编程辅助的可行性,推荐了多个适合的模型和工具,并强调了硬件升级和推理引擎选择的重要性。

 ·  · 
硬件与部署 本地部署方案

Qwen 2.5 手机版:新增 1.5B 和 3B 量化版本至 PocketPal

Reddit用户对PocketPal应用中新增的Qwen 2.5 1.5B和3B量化版本表示赞赏,并围绕性能、功能改进和用户体验展开了讨论。

 ·  · 
硬件与部署 本地部署方案

在本地使用GGUF格式从HF 🤗运行Qwen 2.5、Qwen 2.5-Coder、Qwen 2.5-Math及其他语言模型

讨论围绕 Qwen 2.5 系列模型在本地运行的 GGUF 格式展开,涉及模型支持、开发者关心、功能对比、GPU 支持和图像生成等多个方面。

 ·  · 
硬件与部署 本地部署方案

本地运行Llama 405B!

讨论围绕Llama 405B模型在Mac设备上的本地运行展开,涉及性能优化、硬件配置、后端引擎等多个技术细节,同时也有对经济成本和商业化可能性的探讨。

 ·  · 
硬件与部署 本地部署方案

尽管我很想尝试每个人的应用程序,但你们得让这一切变得更简单:一个抱怨

讨论主要围绕软件开发中的依赖管理问题,特别是Python环境下的重复安装和版本冲突,提出了多种解决方案如虚拟环境、Docker和特定工具。

 ·  · 
硬件与部署 本地部署方案

我自豪地宣布,我终于成功地在本地运行了大型语言模型,并将其用于手机上

讨论围绕在手机上运行本地大型语言模型(LLM)展开,涉及技术实现、模型微调、电池消耗等问题,同时也有新手寻求学习资源和现有解决方案的讨论。

 ·  · 
硬件与部署 本地部署方案

Llama 3.1 405B在2台MacBook上分布式运行

讨论围绕在两台 MacBook 上分布式运行 Llama 3.1 405B 模型的可行性、效率和成本效益展开,涉及硬件配置、推理速度、量化设置等多个方面,既有技术讨论也有成本考量。

 ·  ·