硬件与部署 本地部署方案

目前开放式大型语言模型的最大上下文窗口是多少?

讨论围绕如何在本地机器上处理包含200万字符的大文本上下文,涉及模型选择、性能优化和数据隐私等关键问题。

 ·  · 
硬件与部署 本地部署方案

本地LLaMa有多大的用处?

讨论围绕本地LLaMa模型的实用性、隐私保护、商业应用、硬件限制和成本效益展开,涉及从个人项目到商业部署的多方面应用。

 ·  · 
硬件与部署 本地部署方案

DecentAI - 在iOS/Android上连接您自己的大型语言模型

讨论围绕DecentAI应用的功能、可用性和替代选择展开,涉及模型混合、商业模型支持和地区限制等话题。

 ·  · 
硬件与部署 本地部署方案

有没有像Claude Artifacts这样可以在本地运行的工具?

讨论围绕在本地运行类似Claude Artifacts的功能,特别是HTML、CSS和JavaScript的运行和迭代,涉及多个资源和工具推荐。

 ·  · 
硬件与部署 本地部署方案

运行本地LLM的软件痛苦终于让我受不了了——所以我做了一个自己的推理服务器,你不需要在新模型/分词器发布时进行编译或更新;你不需要量化甚至下载你的LLM——只需给它一个名字,并在它们发布在HuggingFace上的那一刻运行LLM

讨论围绕一个名为“HF-Waitress”的无需编译或更新的推理服务器展开,用户无需量化或下载LLM模型,只需提供模型名称即可运行,讨论涉及技术实现、性能优化和用户反馈。

 ·  · 
硬件与部署 本地部署方案

如何在Windows 11上本地构建支持NVIDIA GPU加速的llama.cpp:一个实际可行的简单分步指南

讨论集中在如何在Windows 11上使用NVIDIA GPU加速本地构建llama.cpp,涉及自动化脚本、编译优化和跨平台构建经验分享。

 ·  · 
硬件与部署 本地部署方案

Python 在不使用 Docker 的情况下调用本地 llama

讨论围绕如何在Windows环境下不使用Docker和本地API服务器调用llama模型展开,涉及多种解决方案和工具的使用。

 ·  · 
硬件与部署 本地部署方案

Codestral Mamba 对 llama.cpp (Ollama) 的支持有新消息吗?

Reddit用户讨论Codestral Mamba在llama.cpp上的支持情况,关注技术细节、本地测试方法和架构差异。

 ·  · 
硬件与部署 本地部署方案

六月 - 使用本地Llama的本地语音助手

讨论围绕开源项目June,一个基于本地Llama的语音助手,涉及技术栈、性能问题、集成需求和用户体验等多个方面。

 ·  · 
硬件与部署 本地部署方案

Llama 3.1现已面向家庭AI集群开放!全新分布式Llama版本,在家即可运行量化版3.1 8B,全上下文(131k令牌)支持

Reddit用户围绕新发布的Llama 3.1在家用AI集群中的应用展开了技术讨论,涉及版本特性、硬件配置、模型运行和社区互动。

 ·  ·