嘿 r/LocalLLaMA 团队,
又到了这个时候——我很兴奋(说实话,也有点自豪)地宣布 LocalAI v2.20 的发布!这是一个大版本,包含了一些最受欢迎的功能和增强功能,旨在使您的自托管AI之旅更加顺畅和强大。
什么是 LocalAI? LocalAI 是 OpenAI、Elevenlabs、Claude 的免费开源替代品,允许您在本地 CPU 和 GPU 上运行 AI 模型!💻 数据永远不会离开您的机器!无需昂贵的云服务或 GPU🦙 https://github.com/mudler/LocalAI
LocalAI 可以运行:
- 文本到语音模型
- 音频转录
- 音频生成
- 图像生成
- 函数调用
- LLM(使用 llama.cpp、transformers 等)
只需几次点击,就可以从社区中选择数百种模型!
🌟 新功能:
🌍 探索器和社区池:
是否希望与他人共享您的 AI 实例或探索社区在做什么?现在您可以了!访问 https://explorer.localai.io 并深入了解 LocalAI 实例的全球池。这是去中心化的最佳体现,我非常兴奋地想看看您将如何使用它!
您现在可以与全球共享 LocalAI 实例。这一切都是为了建立一个去中心化、协作的 AI 社区。
https://i.redd.it/g5tnklpzmfld1.gif
👀 演示实例可用:
对于那些好奇但还没准备好跳进去的人,我设置了一个实时演示 https://demo.localai.io
无需设置,无需麻烦——只是一个简单的方式来看看 LocalAI 能做什么。去吧,试试看!
🤗 Hugging Face 集成:
LocalAI 现在直接与 Hugging Face 的本地应用集成。您现在只需几次点击就可以运行模型!
🎨 FLUX-1 图像生成:
创造力解锁!FLUX-1 支持已经到来,允许您生成惊人的图像——甚至在联邦模式下。非常适合您的下一个项目或只是尝试一些新东西。
🐛 错误修复和改进:
我在 Diffusers 后端和 hipblas 中修复了一些讨厌的错误,并添加了严格模式,以保持与 OpenAI 最新 API 更改的合规性。保持您的设置顺畅和最新是我的首要任务!如果您想了解严格模式,请查看:https://openai.com/index/introducing-structured-outputs-in-the-api/ - LocalAI 在启用严格模式时也会在后台生成语法。
💪 多 P2P 集群:
对于那些强大的用户,您现在可以在同一网络中运行多个 P2P 集群。逻辑分离与共享令牌——因为您要求它,而我就是为了给您提供构建梦想设置的工具。
🧪 弃用通知:
小提示:我正在弃用 gpt4all.cpp
和 petals
后端。新的 llama.cpp
才是王道——更好的性能,更多的功能。相信我,您会想切换过去的。
🔧 准备好了吗?从这里开始!https://github.com/mudler/LocalAI
与这个社区一起构建 LocalAI 并与您分享,这是一种绝对的乐趣。我一直在惊叹于您创造的东西以及您如何推动自托管AI的可能性边界。我希望这个版本能给您更多的工具来创新和实验。
一如既往,如果您有任何问题、想法或只是想聊天,请留言或查看我们的文档 https://localai.io/。您的反馈推动了这些更新,我随时在这里帮助您。记住我们不是一个公司烘焙的,但这是一个真正的社区,开源项目 - 如果您想帮忙,传播消息,给我们一个星星或喊一声,或者只是告诉您的朋友关于 LocalAI。这将有助于项目的成长!
让我们继续推动自托管AI的极限。我迫不及待想看看您接下来会把它带到哪里!
完整发布说明: https://github.com/mudler/LocalAI/releases/tag/v2.20.1
继续黑客攻击!
– mudler
讨论总结
LocalAI v2.20的发布在Reddit社区中引起了广泛关注,讨论主要集中在该版本的新功能、兼容性问题以及社区支持上。用户们对Windows平台的支持表达了关切,同时也探讨了使用Docker和WSL2在Windows上运行LocalAI的可能性。此外,联邦模式和P2P网络的实际应用也成为了讨论的热点,用户们对如何利用这些功能进行了深入的探讨和提问。
主要观点
- 👍 Windows平台支持
- 支持理由:用户建议使用WSL和Docker在Windows上运行LocalAI。
- 反对声音:mudler_it表示由于个人原因,不太可能提供Windows支持。
- 🔥 联邦模式与P2P网络
- 正方观点:联邦模式允许通过共享令牌连接多个实例,实现负载均衡。
- 反方观点:目前无法确定用户何时未使用其计算资源。
- 💡 CPU推理能力
- 用户询问是否可以仅使用CPU推理能力加入LocalAI网络。
- mudler_it确认这是可能的,并提供了详细的操作步骤。
金句与有趣评论
- “😂 TheToi:RIp no release for Windows.”
- 亮点:反映了部分用户对Windows版本缺失的失望。
- “🤔 mudler_it:of course you can! just start LocalAI with
--p2p --federated
- it will generate a new token that you can access in the "Swarm" section. Just add it to the explorer via the form and you are done!”- 亮点:提供了详细的操作指南,帮助用户加入LocalAI网络。
- “👀 mudler_it:Federated mode allows to connect various instances in a "cluster" with a shared token - then you can connect to the cluster and the requests will be redirected via load balancing between the nodes.”
- 亮点:解释了联邦模式的工作原理,帮助用户理解如何利用未使用的计算资源。
情感分析
讨论的总体情感倾向较为积极,尽管有用户对Windows平台支持表达了不满,但大多数用户对新功能和社区支持持积极态度。主要分歧点在于Windows平台的兼容性问题,以及联邦模式和P2P网络的实际应用。
趋势与预测
- 新兴话题:联邦模式和P2P网络的进一步应用和优化。
- 潜在影响:这些新功能可能会推动LocalAI在社区中的更广泛应用,特别是在资源共享和负载均衡方面。
详细内容:
标题:LocalAI v2.20 发布,引发Reddit热议
LocalAI v2.20 版本已发布,此消息在Reddit上引起了广泛关注,获得了众多用户的讨论,点赞数和评论数众多。原帖主要介绍了该版本的新功能,包括支持FLUX-1、严格模式、修复hipblas/AMD问题、全球社区p2p矿池以及P2P增强等,还提及了可以通过多个点击在数百个社区模型之间进行选择。同时,帖子中还提供了多个相关链接,如https://github.com/mudler/LocalAI、https://explorer.localai.io等。
这篇帖子引发的主要讨论方向包括Windows支持问题、在不同硬件上的运行效果、能否为网络提供计算资源等。文章将要探讨的核心问题或争议点是LocalAI在不同操作系统和硬件环境下的适用性和性能表现。
在讨论中,关于Windows支持的问题,有人认为在Windows上不需要依赖Docker,直接运行程序会更轻便,也有人提到可以通过WSL和Docker来运行。有用户表示自己的电脑配置为Ryzen 7950x3d,但在Windows上使用KVM虚拟化效果不佳。还有用户称赞WSL2是个好东西。
对于能否为网络提供计算资源的问题,有用户询问自己只有CPU推理是否可行,得到的回复是可以通过特定命令启动LocalAI来实现。
关于在不同硬件上的运行情况,有人询问该版本是否能在n100 cpu上运行,得到肯定回答,但可能推理速度较慢。
在这些讨论中,大家对于不同方案和硬件的适用性存在不同看法,但也达成了一些共识,比如WSL2在某些情况下是一个不错的选择。特别有见地的观点是关于如何更好地优化在不同操作系统和硬件上的运行性能,丰富了讨论。
总的来说,LocalAI v2.20的发布在Reddit上引发了热烈且深入的讨论,为用户提供了更多关于该版本的信息和思考。
感谢您的耐心阅读!来选个表情,或者留个评论吧!