原贴链接

嗨,r/LocalLLaMA!我很高兴分享NebuLlama UI,这是我在过去两周一直在为Ollama开发的一个漂亮的宇宙主题网页界面。它设计为对移动设备友好,并且有很多功能,能让与本地LLM聊天变得轻松。我做这个是为了能在我的手机上使用Ollama,因为我在我的Pixel 9 Pro上通过termux安装Ollama后,发现没有简单的网页界面,所以我就自己做了一个。

什么是NebuLlama UI?

NebuLlama UI是一个用于Ollama的单HTML文件界面,重点在于:

  • 美观的宇宙设计,视觉上很舒适
  • 移动响应式布局,在手机和平板上效果很好
  • 功能丰富且没有不必要的复杂性
  • 无需安装 - 只需下载HTML文件并打开即可

功能

  • 多模型聊天:在对话中轻松切换不同模型
  • 移动友好设计:在智能手机上运行良好,非常适合休闲使用
  • 图像输入支持:可向llava或bakllava等模型上传图像
  • 对话历史:保存和加载聊天记录
  • 模型管理:浏览、下载和管理模型
  • 中断生成:如果需要可在生成过程中取消响应
  • 可定制参数:设置温度、top_p和其他模型设置
  • 系统提示:为每个对话定义自定义系统提示

为什么选择NebuLlama UI?

与其他Ollama的网页界面不同,NebuLlama专注于:

  1. 移动优先:在家用网络中的任何设备上使用Ollama服务器
  2. 自包含:无需安装依赖项 - 只需一个HTML文件
  3. 简单但强大:需要时提供复杂功能,不需要时界面极简

屏幕截图

1 - 聊天页面 [2 - 高级聊天选项](https://preview.redd.it/3yz5oj8swroe1.png?width = 1908&format = png&auto = webp&s = d7a4234107125fd6324c3cc6f15ee12d9fe55a0a) [3 - 模型库,具备下载功能(这是我做这个项目的原因)](https://preview.redd.it/en32n20vwroe1.png?width = 1908&format = png&auto = webp&s = 33982d5da2745c8e90e3df2de291d248970b3dde) [4 - 本地模型:用于管理已拉取的模型](https://preview.redd.it/mdux41p9xroe1.png?width = 1908&format = png&auto = webp&s = 15f5421134aa2dfa7fba7bd26b0c0a101125d551) [5 - 设置面板,包含服务器配置(主题尚未工作,即将推出)](https://preview.redd.it/3oz9c32lxroe1.png?width = 1908&format = png&auto = webp&s = a63e886b6b4db520583fab32167a7d952e6b136f) [6 - Ollama服务器状态弹出窗口,用于快速概览](https://preview.redd.it/4qbsd31rxroe1.png?width = 1908&format = png&auto = webp&s = 11b3271fefde8e61f8ed338105c2e90edf782bbf)

如何使用

  1. 启动Ollama服务器
  2. 下载NebuLlama UI HTML文件
  3. 在任何浏览器中打开它
  4. 连接到您的Ollama服务器(默认:http://localhost:11434)
  5. 开始与您的模型聊天! 如果您使用智能手机,可以使用计算机的本地IP地址(例如http://192.168.1.100:11434)代替localhost来访问家用Ollama服务器。

移动使用的好处

NebuLlama特别有用之处在于您可以:

  • 舒舒服服地坐在沙发或床上与模型聊天
  • 向朋友展示演示,而无需让他们围在您的电脑旁
  • 当电脑在房间另一头时快速测试提示或获取信息
  • 使用所有本地模型而无需将数据发送到云端

与浏览器扩展或桌面应用不同,只要您有浏览器并且可以访问Ollama服务器网络,这个解决方案在任何地方都能工作。

试试吧!

我已经将代码发布到[https://github.com/NebuLlamaUI/NebuLlamaUI] - 下载HTML文件,在任何浏览器中打开它,然后连接到您的Ollama服务器。 我很想听到您的反馈和改进建议!这只是第一个版本,我计划根据社区的反馈添加更多功能。

讨论总结

帖子作者分享了NebuLlama UI这个用于Ollama的网络界面项目,具有移动友好、功能丰富等特点。评论者们从不同方面展开讨论,包括表示感谢、请求更多信息、关注数据隐私、提出使用问题和功能期望等,其中部分评论得到一些回应,整体氛围比较积极。

主要观点

  1. 👍 对作者分享NebuLlama UI表示感谢
    • 支持理由:作者分享了自己开发的项目,评论者出于礼貌或认可表达感谢。
    • 反对声音:无。
  2. 🔥 关注NebuLlama UI应用的数据隐私问题
    • 正方观点:希望前端应用尊重隐私,无遥测功能。
    • 反方观点:无。
  3. 💡 NebuLlama UI在初始使用时无法检测本地模型
    • 支持理由:评论者亲身经历,明确表示无法检测。
    • 反对声音:无。
  4. 💡 通过设置特定环境变量可解决NebuLlama UI检测不到本地模型的问题
    • 支持理由:在交流中提出解决方案并被证实有效。
    • 反对声音:无。
  5. 💡 对NebuLlama UI存在的必要性表示质疑
    • 支持理由:已有OpenWebUI,对NebuLlama UI存在意义产生疑惑。
    • 反对声音:无。

金句与有趣评论

  1. “😂 nite2k: Thank you!”
    • 亮点:虽然简短,但积极回应作者分享,表达感谢之情。
  2. “🤔 nite2k: does this app sending any data to you, the developer?”
    • 亮点:直接关注到数据隐私问题,是重要的讨论点。
  3. “👀 duyntnet:Doesn’t work for me. It couldn’t detect any local model.”
    • 亮点:明确指出使用中遇到的问题,开启相关讨论。
  4. “🤔 W4lxar:Set the environment var to OLLAMA_ORIGINS="*", this will solve the problem”
    • 亮点:针对使用问题给出有效解决方案。
  5. “👀 为什么不直接使用OpenWebUI呢?”
    • 亮点:对NebuLlama UI存在必要性的质疑,引发思考。

情感分析

总体情感倾向是积极的,大多数评论者都是抱着积极的态度在参与讨论,如表达感谢或者积极寻求问题的解决。主要分歧点在于对NebuLlama UI存在必要性的质疑,但由于该评论热度较低,目前没有引起太多争议。可能的原因是大部分评论者关注的重点在项目本身的使用和隐私方面。

趋势与预测

  • 新兴话题:如何进一步提高NebuLlama UI的隐私保护功能。
  • 潜在影响:如果该项目能够不断完善,可能会对Ollama的使用体验产生积极影响,吸引更多用户使用本地模型进行交互。

详细内容:

标题:NebuLlama UI:专为 Ollama 打造的酷炫宇宙界面,引发 Reddit 热议

在 Reddit 的 r/LocalLLaMA 版块,有一个帖子引起了众多用户的关注。原帖作者分享了自己花费两周时间开发的 NebuLlama UI,这是一个为 Ollama 设计的美观且功能丰富的宇宙主题网页界面。此帖获得了较高的关注度,众多用户纷纷参与讨论。

帖子主要介绍了 NebuLlama UI 的特点和优势,包括漂亮的宇宙设计、对移动端的良好适配、丰富的功能以及无需安装等特性。同时还列举了一系列实用功能,如多模型聊天、移动端友好设计、图像输入支持、对话历史记录、模型管理、中断生成、可自定义参数以及系统提示等。作者还分享了使用方法和移动端使用的好处,并提供了代码链接。

讨论焦点与观点分析:

有人对该界面表示感谢,认为其带来了便利。但也有人提出疑问,希望获得更多信息。有人质疑是否会向开发者发送数据,担心隐私问题,希望能有尊重隐私且不含遥测功能的前端。还有人分享了相关的链接来支持自己的观点。有人指出使用时遇到的问题,如无法检测到本地模型,不过在他人指导下解决了问题,并表示界面看起来不错,希望能增加“重新生成”选项。也有人提出为何不使用 OpenWebUI 这类疑问。

总的来说,大家对 NebuLlama UI 的讨论既有肯定和期待,也有一些质疑和建议。而对于隐私保护和功能完善方面,是讨论中的重要关注点。希望未来 NebuLlama UI 能够不断改进,为用户带来更好的体验。