可查看https://github.com/microsoft/BitNet。好奇用这个能在手机上运行什么呢。
讨论总结
这是一个围绕bitnet.cpp这个开源的1 - bit LLM推理框架展开的讨论。首先有人指出原帖内容已被提及过且手机上因无好的原生模型无法运行相关内容,也有对bitnet.cpp框架实际位运算的讨论,指出并非1 - bit而是1.58 bit并解释相关原理。同时也有关于标题表述可能造成误解的看法,还有很多关于在手机上运行相关内容的讨论,包括安装什么工具、推荐哪些本地模型、不同手机应用的优劣以及手机运行LLM的电池续航问题等。
主要观点
- 👍 原帖提及内容已被讨论过
- 支持理由:[评论者指出有其他地方已经提及原帖内容]
- 反对声音:[无]
- 🔥 没有好的bitnet原生模型导致手机上无法运行相关内容
- 正方观点:[没有原生的好模型确实难以在手机运行相关内容]
- 反方观点:[无]
- 💡 bitnet.cpp框架不是1 - bit而是1.58 bit
- 解释:[通过计算log base 2 of 3得出1.58496250…并被向下取整为1.58]
- 💡 标题表述易让人误解为框架运行依靠CPU缓存
- 解释:[标题的表述给人这种感觉]
- 💡 在手机运行相关内容可安装termux和Ollama
- 解释:[评论者推荐这两个工具用于手机运行相关内容]
金句与有趣评论
- “😂 You’re late: [https://www.reddit.com/r/LocalLLaMA/comments/1g6jmwl/bitnet\\_inference\\_framework\\_for\\_1bit\\_llms/]”
- 亮点:[直接指出原帖内容不是首发]
- “🤔 Nothing, because there are no trained from scratch bitnet models that are any good.”
- 亮点:[解释手机上不能运行相关内容的原因]
- “👀 Dwedit:This isn’t even 1 - bit, it’s 1.58 bit.”
- 亮点:[指出框架实际的位运算情况]
- “😂 The title makes it sound like it’s running off of the CPU cache lol”
- 亮点:[指出标题易让人产生的误解]
- “🤔 Journeyj012: If you need to run shit on mobile, install termux and Ollama. Qwen2.5 - 0.5b, Llama3.2:1b are pretty good local models for your phone if you don’t have much free ram”
- 亮点:[提供手机运行相关内容的解决方案和模型推荐]
情感分析
总体情感倾向较为理性客观。主要分歧点在于手机上运行LLM是否有意义以及bitnet.cpp框架的一些技术细节方面。可能的原因是这是一个技术类话题,参与者更多基于技术事实和个人使用经验进行讨论。
趋势与预测
- 新兴话题:[bitnet.cpp框架在其他场景(非手机)下的应用]
- 潜在影响:[如果能解决在手机上运行的问题,可能会对手机端的LLM使用体验有较大提升]
详细内容:
《关于开源 bitnet.cpp 的热门讨论》
Reddit 上有一个热门帖子引起了广泛关注,标题为“!! They’ve open-sourced bitnet.cpp: a blazing-fast 1-bit LLM inference framework that runs directly on CPUs”,并附上了相关链接https://github.com/microsoft/BitNet。帖子提出了一个疑问:“Wonder what you can run on a phone with this 🤔”,获得了众多网友的讨论。
讨论焦点与观点主要集中在以下几个方面: 有人认为目前还没有从无到有训练且表现良好的 bitnet 模型,所以在手机上运行不了什么。还有人指出转换后的模型与量化模型表现相同,并非是合适的 bitnet 格式。也有人提到最先进的转换 bitnet llama 70B 表现比 FP16 8B 稍差,但文件大小相似,所以目前还没有节省资源。不过,也有人觉得从输出质量方面来看,bitnet 能耗更低、运行速度更快,理论上还是有优势的。
有人说这个并非是 1 位的,而是 1.58 位,意味着数字有三种状态。还有人觉得存储用 2 位会更实用,也许计算时用 2 位存储,但解包时是 256 个条目的查找表。
对于在手机上运行相关模型,有人推荐安装 termux 和 Ollama,称 Qwen2.5-0.5b、Llama3.2:1b 是不错的本地模型。有人更喜欢有图形用户界面的[https://github.com/Vali - 98/ChatterUI](https://github.com/Vali - 98/ChatterUI)。
关于手机上使用 LLM 的看法也存在分歧。有人宁愿使用手机上免费的 ChatGPT,认为在手机上运行 LLM 会大量消耗电池,比如 iPhone 用户测试苹果智能功能时就报告了电池续航大幅下降。但也有人认为其神奇之处在于理论上离线时也能拥有这些知识,只要能给手机供电,就有 AI 陪伴。还有人提到在徒步旅行等场景下,在手机上使用更方便,主要好处在于能耗,而不是尺寸或速度。但也有人反驳称在野外依靠 LLM 辨别可食用植物不可靠。
这场讨论展现了大家对于 bitnet.cpp 在手机上的应用以及 LLM 相关问题的不同看法和思考。
感谢您的耐心阅读!来选个表情,或者留个评论吧!