原贴链接

如果你想在手机上尝试 Phi 3.5,这里有一个快速指南:

对于 iPhone 用户:https://apps.apple.com/us/app/pocketpal-ai/id6502579498

对于 Android 用户:https://play.google.com/store/apps/details?id=com.pocketpalai

一旦你安装了应用程序,前往 Huggingface 查看 GGUF 版本的模型:https://huggingface.co/QuantFactory/Phi-3.5-mini-instruct-GGUF/tree/main

找到适合你手机能力的模型文件(你可以尝试其中一个 q4s 模型)。下载后,使用“添加本地模型”上传模型的 gguf 文件,然后进入模型设置,将模板设置为“phi chat”,就可以开始了!

祝你玩得开心!

更多详细说明:https://medium.com/@ghorbani59/pocketpal-ai-tiny-llms-in-the-pocket-6a65d0271a75

更新:向 Android 用户致歉。目前链接不可用。由于这是 Play Store 中的新应用,至少需要 20 名选择加入的用户(我之前并不知道 Google 有这个要求——几年前我发布应用时,这不是一个要求)。我会想办法直接在这里分享 APK,或者你可以通过私信发送你的电子邮件,我会将你添加为测试者,或者你可以等待几天,直到我们达到 20 名测试者并公开发布。

image

讨论总结

本次讨论主要集中在如何在手机上安装和运行Phi 3.5模型,特别是针对Android用户的安装问题和解决方案。讨论中涉及了模型的下载、安装步骤、性能优化、隐私保护等多个方面。用户们分享了他们的安装经验,提出了遇到的问题,并得到了作者和其他用户的积极回应和解决方案。总体来说,讨论氛围积极,用户们对模型的运行和优化表现出浓厚的兴趣。

主要观点

  1. 👍 Android用户的安装问题
    • 支持理由:作者提供了GitHub仓库链接以供下载APK文件,并邀请用户通过分享电子邮件成为测试者。
    • 反对声音:初始提供的Android应用链接无效,给用户带来了不便。
  2. 🔥 模型的性能优化
    • 正方观点:用户分享了在不同设备上的运行经验,讨论了如何通过调整设置来优化模型的运行速度。
    • 反方观点:某些新模型可能不兼容,导致运行效率低下。
  3. 💡 隐私保护
    • 解释:作者确认应用程序是私密的,下载模型后无需互联网连接,从而保护用户隐私。
  4. 👍 iPhone用户的安装和运行
    • 支持理由:iPhone用户可以通过指定链接安装Phi 3.5应用,并分享了在不同设备上的运行经验。
    • 反对声音:某些iPhone用户在运行模型时遇到了“Loading”卡顿的问题。
  5. 🔥 社区贡献和帮助
    • 正方观点:用户们积极分享经验,提供帮助,如提供优化版本的模型链接和具体的设置建议。
    • 反方观点:某些用户在安装和运行过程中遇到了困难,需要更多的技术支持。

金句与有趣评论

  1. “😂 holy fuck this is so cool. running on my iphone 14 pro!!!!
    • 亮点:用户对在手机上成功运行Phi 3.5模型的兴奋体验。
  2. “🤔 It is private. After you download the model, you don’t need internet anymore :)
    • 亮点:作者对隐私保护的确认,消除了用户的担忧。
  3. “👀 Man you deserve a choripan and a full asado!
    • 亮点:用户通过幽默的方式表达对作者的感谢和赞赏。
  4. “😂 Great job! This is so cool
    • 亮点:用户对解决方案的赞赏,认为这是一个很酷的发现。
  5. “🤔 They should all squeak in at under 3gig of ram usage (about 2gig + OS usage) and are all surprisingly good and quick models for their size.
    • 亮点:用户分享了适合低内存设备的模型链接和设置建议。

情感分析

讨论的总体情感倾向是积极的,用户们对如何在手机上安装和运行Phi 3.5模型表现出浓厚的兴趣。主要分歧点在于Android用户的安装问题,但作者和其他用户提供了积极的解决方案。用户们对模型的性能优化和隐私保护也表现出高度关注。

趋势与预测

  • 新兴话题:模型的性能优化和隐私保护可能会引发更多后续讨论。
  • 潜在影响:随着更多用户成功安装和运行Phi 3.5模型,可能会推动更多关于模型优化和隐私保护的技术分享和讨论。

详细内容:

《在手机上运行 Phi 3.5 的热门讨论》

近日,Reddit 上一篇关于如何在手机上运行 Phi 3.5 的帖子引起了广泛关注,获得了众多用户的积极参与和讨论。该帖子点赞数众多,评论数也十分可观。

原帖为用户提供了在 iPhone 和 Android 手机上运行 Phi 3.5 的详细指南,并附上了相关链接。然而,Android 版本的链接出现了问题,引发了用户们的热烈讨论。

讨论的焦点主要集中在以下几个方面: 有人表示应用似乎仅对注册测试者可用,链接无法使用。还有用户反馈 Google Play 商店的相关链接显示错误页面。对于 iPhone 用户,有用户分享了在 iPhone 15 Pro Max 上的使用体验,包括运行速度等。 关于可运行的手机型号和内存要求,有人指出不同型号的手机运行不同模型的情况。比如 Gemma 2 对于内存的需求相对较小,而 Phi 3.5 则要求更高。还有用户为内存较小的手机,如 iPhone SE 2020 推荐了适用的模型。 在运行速度方面,不同用户对不同模型的速度感受有所不同。有人提到模型大小和手机硬件都会影响运行速度。

有用户称赞这是一个非常棒的程序,也有人询问源代码是否开放。还有用户讨论了如何下载模型,以及如何调整设置以提高运行速度。

总的来说,这次关于在手机上运行 Phi 3.5 的讨论十分热烈,为感兴趣的用户提供了丰富的信息和经验分享。但同时,也存在一些待解决的问题,比如 Android 版本链接的修复以及如何更好地满足不同手机用户的需求。