原贴链接

上个月,我听说有人在一台使用了4年的游戏笔记本电脑上为自己的小企业生成了一个完全定制的聊天机器人,同时避免了每年2万美元的GPT - 4 API费用。没有数据泄露,没有限流,也没有“内容政策”方面的争论。这让我思考:在本地运行AI是否最终正在将权力从大型科技公司转移走……还是仅仅创造了一种新的技术特权阶层?

来自一线的观察

好的方面: 隐私获胜:不再担心你的日记条目/医疗查询/商业创意是否正在被用于训练企业模型。 成本优势:云API按令牌收费,但我的RTX 4090以Netflix订阅的价格就可以无限期运行13B模型。 离线超能力:上周在没有网络的情况下被困住了?我微调过的LLaMA在我的手机无法使用时帮助调试代码。

不好的方面: 硬件需求:显存(VRAM)要求感觉就像是对穷人的一种征税。2000美元的GPU不应该是“民主化”AI的入门门槛。 微调困境:上周末我花了12个小时试图量化一个模型而不降低其性能。为什么这就不能容易点呢? 开源假象:即使是“无审查”的模型也会从其训练数据中继承偏差。自由≠中立。

我看到的现实世界中的实验 一位研究人员使用本地模型来分析敏感的心理健康数据(没有伦理委员会的繁琐手续)。 独立游戏工作室在设备上生成非玩家角色(NPC)对话以避开云提供商的版权打击。 教师在树莓派上为没有IT预算的学校运行历史辅导程序。 本地模型目前究竟在哪些方面真正优于云AI,哪些方面是炒作失败之处?“民主化”的说法是那些买不起GPT - 4 Turbo的人的自我安慰……还是一场真正革命的基础呢?

很想听听你们的经历。关于在本地运行AI,最让你震惊的是什么?(如果你用LLaMA构建了一些很棒的东西,私信我,我会和你交换GPU优化技巧。)

讨论总结

原帖围绕本地模型和云巨头在AI领域展开,探讨本地模型是否带来了AI的真正民主化。提到本地模型在隐私、成本、离线方面的优势,以及硬件需求、模型调整、数据偏差等问题,并列举了实际应用场景,询问本地模型与云AI的实际表现对比。评论者们观点各异,有质疑原帖内容缺乏信息性的,有强调本地模型运行成本高速度慢的,有直接否定本地模型与云巨头竞争代表AI民主化的,也有认可原帖目标并鼓励参与的,还有从企业角度分析本地模型不适用的,以及对比本地模型和云AI在不同任务中的表现并对未来趋势进行预测的等。

主要观点

  1. 👍 本地模型在隐私方面有优势,可避免数据泄露
    • 支持理由:原帖指出本地模型运行时不用担心个人数据(如日志、医疗查询、商业想法等)被用于训练企业模型。
    • 反对声音:有评论者认为OpenAI有多种保障措施,企业使用本地模型在隐私方面并无优势。
  2. 🔥 对于大多数企业,20,000美元的token费用相较于人力、硬件等成本可忽略不计
    • 正方观点:DataPhreak称企业还需支付开发人员、运维人员等六位数收入,相比之下云服务的token费用微不足道。
    • 反方观点:原帖强调本地模型在成本方面有优势,以RTX 4090运行模型的成本类比Netflix订阅费,远低于云API按token收费。
  3. 💡 在t2i/t2v方面本地模型有强大竞争力
    • 解释:评论者认为在图像到图像/图像到视频方面,本地模型通过微调等能与主流云AI模型竞争。
  4. 💡 目前本地运行的LLMs在质量和速度上不及云端
    • 解释:评论者根据自身使用经验,指出本地运行的大型语言模型在质量和速度上远不如云端的大型模型。
  5. 💡 本地模型将成为普通用户使用AI的未来趋势
    • 解释:随着时间推移,本地和云AI差距在缩小,本地模型对于普通用户会更有发展潜力。

金句与有趣评论

  1. “😂 "generated a fully custom chatbot\" = finetuning and post training, or just downloading an open model for inference?"”
    • 亮点:对原帖中的关键表述提出疑问,引发思考。
  2. “🤔 "so many of these posts are vibes - based and not informative"”
    • 亮点:指出相关帖子缺乏信息性的现象。
  3. “👀 "20,000美元的token费用与支付给开发人员、运维人员、硬件等的六位数收入相比,是微不足道的。"”
    • 亮点:从企业成本角度给出对比数据,支持自己的观点。
  4. “😉 "that’s the goal brother"”
    • 亮点:简洁表达对原帖目标的认可。
  5. “💥 "LLMs: Currently, whatever I run locally cannot hold the candle to the big ones, both in quality and speed."”
    • 亮点:通过自身使用体验对比本地和云端LLMs的性能差异。

情感分析

总体情感倾向较为中立。主要分歧点在于本地模型是否能与云AI竞争、是否带来AI的民主化、本地模型对企业是否适用等方面。产生分歧的原因在于不同的使用场景(如企业和普通用户)、对成本和隐私的考量标准不同以及对本地模型和云AI技术发展现状和未来趋势的不同判断。

趋势与预测

  • 新兴话题:本地模型和云AI在不同任务(如t2i/t2v、t2t等)中的表现对比以及随着技术发展二者差距的变化。
  • 潜在影响:如果本地模型如部分人预测的那样成为普通用户的未来趋势,可能会影响云AI的市场定位更多偏向B2B,同时也可能改变AI相关的硬件市场需求,例如对GPU的需求随着本地模型技术优化可能会发生变化。

详细内容:

《本地模型与云巨头的 AI 之争:是真正的民主化还是新的技术垄断?》

近日,Reddit 上一篇题为“Local Models vs. Cloud Giants: Are We Witnessing the True Democratization of AI?”的帖子引发了热烈讨论。该帖获得了众多点赞和大量评论,主要探讨了在 AI 领域,本地模型是否正在从云巨头手中夺取权力,还是只是创造了一种新的技术特权阶层。

原帖提到有人用 4 年旧的游戏笔记本为小企业生成了自定义聊天机器人,节省了每年 2 万美元的 GPT-4 API 费用,同时还列举了本地模型的优缺点,如保护隐私、成本较低、离线可用等优点,以及硬件需求高、调试困难、存在偏差等不足。此外,还分享了一些现实中的应用案例,如研究者用本地模型分析敏感心理健康数据、独立游戏工作室利用本地模型避免版权问题、教师在学校用树莓派运行历史辅导程序等,并提出了疑问:本地模型在哪些方面实际优于云 AI,哪些方面只是炒作?

讨论的焦点主要集中在以下几个方面:

  • 有人认为下载模型如果能完成工作就可以,但很多帖子只是基于感觉而非提供有用信息。
  • 有人表示自己没有 42 个 H100s,暗示硬件成本过高。
  • 有人建议先从小规模开始,投入 300 到 400 美元购买有 16GB VRAM 的设备,然后再逐步扩展。
  • 有人觉得本地模型运行成本高、速度慢令人震惊。
  • 有人认为对于大多数企业来说,本地模型不划算,因为涉及高昂的开发、运维和硬件成本,而 OpenAI 有符合 HIPAA 合规的许可,隐私不是采用本地模型的有效理由。
  • 也有人认为自己搭建并扩展设置是更好的方法,因为 API 费用是无限的,而且限制用户使用没有意义。

有用户分享道:“作为一名顾问,我总是建议客户不要尝试本地模型。2 万美元的令牌费用与为开发者、运维、硬件等支付的 6 位数收入相比微不足道。如果是超小企业,老板是开发者且懂硬件,那是个例外。对于大多数企业,本地模型根本没有意义。”

还有用户指出:“在 t2i / t2v 方面,本地模型与主流云 AI 模型旗鼓相当。结合精细调整、Lora 和自定义工作流程,就拥有了一个非常强大的工具,这是仅通过 API 或封闭版本的 WebUI 访问无法比拟的。”

但也有人认为目前本地运行的模型在质量和速度上无法与大型模型相比。

讨论中的共识在于大家都认识到了本地模型和云模型各自存在的优势和问题,不同场景下的适用性不同。特别有见地的观点是,有人认为随着时间的推移,本地模型和云模型的差距在逐渐缩小,未来本地模型对于普通用户来说可能成为常态,而云模型更多面向 B2B 服务。

这场关于本地模型与云巨头的争论还在继续,未来 AI 的发展究竟会走向何方,让我们拭目以待。