原贴链接

我刚刚发现我的组织已经屏蔽了huggingface。:-O。

我知道他们已经屏蔽了OpenAI和Gemini,我理解不想将数据发送给外部组织,但本地也屏蔽?我想人们可以通过HF空间进行推理。

如果你的组织不支持AI/LLM,如果它能提高你的工作产出,你会不遗余力地使用它吗?还是你会耸耸肩,低效地工作?

讨论总结

本次讨论主要围绕在工作中使用本地大型语言模型(LLM)的情况,重点关注数据安全和隐私保护问题。参与者分享了他们在不同组织中使用本地LLM的经验,讨论了如何通过禁用遥测、使用防火墙和选择特定工具如continue.dev和ollama来保护数据不外泄。同时,也有用户提到了使用亚马逊bedrock来确保数据不被第三方访问。讨论中还涉及了组织对AI/LLM工具的限制,以及员工在面对这些限制时的个人选择和技术规避策略。此外,讨论了LLM在提高工作效率方面的潜力,以及在编程、写作和寻找新思路等领域的应用。

主要观点

  1. 👍 数据安全和隐私保护是使用本地LLM的主要考虑因素
    • 支持理由:通过禁用遥测和使用防火墙等措施,可以有效保护数据不外泄。
    • 反对声音:完全阻止所有外部AI服务的访问是困难的。
  2. 🔥 组织对AI/LLM工具的限制可能影响工作效率
    • 正方观点:组织应采用本地解决方案或建立可信的企业解决方案。
    • 反方观点:这种政策可能导致内部矛盾和效率问题。
  3. 💡 使用本地LLM可以提高工作效率
    • 解释:在编程、写作和寻找新思路等领域,本地LLM能够显著提升工作效率。

金句与有趣评论

  1. “😂 I’m using continue.dev with ollama for some coding stuff since it’s all local and I have a gaming laptop for work. It’s not a bad setup”
    • 亮点:用户分享了在个人设备上使用本地LLM进行编程的经验。
  2. “🤔 Or it’s just for security reasons, which would be understandable.”
    • 亮点:评论者提出了组织限制使用外部AI服务可能是出于安全考虑的观点。
  3. “👀 I use continue.dev with amazon bedrock. so im able to use claude models through bedrock whicheans that anthropic has no access to my data.”
    • 亮点:用户分享了如何通过亚马逊bedrock确保数据不被第三方访问的经验。

情感分析

讨论的总体情感倾向较为积极,大多数用户认为使用本地LLM可以提高工作效率并保护数据安全。然而,也存在一些担忧和争议,主要集中在组织对AI/LLM工具的限制可能影响工作效率和创新。

趋势与预测

  • 新兴话题:组织可能会更加重视本地LLM的部署和使用,以确保数据安全和提高工作效率。
  • 潜在影响:本地LLM的广泛应用可能会改变工作方式,特别是在编程、写作和数据分析等领域。

详细内容:

《关于工作中使用本地 LLM 的热门讨论》

在 Reddit 上,一篇题为“How many of you are personally using local LLM for work?”的帖子引发了众多关注。该帖子称其所在组织屏蔽了 Hugging Face,且之前 OpenAI 和 Gemini 也被屏蔽。这一情况引发了关于在工作中使用本地 LLM 工具的热烈讨论,目前已有大量评论。

讨论焦点与观点分析如下:

有人认为在大公司就得忍受工作低效、使用过时的设备和方法,这是常态。但也有人指出,公司这样做可能是出于安全考虑,在这种情况下应采用本地设置或建立受信任的企业解决方案。还有用户提到,如果使用个人电子邮件账号访问 ChatGPT 等,账号一旦遭入侵,攻击者就可能获取包含敏感数据的聊天记录。

一些公司对生成式 AI 的使用较为宽松,依靠政策而非直接封禁。例如,某公司规定特定类型信息不得离开公司网络或批准的系统,违规将被解雇,但此规定似乎未被严格执行。

也有用户表示其所在公司禁止了 Google Drive、Dropbox 等,只允许员工使用企业版 OneDrive,并通过强制 MFA 等方式控制安全性。

有人认为大多数大公司应考虑建立自己的 LLM 实例,并进行微调以适应公司信息。有人使用 continue.dev 与 ollama 进行编码工作,认为这是不错的本地设置,但担心数据是否会泄露。

有人在工作中利用本地 LLM 进行情感分析和数据总结。还有人表示若使用本地 LLM 不会导致公司内部数据泄露但可能涉及版权问题,就不会冒险使用。

部分用户表示尚未看到程序员使用 LLM 工具能带来实际的长期净收益,且担心泄露客户数据。但也有人通过建立本地 LLM 系统,在处理文档和营销方面取得了显著效果。

总的来说,关于在工作中是否使用本地 LLM 工具,大家观点各异。有人认为若能提高工作效率就会努力使用,有人则因各种原因持谨慎态度。这场讨论反映了在新技术应用于工作场景时所面临的诸多复杂问题和不同考量。