原贴链接

从2024年到2025年新年期间事情发生了令人难以置信的变化。

我们有v3和r1版本在应用程序上免费推出,在像webdevarena这样的基准测试中击败了o1甚至o3。

这些模型都是开源且经过蒸馏的,因此根据你的计算能力水平它们有各种各样的用例。

在专有前沿方面 - 我们有sonnet,它在编码方面胜过其他所有模型。还有OpenAI,他们自己以每月200美元的计划吸引生产消费者。

我认为我们还没有到达一个模型在所有情况下都是最好的阶段。有时,你需要在更强大的大语言模型上进行快速推理,这时云服务就很难被击败。

其他时候,一个小型本地模型就足以完成工作,而且它运行速度相当快,不用长时间等待。

有时将其作为移动应用程序(头脑风暴时)是合理的,而在其他情况下,将其放在桌面上对于提高生产力、保持上下文和复制粘贴至关重要。

你目前如何利用人工智能提高生产力以及如何选择使用哪种大语言模型?

讨论总结

该讨论围绕2025年2月用于生产力的LLM(大型语言模型)工具栈展开。参与者分享了各自在不同场景下使用的LLM工具,包括代码生成、文本处理、语音笔记处理等工作流程中的应用,还提出了将不同工具组合构建智能应用的设想,整体氛围积极且务实,大家都认同根据不同需求选择不同的LLM工具。

主要观点

  1. 👍 不同的LLM可用于不同的工作场景。
    • 支持理由:众多评论者分享了根据不同任务(如代码生成、语法校正等)选择不同LLM工具的经验。
    • 反对声音:无。
  2. 🔥 根据自身机器性能选择LLM。
    • 正方观点:如有人因机器性能不强选择Qwen7b用于本地一般性事务。
    • 反方观点:无。
  3. 💡 使用多种工具组合提高生产力。
    • 解释:有评论者列举了用于一般性聊天、数据丰富化、终端、简单工作流程等不同用途的工具组合。
  4. 🤔 构建包含多种功能的工作流程提升效率。
    • 解释:例如有人构建了语音笔记处理、转录、格式和语法校正并添加到日记应用的工作流程。
  5. 🌟 某些工具可整合多种资源,方便使用。
    • 解释:像“assistant.sh”可整合本地模型和大型人工智能供应商,使用者无需频繁切换应用。

金句与有趣评论

  1. “😂 Qwen7b for general local stuff (my machine is not that powerful)”
    • 亮点:直白地表明根据机器性能选择LLM,具有代表性。
  2. “🤔 One of the things I just setup is a nice pipeline on my Mac that detects new voice notes recorded from my phone, uses Whisper to transcribe them, uses Ollama with deepseek to format and grammar correct, and then adds an entry in the journal app I use with the formatted text and the original audio attached.”
    • 亮点:详细描述了一个在Mac上的工作流程,涵盖多种功能和工具。
  3. “👀 Llama CPP”
    • 亮点:简单提及了一个被使用的工具,可能是比较受关注的工具。
  4. “💡 openwebui. with websearch. multiple models. Really just started using openwebui; didn’t realize how good it was. and how much i can accomplish with 2 3090’s”
    • 亮点:强调了使用openwebui结合其他功能的良好体验以及硬件资源对工作的助力。
  5. “😎 我使用Qwen2.5 14b本地(与Ollama一起)用于改进、总结和翻译文本。”
    • 亮点:明确指出了特定模型在特定任务中的使用。

情感分析

总体情感倾向积极,大家积极分享自己的工具使用经验和想法。主要分歧点较少,可能是因为大家都在分享自己的实际使用情况,而不是在争论某种观点的对错。这种积极氛围的原因可能是大家都在探索如何更好地利用LLM提升生产力,处于互相学习和交流经验的状态。

趋势与预测

  • 新兴话题:连接不同工具构建智能应用的设想可能会引发后续更多关于人工智能工具整合与创新应用的讨论。
  • 潜在影响:如果这些工具和应用能够不断优化和普及,可能会对工作效率提升、软件开发等相关领域产生积极影响,推动人工智能在更多领域的深入应用。

详细内容:

标题:2025 年 2 月,你的生产力 LLM 堆栈是什么?

在 Reddit 上,有一个热门讨论引起了大家的关注,这个帖子探讨了 2025 年的 LLM 堆栈在生产力方面的应用。该帖子获得了众多点赞和大量评论。

原帖指出,从 2024 年到 2025 年,情况发生了巨大变化。各种新模型不断涌现,比如 v3 和 r1 在某些基准测试中表现出色,且部分模型开源,应用场景多样,但还未出现一个适用于所有情况的最佳模型。有时需要强大的云服务进行快速推理,有时小型本地模型就能完成工作。并且不同场景下,移动端或桌面端的应用各有优势。

讨论的焦点主要集中在大家如何利用 AI 提高生产力以及如何选择合适的 LLM 模型。有人分享道:“Cline - Qwen7b 用于一般本地事务(因为我的机器不是很强大),Deepseek 用于架构/推理,Claud Sonnet 3.5 用于代码生成,CodeGate 防止 LLM 在代码中加入不良内容,还喜欢其在用户界面中的提示历史。”

还有用户说:“我刚在 Mac 上设置了一个很棒的流程,能检测手机新录制的语音笔记,用 Whisper 转录,用 Ollama 与 deepseek 进行格式和语法纠正,然后在我使用的日志应用中添加带有格式化文本和原始音频的条目。超级流畅,还打算在其他应用中做类似的事情。”

另有人提到:“我当前的设置在多个方面使用 AI:使用本地的 Qwen2.5 14b(搭配 Ollama)来改进、总结和翻译文本;对于代码重构,依赖 Qwen2.5 Coder 14b;在编程自动补全建议方面,选择 Qwen2.5 Coder 3b;需要更强大功能时,切换到本地的 32b 版本或通过 OpenRouter 选择更好的模型。还一直在使用 Felo.ai 进行 AI 增强搜索,今天注册了 iAsk.ai,因为我知道如何获得其 Pro 计划的免费一年使用期。”

讨论中也存在共识,大家都认为没有一个 AI 模型能完美适用于所有情况,不同模型在代码、写作等方面各有优势,要根据具体需求选择。

总之,通过这些丰富多样的分享和讨论,我们可以看到大家在利用不同的 LLM 模型提升生产力方面的探索和尝试。