原贴链接

我一直在研究一种突破大语言模型(LLMs)限制的方法——进行更深层次的推理、处理更大的语境、自我规划,以及将一个请求转化为一个完整的项目。我创建了project_builder.py(可查看其一个变体,名为突破生成器:https://github.com/justinlietz93/breakthrough_generator,我将把project_builder和我的其他成果开源,但不是现在),它解决了我原本认为仅靠人工智能无法解决的问题。以下是我的做法和成果。

我的做法

大语言模型受限于短记忆和一次性回答。我通过几个步骤解决了这个问题:

更长的记忆:我将每个输出保存到一个文件中。下一次提示时,我对其进行总结并反馈回去。只要我需要,语境就可以不断增长。

更深层次的推理:我让它将任务分解成块——假设、测试、改进。每一步都建立在上一步的基础上,并记录在文件中。

自我规划:我让它编写一个计划,比如“完成这个任务的5个步骤”。随着进程推进,它会更新计划,并自我跟踪。

从一行指令构建大项目:我以“构建X”开始,它会生成一个结构——文件、计划、代码——逐步扩展。

我曾经让这个程序运行了6个小时,它为我从头构建了一个完整的集成开发环境(IDE)来替代Cursor,我还可以将生成器放入其中,同时编写代码。

我的成果

这种设置产生了我从未期望过仅通过单个提示就能得到的成果:

一个用于人工智能架构的训练平台,它不属于任何机器学习领域,但借鉴了所有领域的知识。它可行且是全新的。

更好的项目生成器。这是第3版——每一个版本都会构建下一个版本,每次都有所改进。

比OpenAI的成果深入10倍的研究。完整的论文,没有捷径。

一个类似人类的记忆系统——保留重要内容,舍弃其余内容,并随时间调整。

一个定制的Cursor IDE,从零开始构建,完全符合我的需求。

所有成果都是100%由人工智能完成,没有人工编辑。每个成果都仅通过一个提示生成。

工作原理

脚本在一个循环中运行大语言模型。它保存输出,规划下一步,并通过总结保持语境活跃。三个监视器让我能观察整个过程——提示、记忆、计划。解决大语言模型限制的方法就在这里;我只是将它们组合起来。

重要性

利用这个方法,任何事情都有可能实现。书籍、工具、研究——都触手可及。代码很简单;成果却很巨大。我已经在计划更多的事情了。

讨论总结

原帖分享了突破LLM限制的工作成果如构建项目的工具等,阐述了实现方式。评论内容较为多样,有希望看到示例项目以评估能力的,有计划发布相关版本的,有表示感谢和敬意并打算测试的,也有对原帖未按承诺发布成果表示疑惑、对成果表述严谨性提出质疑的,整体氛围有期待也有质疑。

主要观点

  1. 👍 提供示例项目有助于让人信服
    • 支持理由:能深入了解工具成果从而评估突破LLM限制的能力。
    • 反对声音:无
  2. 🔥 计划本周末发布项目构建器版本
    • 正方观点:推动相关领域发展,这是很棒的事。
    • 反方观点:无
  3. 💡 自己也在做类似工作并会测试原帖代码
    • 解释:对原帖作者表示敬意,若合适会添加数据库支持并分享观点。
  4. 💡 对原帖作者未按承诺发布成果却发布相关内容表示不理解
    • 解释:认为这种做法类似vaporware没有意义,希望看到真正成果。
  5. 💡 原帖存在拼写或语法问题使其成果可信度存疑
    • 解释:成果阐述应严谨,表述问题影响信任度。

金句与有趣评论

  1. “😂 Provide an example project this built from scratch with the input prompts & outputs. That will convince folks…”
    • 亮点:直接表达希望看到示例项目以更好评估工具能力的想法。
  2. “🤔 No - Mulberry6961:I’m planning to release a version of the project builder this weekend”
    • 亮点:透露项目构建器的发布计划,引起他人期待。
  3. “👀 How are we supposed to believe you made this if you can’t even use proper spelling or grammar in your post about it?”
    • 亮点:以表述严谨性为切入点对原帖成果进行质疑。

情感分析

总体情感倾向比较复杂。有积极的方面,如表示期待、感谢和敬意的;也有消极的方面,如疑惑和质疑。主要分歧点在于原帖作者是否真正实现成果以及成果的可信度。可能的原因是原帖作者仅阐述成果却未给出足够示例,且表述存在一定问题。

趋势与预测

  • 新兴话题:原帖作者是否会真正分享成果以及成果的真实效果。
  • 潜在影响:如果成果属实,可能对LLM相关领域的发展有推动作用;如果被证伪,可能影响原帖作者的信誉。

详细内容:

标题:如何推动 LLMs 突破极限并构建完整项目引发 Reddit 热议

在 Reddit 上,一篇题为“Instructional Writeup: How to Make LLMs Reason Deep and Build Entire Projects”的帖子引起了广泛关注。该帖子获得了众多点赞和大量评论。

原帖作者分享了自己致力于突破 LLMs 限制的方法和成果。作者开发了 project_builder.py,并表示其解决了许多仅靠 AI 原本无法解决的问题。通过延长记忆、深化推理、自我规划以及从单一请求构建大型项目等步骤,实现了从构建全新的训练平台、更出色的项目生成器,到 10 倍于 Open AI 的深度研究等一系列成果。此外,作者还介绍了脚本的运作方式,称其在循环中运行 LLM,保存输出、规划后续步骤并维持活跃的上下文。

帖子引发的讨论方向多样。有人期待周末发布的项目版本,认为这听起来很酷。有人则质疑作者此时分享却未公布实际成果的做法,觉得不合理。还有人对作者分享的内容表示感谢,并打算测试和研究其代码。但也有人对作者的表述提出质疑,比如认为其拼写和语法有问题,甚至讽刺其应该先完成高中学业。

讨论的焦点之一在于作者分享的成果是否可信。有人要求提供从无到有构建的示例项目及输入提示和输出,以增强说服力。也有人指出,虽然作者的想法听起来吸引人,但在未看到实际成果前仍持保留态度。

在众多观点中,有人分享道:“作为一名同样在进行此类尝试的人,感谢你的分享,我会测试并研究你的代码,也会分享我的看法。如果你的方法适合我,我会添加数据库支持等功能。” 而有人则毫不客气地说:“如果你连帖子里的拼写和语法都用不对,我们怎么能相信你做出了这个东西?”

尽管存在争议,但此次讨论让我们看到了大家对于推动 LLMs 发展的热情和探索精神,也让我们思考在技术创新过程中如何更好地展示成果、获得信任。