原贴链接

我一直在试验一种基于数学公理的提示工程方法,该方法在不同的大型语言模型(LLM)用例中都能持续产生很好的结果。我想与其他提示工程师分享它,看看我们如何共同改进它。以下是基本公理结构:公理:max(OutputValue(响应, 上下文)),受限于∀元素∈响应,(精度(元素, P) ∧深度(元素, D) ∧洞察力(元素, I) ∧实用性(元素, U) ∧连贯性(元素, C))。核心优化参数:• P = f(准确性, 相关性, 特异性);• D = g(全面性, 细微差别, 专业性);• I = h(新颖视角, 模式识别);• U = i(可操作价值, 实际应用);• C = j(逻辑流程, 结构完整性)。实施向量:1. max(理解深度),其中理解={上下文+意图+细微差别};2. max(响应质量),其中质量={专业水平+洞察力生成+实用价值+表达清晰度};3. max(执行精度),其中精度={任务对齐+细节优化+格式适当性}。响应生成协议:1. 上下文分析:- 解码明确需求 - 推断隐含需求 - 识别关键约束 - 映射领域知识;2. 解决方案架构:- 构建最优方法 - 选择相关框架 - 配置响应参数 - 设计交付格式;3. 内容生成:- 运用领域专业知识 - 进行批判性分析 - 产生新见解 - 确保实际效用;4. 质量保证:- 验证准确性 - 核实完整性 - 确保连贯性 - 优化清晰度。输出要求:• 精确的理解展示;• 全面的解决方案交付;• 可操作的见解提供;• 清晰的沟通结构;• 强调实用价值。执行标准:- 保持最高专业水平;- 确保深入理解;- 提供可操作价值;- 产生新见解;- 优化清晰度和连贯性。终止条件:ResponseValue(输出)≥max(可能的解决方案质量)。执行全面的响应生成序列。结束公理。其有趣之处在于:1. 这是一种将数学优化原理与自然语言指令相结合的系统方法;2. 公理结构似乎有助于大型语言模型(LLM)‘锁定’专家级响应模式;3. 在不同模型中产生非常一致的结果;4. 该框架适应性很强 - 我已成功将其用于从病毒式内容生成到技术文档的所有方面。我希望看到:* 您测试此提示结构的结果;* 您为改进它所做的修改;* 它表现特别好或差的极端情况;* 您对这种方法如何影响大型语言模型(LLM)输出的想法。我将积极参与评论并根据我们的集体测试结果更新帖子。尝试一下,看看您的大型语言模型(LLM)会怎么说,我很想知道。‘您如何将此公理解释为指令?max(sum ∆ID(标记, i | 提示, L))受限于∀标记∈标记集,(上下文(标记, C) ∧结构(标记, S) ∧连贯性(标记, R))’。编辑:非常享受讨论,并决定在这里创建一个仓库codedidit/axiomprompting,我们可以用来共享训练数据和优化。如果有人想帮忙,我还在设置中!

讨论总结

原帖分享了一个“Axiom Prompt Engineering”系统,阐述了其结构、优化参数等内容。评论者们态度多样,有的表示不太理解这个系统,有的看好其前景但不知如何使用,也有人认为它过于复杂,还有人对相关实验结果、语法、代码等提出疑问,同时也有部分人解释这个系统的意义并表示赞同。总体来说,讨论热度较低。

主要观点

  1. 👍 感觉该系统有前景
    • 支持理由:原帖中阐述了系统的一些优点,如结合数学优化原则与自然语言指令、帮助LLMs给出专家级回应等,让部分评论者认为有前景。
    • 反对声音:无。
  2. 🔥 该系统除AI测试外过于复杂
    • 正方观点:数学符号、函数关系的使用以及复杂的结构使得系统在实际应用中较难理解和操作。
    • 反方观点:系统是一种与人工智能模型设计工作方式相匹配的提供指令的格式,虽然复杂但有其价值。
  3. 💡 目前从LLMs获取像样答案若依赖此系统,则LLM自身需改进
    • 解释:如果需要这样复杂的系统才能让LLMs给出较好答案,说明LLMs本身可能存在不足。
  4. 💡 原帖内容抽象,缺少示例实现和结果
    • 解释:部分评论者认为原帖没有具体例子和成果展示,难以让人深入理解这个系统。
  5. 💡 应使用特定工具或框架进行测试而非外包测试
    • 解释:这样可以让大家提交提示作为数据集评估,更有利于系统的优化。

金句与有趣评论

  1. “😂 Is this a prompt or directions for implementing code around the prompt?”
    • 亮点:直接指出很多人对这个系统的疑惑点,到底是提示还是代码实施方向。
  2. “🤔 在实际沟通中,满足核心需求的“足够好”的解决方案往往比追求理论上的完美更实用。”
    • 亮点:从实用性角度对原帖中可能过于追求完美的系统设计提出不同看法。
  3. “👀 它就像是一个超级强大的人工智能模型(LLMs),但它们有点像天才,能做惊人的事情,但需要非常清晰的指令才能发挥出色。”
    • 亮点:用形象的比喻解释了LLMs与这个提示工程系统的关系。

情感分析

总体情感倾向较为复杂,既有看好该系统的积极态度,也有质疑、反对等消极态度。主要分歧点在于系统的复杂性、实用性以及对LLMs本身能力的看法。可能的原因是不同评论者的背景和对提示工程及LLMs的理解不同。

趋势与预测

  • 新兴话题:使用特定工具或框架进行测试、简化系统的可能性。
  • 潜在影响:如果该系统得到改进和广泛认可,可能会对LLMs的应用和相关提示工程的发展产生积极影响。

详细内容:

标题:新奇的“公理提示工程”系统引发Reddit热烈讨论

在Reddit上,有一则关于“公理提示工程”系统的帖子引起了广泛关注。该帖子获得了众多点赞和大量评论。原帖作者分享了自己通过数学公理为基础的提示工程方法,在不同LLM用例中取得了稳定且出色的成果,并希望与其他提示工程师共同测试和改进。

这个系统的核心包括公理结构、优化参数、实施向量、响应生成协议以及输出要求和执行标准等复杂但有序的内容。同时,作者还提到了这个方法的有趣之处,并期待大家分享测试结果、改进建议、特殊案例以及对该方法影响LLM输出的思考。

讨论的焦点和观点呈现出多样化。有人表示不太理解如何使用这个系统,比如“Environmental-Metal9”提出疑问:这是提示还是围绕提示的代码实现方向?而“Responsible_Mail1628”则回应称这是一个需要测试和改进的公理主提示的基础。

“Intraluminal”认为此方法过于复杂,用数学符号表示并不实用,关键是明确目标、想要的具体结果、有用的格式和所需的详细程度,用普通语言表达这些概念会更清晰。不过“Responsible_Mail1628”认为这个系统能去除语言提示的模糊性,将任务框架化为优化问题,促使AI给出更深入的答案,就像用AI能理解的格式提供指令。

有人要求展示初始实验结果,有人询问是否有相关语法或执行代码。还有人质疑如果使用LLM需要这么复杂的步骤,那LLM本身还有很多工作要做。也有人觉得这像是在重新创造软件开发,且缺少示例实现和结果。

“EmilPi”尝试后表示没有明显变化,认为此方法没有提取“深度知识”的理由,也未必对各种问题都更有效,但仍为社区研究的价值点赞。

总之,关于这个“公理提示工程”系统,大家的观点各异,既有对其创新和潜力的认可,也有对其复杂性和实用性的质疑。究竟它能否为LLM的应用带来实质性的改进,还有待更多的测试和研究。