原贴链接

为什么这么多AI模型都有这种倾向,会在输出中添加像“当然,这里是你的问题的答案:”这样的无用废话?

如果是聊天模型,我还能理解,但这种情况在指令模型中也经常发生。我说的就是你,Gemma。

我反对的理由:

这会消耗额外的令牌,从而增加时间。

这会消耗额外的令牌,从而增加电力消耗。

从输出中移除这些内容很麻烦,而对于想要这种废话的人来说,用一小段代码生成随机版本相对容易。这是一种愚蠢的不平衡,尤其是在与第二点相关的情况下。

一个社会问题是,人们倾向于将LLM拟人化,这可能导致他们更不加批判地接受其输出。让LLM的输出看起来“像是在与人交谈”有助于掩盖这一切都只是“打了激素的统计数据”。

这会导致在Reddit上发表抱怨帖子。

这里有一个例子,Gemma 2 2B在总结《爱丽丝梦游仙境》:

text

当然,这里是总结:



爱丽丝坐在姐姐旁边感到无聊。她想做点什么,但不知道该做什么。



当然,这里是文本的简洁总结:



老鼠害羞胆小,害怕法语。它坚决不讨论它家族对猫的厌恶,拒绝被叫出名字。



当然,这是您要求的总结:



爱丽丝在与老鼠争吵后道歉。等等

请将这些东西限制在聊天版本的模型中。

// 抱怨结束

讨论总结

本次讨论主要聚焦于AI模型在输出中频繁添加诸如“Sure, here’s an answer to your question:”等无用填充语的现象。参与者普遍认为这种做法不仅增加了额外的成本(包括时间和电力),还可能导致人们对AI模型产生不必要的拟人化理解,从而影响对AI输出内容的批判性思考。此外,这种做法还引发了关于AI模型输出优化、社会影响和用户体验的深入讨论。

主要观点

  1. 👍 填充语增加额外成本
    • 支持理由:填充语增加了额外的token消耗和电力消耗,对资源造成浪费。
    • 反对声音:有评论认为这种做法在某些场景下可以提高用户体验。
  2. 🔥 拟人化问题
    • 正方观点:填充语可能导致人们过度拟人化AI,影响对AI输出的批判性思考。
    • 反方观点:有评论认为拟人化有助于提高AI的亲和力和接受度。
  3. 💡 社会问题和讨论热度
    • 填充语的使用在社会层面引发了一些问题,如增加Reddit上的抱怨帖子。
    • 讨论热度:中至高,反映了用户对AI模型输出方式的广泛关注和不满。
  4. 👀 指令控制和优化
    • 用户可以通过指令控制AI模型的输出格式,优化输出内容。
    • 有评论提到使用正则表达式去除填充语的可能性。
  5. 🌟 用户体验和效率
    • 填充语的移除对用户来说是一个麻烦,而对想要这种填充语的用户来说却相对容易。
    • 提高AI输出的效率和清晰度是用户普遍的期望。

金句与有趣评论

  1. “😂 Stop confirming my requests, instead go straight to answering my exact question.”
    • 亮点:直接表达了用户对AI模型输出简洁性的期望。
  2. “🤔 I’ve just started putting a bias or ban against the tokens for words like ‘Sure’, ‘Absolutely’, ‘Alright’, and ‘Certainly’.”
    • 亮点:评论者通过技术手段优化AI输出,减少冗余信息。
  3. “👀 The widespread use of ‘yes, and’ style idiom has a very specific purpose, and it has nothing to do with how we interpret it.”
    • 亮点:探讨了填充语在AI模型中的实际作用和用户理解的差异。

情感分析

讨论的总体情感倾向较为负面,主要分歧点在于填充语的使用是否必要以及其对用户体验和AI模型认知的影响。多数评论者认为填充语增加了不必要的成本和处理负担,且可能导致人们对AI模型产生过度拟人化理解,从而影响对AI输出的批判性思考。

趋势与预测

  • 新兴话题:AI模型输出优化,如何在不牺牲用户体验的前提下减少冗余信息。
  • 潜在影响:优化AI模型输出方式可能提高用户满意度,减少社会对AI模型的误解和过度拟人化倾向。

详细内容:

标题:对 AI 模型输出中无用“废话”的激烈讨论

在 Reddit 上,一篇题为“A rant about ‘Sure, here’s…’”的帖子引发了热烈讨论。该帖子主要吐槽了许多 AI 模型倾向于在输出中添加像“Sure, here’s an answer to your question: ”这样无用的废话。此帖获得了众多关注,评论数众多。

帖子中提出了反对这种现象的多个论点,比如增加了额外的令牌成本、耗费时间和电力,处理这些废话很麻烦,还可能导致人们对 LLM 的过度拟人化从而更不加批判地接受其输出,甚至引发了在 Reddit 上的吐槽。

讨论的焦点主要集中在以下几个方面: 有观点认为像“Stop confirming my requests, instead go straight to answering my exact question”是常见的诉求,但也有人指出这样做同样会消耗令牌和上下文。还有人认为采样令牌比生成令牌成本低。有人采取了对特定词语的偏差或禁令措施。

一些用户认为可以通过添加输出格式指令来解决问题,比如“Answer directly, without any introductions”,但也有人质疑是否应该由用户来指示模型如何处理。有人认为对于小众问题,自己解决是合理的,而反对者则指出这忽略了电力消耗等问题。

有人认为添加这些句子是为了给人模型在提供服务的印象,也有人认为是训练数据集的问题或者与模型的合作性有关。

还有观点认为“Sure, here’s…”是对指令形式问题的有效回复,但在某些情况下是不合适的。有人提出了一些解决方案,也有人对此表示质疑。

关于为何会出现这种情况,有猜测认为与 RL 训练、资本主义因素、为了获得更高的 LmSys 分数、让模型更具合作性等有关。

在这场讨论中,各方观点各异,有人认为可以通过改变系统提示等方式来缓解问题,也有人觉得这可能会影响输出结果。

总的来说,关于 AI 模型输出中无用废话的问题,引发了大家从多个角度的深入思考和激烈争论。