这是什么?
https://github.com/av/klmbr
klmbr
(来自“Kalambur”,但你可以发音为“climber”)是一种(非常简单和幼稚的)技术,用于为LLM输入引发替代的分词方式。因此,它改变了推理结果,通常以可以称为创造性的方式。
它通过随机替换给定百分比的输入内容来实现…这些内容相似但不完全相同。因为它作为提示预处理器工作——它与任何LLM和API兼容,去试试吧!
演示
附言
这是对之前帖子的跟进,我向所有看到它的人道歉,因为这被视为试图引发炒作周期。并不是这样的,我目前没有工作,只是想弄清楚我是否发现了一些新奇有趣的东西,并且它能否帮助我找到工作(嘘…我还有更多想法),或者它只是一个失败。剧透:它在两者之间,因人而异。尽管如此,对被认为的“炒作”感到抱歉。现在分享所有细节,只是需要一些时间来准备仓库。
讨论总结
本次讨论主要围绕 klmbr
技术展开,该技术通过随机替换输入内容来改变大语言模型(LLM)的输出,从而激发创造性。评论者们对这一新颖的提示重处理方法表示赞赏,认为它能够解决默认分词方法的问题,并提出了自定义采样器和手动重新标记化的设想。讨论中还涉及了 klmbr
技术在绕过模型审查机制、提高模型鲁棒性以及模拟人格合成中的潜在应用。总体而言,讨论氛围积极,评论者们对技术的未来发展表示期待。
主要观点
👍
klmbr
技术是一种新颖的提示重处理方法,能够激发 LLM 的创造性输出。- 支持理由:评论者认为这种技术解决了默认分词方法的问题,能够产生“不寻常”的生成结果。
- 反对声音:部分评论者质疑 LLM 是否会学习并产生这些“奇怪”的标记。
🔥 评论者设想是否存在一种自定义采样器,能够在每个标记或一组标记的中途随机强制使用单个字母字符,直到结束标记(eos)。
- 正方观点:这种设想能够进一步增强 LLM 的创造性输出。
- 反方观点:手动重新标记化在实际应用中可能存在困难,特别是当只能使用 API 时。
💡
klmbr
技术可能在现有的 WebUI 中已经存在,但仅限于在消息之间更改语法规则。- 解释:评论者认为这种技术可能在现有的 WebUI 中已经存在,但应用范围有限。
💡
klmbr
技术可能用于绕过模型中的审查机制。- 解释:重新分词化通过改变切割长度和位置可能有效,但改变单个符号为视觉上相似的符号对 LLM 无意义。
💡
klmbr
技术通过改变输入形状来避免过度拟合路径,从而产生“不寻常”的生成结果。- 解释:随机输入变化是提高模型鲁棒性的已知技术,
klmbr
技术可能产生类似于温度参数的效果。
- 解释:随机输入变化是提高模型鲁棒性的已知技术,
金句与有趣评论
“😂 Aaaaaaaaaeeeee:Great idea! I’ve never seen the idea of reprocessing the prompt differently, only grammar restrictions during inference.”
- 亮点:评论者对
klmbr
技术的创新性表示赞赏。
- 亮点:评论者对
“🤔 makeplayhappy:This is great, I’ve had some occasional issues where I’d love to try an "alternative" tokenisation strategy, where the default way isn’t the way I’d want.”
- 亮点:评论者分享了自己在使用默认分词方法时遇到的问题,并建议
klmbr
可以借鉴类似的方法。
- 亮点:评论者分享了自己在使用默认分词方法时遇到的问题,并建议
“👀 IxinDow:Can this technique be used to circumvent censor baked in a model?”
- 亮点:评论者提出了一个有趣的问题,探讨了
klmbr
技术在绕过模型审查机制中的潜在应用。
- 亮点:评论者提出了一个有趣的问题,探讨了
“👀 no_witty_username:Tools like this will become increasingly important in cresting "creative" AI solutions for this or that.”
- 亮点:评论者认为
klmbr
技术在未来将变得越来越重要,尤其是在创建“创意”AI解决方案方面。
- 亮点:评论者认为
“👀 remixer_dec:Nice idea! I have a question, does the LLM learn to produce these weird tokens in progress?”
- 亮点:评论者提出了一个关键问题,探讨了 LLM 是否会学习并产生这些“奇怪”的标记。
情感分析
讨论的总体情感倾向积极,评论者们对 klmbr
技术表示赞赏,并对其潜在应用表示兴趣。主要分歧点在于 klmbr
技术是否能够有效绕过模型中的审查机制,以及手动重新标记化在实际应用中的可行性。这些分歧可能源于对技术细节的不同理解和应用场景的差异。
趋势与预测
- 新兴话题:自定义采样器和手动重新标记化在 LLM 中的应用。
- 潜在影响:
klmbr
技术可能在未来的 AI 创意解决方案中发挥重要作用,特别是在提高模型鲁棒性和模拟人格合成方面。
详细内容:
《关于“klmbr - 诱导 LLM 创造力”的热门讨论》
在 Reddit 上,一篇关于“klmbr - 诱导 LLM 创造力”的帖子引起了广泛关注。该帖子获得了众多点赞和大量评论。原帖主要介绍了“klmbr”这一技术,它是一种用于诱导 LLM 输入的替代标记化的(非常简单和基础)技术,能够改变推理结果,常常以富有创意的方式呈现。帖子中还提供了相关的链接,如https://github.com/av/klmbr ,以及演示的链接klmbr demo 。此外,作者表示这是之前一篇帖子的后续,并为可能造成的“炒作”感觉而道歉。
讨论的焦点主要集中在以下几个方面:
有人称赞这是个伟大的想法,称从未见过以这种方式重新处理提示,还提到有人曾尝试修改模型以避免输出特定字母,效果很好。
有人认为强制每隔一次推理对单个字符标记进行采样是个有趣的想法,但不确定现有的采样器是否支持这种即插即用逻辑,不过认为在变形器中或许可行。
有用户分享了自己开发的类似工具https://github.com/dhibbin/LexiSelect/ ,并提供了相关细节链接https://azimuth.substack.com/p/creative-writing-help-from-your-llm ,探讨了用户控制标记化的可能性。
有人质疑该技术是否能规避模型中的内置审查,对此有人回应称与防护栏的交互并非单向的,也提到了 LLMs 在训练中包含类似的重新标记化。
有人觉得这看起来很有趣,是个有趣的实验。
有人认为此类工具在创建“创意”AI 解决方案中会变得越来越重要,并询问该工具是确定性的还是随机的,能否兼具。得到回复称该技术本质上是随机的,主要控制在于“klmbr”的“程度”,它定义了随机化的水平。
有人提出疑问,LLM 是否会在训练过程中学会产生这些奇怪的标记,以及手动重新标记而不改变字母是否是更好的方法。得到的回答是只有在实际训练预测此类标记时才会,且手动重新标记虽好,但在仅有接受文本的 API 时不可行。
还有用户询问如何将其添加到 Open WebUI 中,但遇到了错误。
可以看出,对于“klmbr”技术,大家的观点多样,既有对其创新性的肯定,也有对其实际应用和效果的探讨。在这场讨论中,不同的观点相互碰撞,为这一技术的发展和应用提供了丰富的思考方向。
感谢您的耐心阅读!来选个表情,或者留个评论吧!