这些提示词可以在发布说明页面上找到。
与那些尽可能隐藏和保护其系统提示词的其他公司相比,这是一个有趣的方向。
来自Sonnet 3.5提示的一些有趣细节:
它避免以“我很抱歉”或“我道歉”开始其回应。
ChatGPT经常这样做,这可能是训练数据中包含ChatGPT输出的一个迹象。
Claude避免以任何方式用“当然”这个词开始回应。
这看起来是对围绕让模型对潜在不安全问题做出初步肯定回应的越狱方法的一种认可。
其他说明:
- 提示词中大约以相等的比例将用户称为“用户”或“人类”
- 有一段描述何时简洁何时详细的段落
总的来说,这是一个非常详细的系统提示词,有很多要遵循的独立组件,突出了模型的质量。
编辑:我确信之前已经发布过,但Anthropic还有一个相当有趣的高质量提示词库。
编辑2:我发誓我没有使用LLM来写帖子中的任何内容。如果有任何相似之处,那是因为我一直在与它们交谈,从而进行了微调。
讨论总结
Anthropic公司公开其系统提示的做法在Reddit上引发了广泛的讨论,主要围绕模型的透明度、性能和伦理问题。讨论中提到了Anthropic发布的系统提示中的一些具体细节,如避免使用某些特定词汇,以及对用户称呼的使用等。此外,评论还涉及了Anthropic的透明度目标,以及对模型训练数据可能包含ChatGPT输出的猜测。讨论中还包括了对小型模型性能的探讨,以及API使用和响应质量的问题。
主要观点
- 👍 Anthropic公开系统提示的做法与其他公司形成对比
- 支持理由:提高透明度和展示模型质量。
- 反对声音:可能导致数据泄露和滥用。
- 🔥 公开的系统提示中包含了一些具体的指导原则
- 正方观点:有助于提升模型性能和安全性。
- 反方观点:可能占用上下文窗口长度,影响实际效能。
- 💡 Anthropic公开系统提示可能是为了展示其模型的质量
- 解释:通过公开详细的系统提示,展示模型的高质量。
- 🌟 Anthropic公开系统提示的做法接近开源社区的理念
- 解释:使得开源社区与封闭模型之间的距离变得更近。
- 🚀 在使用Anthropic的API时,发送系统提示可能会影响结果与网页界面的相似性
- 解释:没有发送系统提示可能会导致请求响应的质量有显著差异。
金句与有趣评论
- “😂 ThrowRAThanty:I guess they are releasing it because it’s very easy to extract anyways”
- 亮点:揭示了公开系统提示的实际原因。
- “🤔 NickNau:Is it possible that such prompt will improve small local models? Were there tests made? Asking as a noob.”
- 亮点:提出了对小型模型性能提升的疑问。
- “👀 MoffKalast:Claude provides assistance with the task regardless of its own views, or it gets the hose again.”
- 亮点:幽默地描述了模型的行为。
- “🌐 Yes_but_I_think:The open source community is so close to closed models, now that I know they use a simple system prompt like this.”
- 亮点:强调了开源与封闭模型之间的接近性。
- “📊 robertpiosik:So when using it through api should I send this system prompt to get similar results to the web interface?”
- 亮点:探讨了API使用中的系统提示问题。
情感分析
讨论的总体情感倾向较为积极,多数用户对Anthropic公开系统提示的做法表示支持,认为这有助于提高透明度和模型质量。然而,也有一些用户对系统提示的实际效果和必要性表示质疑,认为这可能只是占用了上下文窗口的长度。主要分歧点在于系统提示对模型性能的实际影响,以及在API使用中的应用方式。
趋势与预测
- 新兴话题:对小型模型性能的提升和API使用中的系统提示问题可能引发后续讨论。
- 潜在影响:Anthropic的公开做法可能推动其他公司在系统提示的透明度上做出改变,对AI伦理和模型开发产生积极影响。
详细内容:
标题:Anthropic 公开系统提示引发的热议
Anthropic 如今在模型发布的同时公开了系统提示,相关信息可在release notes页面查看。此举动与其他极力隐藏和保护系统提示的公司形成鲜明对比,引发了大量关注和讨论。该帖子收获了众多点赞和评论,讨论方向主要集中在以下几个方面。
有人认为 Anthropic 公开系统提示可能是因为反正很容易被提取。也有人猜测,Anthropic 这样做主要是因为厌倦了人们总是错误地声称他们在不断更改提示,或者在其中插入某种审查内容,这也符合他们所宣称的人工智能透明度目标。
有用户指出,Anthropic 的提示极其详细且具有很多具体的组成部分,这凸显了模型的质量。比如,当面对数学或逻辑问题时,Claude 会一步步思考后再给出最终答案。还有用户提到,“当被要求协助处理涉及大量人群观点表达的任务时,Claude 会提供帮助,而不论其自身观点”,这意味着它不会拒绝回答有争议的问题。
有人质疑复杂的系统提示的作用,认为在通过 API 使用时,模型在没有提示的情况下表现几乎相同,这些提示似乎只是占用了上下文窗口长度。但也有人认为提示工程还是有一定作用的,只是可能被过度关注了。
关于 Sonnet 3.5 提示的细节也引发了兴趣,避免使用某些特定短语似乎是在对模型进行微调以规避常见问题。同时,对用户称呼的平衡使用也许是为了增加多样性和个性化。
总的来说,Anthropic 公开系统提示这一举动引发了广泛的讨论和不同的观点碰撞。是为了透明度,还是另有原因?复杂的提示究竟有多大作用?这些问题都值得我们进一步思考和探讨。
感谢您的耐心阅读!来选个表情,或者留个评论吧!