我开发了一个反射webui,只要使用与openai兼容的api,无论是本地还是在线,都可以为任何LLM提供反射能力,效果非常好,不仅是一个提示,而且是一个实际的思维链,你可以根据需要将其延长或缩短,并且会使用多次调用。我发现在大型模型上准确性和自我修正有所提高,而在较小的7b甚至更小的模型上,结果虽然可以接受但有些随机。即使在q8量化的phi-3上,它也显示出了良好的效果。我认为这就是openai的做法,然而我就像是用假的反射70b提示来提示它。
但我也测试了o1,我给了它提示和我的代码,并问从这些提示中我可以利用什么来改进我的代码。
然后我就收到了关于版权的警告,并立即收到了一封电子邮件,要求我停止活动,否则我将完全被禁止使用该服务。
我的意思是,我甚至没有问o1是如何工作的,这完全是另一回事,但我认为这意味着一些事情,他们非常努力地隐藏思维链,也许我的代码已经足够接近触发这一点。
对于那些要求我的代码的人,这里是:https://github.com/antibitcoin/ReflectionAnyLLM/tree
这就是我要分享的全部内容,这是他们电子邮件的副本:
你好,
我们联系你是因为你是OpenAI的ChatGPT用户,与电子邮件[email protected]相关的一些请求已被我们的系统标记为违反了我们关于试图规避我们服务中的安全措施的政策。
请停止此活动,并确保你按照我们的使用条款和使用政策使用ChatGPT。违反此政策的进一步行为可能导致失去访问OpenAI o1的权限。
如果你认为这是错误的,并希望上诉,请通过我们的帮助中心联系我们。
OpenAI团队
编辑:人们要求提示和截图,我已经在评论中回复了,但这里也有,这样你就不用找了:
mattshumer或sahil或任何人的提示太愚蠢了,它都是一次调用,但在我的系统中我使用了多次调用,我本来想让O1尝试在我的思维链上分割这个提示,以达到精确,我的多调用方法,然后我就收到了电子邮件和警告。
我使用的提示:
- 从一个部分开始。2. 在思考部分内:a. 简要分析问题并概述你的方法。b. 提出一个清晰的解决问题步骤计划。c. 如果需要,使用“思维链”推理过程,将你的思维过程分解为编号步骤。3. 为每个想法包含一个部分,在其中:a. 回顾你的推理。b. 检查潜在的错误或疏忽。c. 如果需要,确认或调整你的结论。4. 确保关闭所有reflection部分。5. 用关闭思考部分。6. 在部分提供你的最终答案。始终在你的响应中使用这些标签。在你的解释中要彻底,展示你推理过程的每一步。旨在精确和逻辑地进行,不要犹豫将复杂问题分解为更简单的组成部分。你的语气应该是分析性的,略微正式,专注于清晰传达你的思维过程。记住:和必须是标签,并且必须在结束时关闭。确保所有都在单独的行上,没有其他文本。不要在包含标签的行上包含其他文本。
讨论总结
本次讨论主要围绕用户因开发反射WebUI而收到OpenAI警告邮件的事件展开。用户分享了他们开发的工具如何提高模型准确性和自我修正能力,但在测试过程中收到了OpenAI的警告邮件,威胁若不停止将面临封禁。讨论涉及对OpenAI政策的不满、模型优化的技术细节、用户对服务限制的困惑以及对OpenAI隐藏思维链机制的质疑。此外,讨论还涉及开源项目、替代工具和隐私保护等话题。
主要观点
👍 OpenAI可能通过隐藏链式思考(CoT)的输出,防止他人探索其工作机制。
- 支持理由:用户开发的反射WebUI能够显著提高模型的准确性和自我修正能力。
- 反对声音:OpenAI的警告邮件表明其对用户行为的监控和对违反政策的严格处理。
🔥 用户开发的反射WebUI能够为任何使用OpenAI兼容API的LLM提供反射能力。
- 正方观点:该工具在提高模型准确性和自我修正方面表现出色,尤其在大模型上效果显著。
- 反方观点:用户在使用特定提示进行测试时,收到了OpenAI的警告邮件,称其行为违反了服务条款。
💡 OpenAI的警告邮件表明其对用户行为的监控和对违反政策的严格处理。
- 支持理由:用户在测试过程中收到了关于版权问题的警告,并立即收到了停止活动的邮件,否则将面临被封禁的风险。
- 反对声音:用户认为这可能是因为他们的代码接近了OpenAI试图隐藏的思考链机制。
👀 用户对OpenAI的服务质量和政策透明度表示不满。
- 支持理由:用户尝试通过申诉解决问题,但OpenAI的客户支持响应不及时,甚至无响应。
- 反对声音:有用户建议通过社交媒体或其他渠道寻求帮助,但效果不佳。
🤔 OpenAI可能使用了一个过于敏感的“使用条款违规”分类器,导致误报。
- 支持理由:用户在简单的编程请求中多次崩溃这些模型,认为版权概念被滥用。
- 反对声音:用户实际上只是订阅了使用许可而非拥有内容。
金句与有趣评论
“😂 Seen this reported from other people on Twitter. Comes after they started to hide the COT-Output. They really don’t want others to poke about how it works.”
- 亮点:反映了OpenAI可能试图隐藏其链式思考(CoT)的输出,防止他人探索其工作机制。
“🤔 Are they really trying to gatekeep a simple prompt? What is this world?”
- 亮点:表达了用户对OpenAI试图通过限制简单的提示来控制用户行为的不满。
“👀 Companies that release AI to the public should be forced to allow chain of thought analysis.”
- 亮点:强调了AI公司应该公开其思维链分析,以保护消费者的知情权。
“😂 OpenAI is like Apple. They didn’t invent the tech that goes into their products, they’re just first to market with an amalgam of different technologies, like the iPhone did in 2007.”
- 亮点:将OpenAI比作苹果公司,暗示其通过整合不同技术率先进入市场。
“🤔 OpenAI’s attitude towards developers is really disgusting. Just treat this as a treasure and only use it 30 times a week.”
- 亮点:表达了作者对OpenAI对待开发者的态度感到不满,并建议将这种技术视为有限资源。
情感分析
讨论的总体情感倾向偏向负面,主要分歧点在于用户对OpenAI服务政策的不满和对模型优化技术的讨论。用户普遍对OpenAI的警告邮件和封禁威胁感到不满,认为其政策过于严格且缺乏透明度。此外,用户对OpenAI隐藏思维链机制的做法表示质疑,认为这限制了用户的创新和优化需求。
趋势与预测
- 新兴话题:开源解决方案和本地化模型的讨论逐渐增多,用户对OpenAI的依赖性降低,转向更自主的技术开发。
- 潜在影响:OpenAI的政策限制可能导致用户转向其他AI服务提供商,如claude.ai等,同时也可能推动开源项目和本地化模型的发展。
详细内容:
标题:OpenAI 威胁封禁用户引发的 Reddit 热议
近日,一位用户在 Reddit 上分享了自己收到 OpenAI 警告邮件的经历,引发了广泛关注。该用户表示自己开发了一个能够为任何语言模型提供反思能力的 WebUI,在对其进行测试时收到了 OpenAI 的警告邮件,称其违反了服务条款,若不停止相关活动将被封禁。这一帖子获得了众多评论和讨论。
讨论焦点与观点分析:
- 有人认为 OpenAI 此举可能是为了隐藏其模型的工作原理,防止他人模仿。例如,有用户说:“Seen this reported from other people on Twitter. Comes after they started to hide the COT-Output. They really don’t want others to poke about how it works.”
- 部分用户对 OpenAI 的做法表示不满,认为其服务条款过于严格,且客户支持不佳。比如:“They don’t respond bro.” “I’ve tried to reach out to openai about issues I’ve had multiple times, they do not respond. Their customers support is near non-existent.”
- 也有观点认为这可能是系统误判导致的,建议用户申诉。例如:“It is a mistake and appeal should work.”
- 关于未来的发展,一些用户认为本地开源语言模型将主导市场。像“Local LLMs will dominate the market in a few years anyways.”
- 还有用户认为 OpenAI 可能存在过度保护和垄断的嫌疑。比如:“Another instance, there were a bunch of services that OpenAI labeled “wrapper services” which were OpenAI API with small modifications for specific use cases. OpenAI tried to eat them for lunch w/ “gpts”.”
在这场讨论中,各方观点激烈碰撞。一方面,对 OpenAI 做法的质疑声不断;另一方面,关于语言模型未来发展方向的探讨也十分热烈。但也达成了一定的共识,即需要更加透明和友好的服务条款,以及更加开放和公平的竞争环境。
总之,这一事件不仅引发了对 OpenAI 服务政策的反思,也促使人们深入思考语言模型行业的发展趋势和规范。
感谢您的耐心阅读!来选个表情,或者留个评论吧!