也许这只是我个人的感觉,但ChatGPT似乎在生成使用其自身API的代码时表现得异常糟糕。过去我多次注意到这一点,但今天我在使用o1-preview时,要求它生成一个调用OpenAI来根据数据库提取生成某种客户服务邮件的工具。基于最近对这一新版本的‘吹捧’,我原本预计它不会有任何问题。
然而,连续四次我得到了不同的变体:
raise APIRemovedInV1(symbol=self._symbol)
openai.lib._old_api.APIRemovedInV1:
你尝试访问openai.Completion,但这在openai>=1.0.0中不再受支持 - 请参阅https://github.com/openai/openai-python的README文件以了解API。
你可以运行`openai migrate`来自动升级你的代码库以使用1.0.0接口。
或者,你可以将你的安装固定到旧版本,例如`pip install openai==0.28`
详细的迁移指南可在此处获取:
https://github.com/openai/openai-python/discussions/742
考虑到他们拥有完善这一切所需的所有资源,这似乎是一个奇怪的缺陷。
讨论总结
讨论主要集中在ChatGPT在生成使用其自身API的代码时表现不佳的问题上。用户普遍反映ChatGPT无法正确生成调用OpenAI API的代码,多次尝试后仍出现错误。主要观点包括:ChatGPT的知识截止日期是2023年10月,导致其使用过时代码;Claude模型已经更新到2024年6月,能够生成适用于OpenAI API的工作代码;通过提供API文档可以帮助模型生成代码;OpenAI有意限制ChatGPT使用其自身API的能力,以防止模型自我引导。总体情感倾向为不满和失望,用户对OpenAI未能妥善处理API使用问题表示不满。
主要观点
- 👍 ChatGPT似乎不知道如何使用自己的API
- 支持理由:多次尝试后仍无法生成有效代码,违背了使用ChatGPT的初衷。
- 反对声音:通过提供API文档可以改善生成代码的效果。
- 🔥 ChatGPT的知识截止日期是2023年10月
- 正方观点:这可能是其使用过时代码的原因。
- 反方观点:Claude模型已经更新到2024年6月,能够生成适用于OpenAI API的工作代码。
- 💡 通过提供API文档可以帮助模型生成代码
- 解释:用户应提供最新的文档以帮助ChatGPT生成正确的代码。
- 🤔 OpenAI有意限制ChatGPT使用其自身API的能力
- 解释:以防止模型自我引导,保持生态系统的某种壁垒。
- 🌐 OpenAI的开发者文档需要优化
- 解释:以便开发者更容易使用,满足开发者需求。
金句与有趣评论
- “😂 JoMaster68:lol i recognized this too a couple of days ago chatgpt has no idea how to use its own api”
- 亮点:直接指出ChatGPT在API使用上的问题。
- “🤔 blackkettle:It’s honestly kind of absurd.”
- 亮点:对ChatGPT表现不佳的强烈不满。
- “👀 mpasila:This model’s knowledge cut-off is October 2023 so that might explain why it uses outdated code.”
- 亮点:解释了ChatGPT使用过时代码的原因。
- “💡 Zeikos:OpenAI不希望模型过于容易地与LLMs互动,以保持生态系统的某种壁垒。”
- 亮点:揭示了OpenAI限制API使用的深层原因。
- “🔍 Dead_Internet_Theory:I noticed LLMs seem to know very little about themselves or the companies that made them.”
- 亮点:指出了LLMs在自我认知上的不足。
情感分析
讨论的总体情感倾向为不满和失望。主要分歧点在于ChatGPT的知识截止日期和OpenAI对API使用的限制。用户普遍认为OpenAI应自行解决API相关的问题,而不是让用户额外付费和使用更多token来解决。此外,用户对OpenAI的开发者支持感到失望,认为他们没有将重点放在开发者需求上。
趋势与预测
- 新兴话题:OpenAI应如何优化其开发者文档和支持,以满足开发者的需求。
- 潜在影响:改进开发者文档和支持可能会提高开发者对OpenAI产品的满意度,进而增加API的使用率和收入。
详细内容:
标题:为何 ChatGPT 在使用自身 API 时表现欠佳?
在 Reddit 上,有一个关于“为何 ChatGPT 如此不擅长使用其自身 API”的热门讨论吸引了众多目光。该帖子提到,多次尝试让 ChatGPT 生成使用其自身 API 的代码,但都出现了问题,还给出了具体的错误提示。此帖获得了大量的关注,评论区也十分热闹。
讨论的焦点主要集中在以下几个方面: 有人认为这很可笑,自己前几天也遇到了同样的情况;也有人指出这种变化由来已久,还提供了正确的代码示例。有用户提出模型的知识截止到 2023 年 10 月,所以可能会使用过时的代码。还有人表示不能这样想,因为模型无法知晓训练结束后出现的新内容。
有人说在处理不熟悉的库时,会粘贴相关文档和示例代码,虽然不总是有效但有时能起作用。也有人认为,对于 ChatGPT 这样的产品,出现这种基本问题很奇怪,Claude 就能生成有效的 OpenAI API 请求。
有观点认为,LLM 本就不擅长编写新代码,OpenAI 库在训练时与现在差异较大,且当时相关数据较少。还有人认为未来可能会改善,通过少量示例推理和训练可能能解决。
有人称这是故意为之,OpenAI 不想让模型获取某些内部工具的知识,也有人认为这是为了保持生态系统的一定门槛。但也有人反驳,认为这没有道理,模型应该便于使用自身的 LLM。
总之,关于 ChatGPT 在使用自身 API 时表现不佳的原因,大家众说纷纭,尚无定论。这一问题究竟是暂时的技术限制,还是出于某种战略考虑,仍有待进一步观察和探讨。
感谢您的耐心阅读!来选个表情,或者留个评论吧!