原贴链接

TLDR: Hugging Face推理API的文档有所改进

限制如下:

  • 未注册用户:每小时1次请求
  • 注册用户:每小时300次请求
  • 专业用户:每小时1000次请求 + 访问高级模型

—-

大家好,我是Hugging Face的员工,虽然不是负责这个具体功能的。不久前我提到过,HF推理API可以非常有效地用于个人用途,特别是如果你有一个专业账户(每月约10美元,可随时取消)。

然而,我无法提供任何关于支持哪些模型以及免费/专业用户的速率限制的明确信息。我尽力了,但效果并不理想。

不过,我在内部多次提出这个问题,并非常努力地推动以获取一些官方文档和承诺,直到今天我们终于有了真正的文档!这始终是计划中的,所以我不确定我是否通过不断催促加快了进度,但事情已经发生了,这才是最重要的。

现在,支持的模型(适用于专业和免费用户)和速率限制都已明确记录!

https://huggingface.co/docs/api-inference/index

讨论总结

Hugging Face Inference API 的文档更新成为本次讨论的核心话题。用户普遍对文档的改进表示赞赏,认为这提高了API的可用性和用户体验。讨论中涉及的主要问题包括模型使用限制、文档的清晰度、以及API与OpenAI的兼容性。此外,用户对某些模型的访问权限和付费问题提出了疑问,希望得到进一步的澄清。整体讨论氛围积极,用户对Hugging Face的改进表示感谢,但也提出了一些改进建议。

主要观点

  1. 👍 Hugging Face 的 Inference API 文档更新是一个积极的进步。

    • 支持理由:文档的清晰度提高,用户更容易理解和使用API。
    • 反对声音:部分用户对文档中的某些细节表示疑问,希望得到进一步的解释。
  2. 🔥 Hugging Face 需要继续改善其产品的易用性。

    • 正方观点:文档更新是提高易用性的重要一步。
    • 反方观点:用户认为文档仍需进一步改进,特别是对于不熟悉技术的用户。
  3. 💡 文档更新对于不熟悉“github pro for AI space”的用户尤为重要。

    • 解释:用户认为文档的改进有助于新手更好地理解和使用API。
  4. 🤔 评论者对文档中的某些细节表示疑问,希望得到进一步的解释。

    • 解释:用户对模型使用限制、兼容性等问题提出了疑问。
  5. 🌟 Hugging Face 的 Inference API 未能与 OpenAI 的 API 兼容,这令人遗憾。

    • 解释:用户讨论了兼容性问题,并提出了一些第三方工具作为解决方案。

金句与有趣评论

  1. “😂 lordpuddingcup:Good to see more clarity finally, hugging face really needs to work on its usability especially for people outside of the "github pro for AI space"”

    • 亮点:强调了文档改进对非专业用户的帮助。
  2. “🤔 lupapw:Hi, I was wondering if Meta-Llama/Meta-Llama-3.1-8B-Instruct requires a Pro subscription.”

    • 亮点:提出了关于模型使用限制的具体问题。
  3. “👀 this-just_in:Thanks for championing this! The clarity helps a lot.”

    • 亮点:直接表达了对文档改进的感谢。
  4. “😊 gebradenkip:Thanks! The clarity is much appreciated”

    • 亮点:简洁地表达了对文档改进的赞赏。
  5. “🙌 Qual_:that’s kind of generous ! Thank you !”

    • 亮点:对免费用户的请求限制表示赞赏。

情感分析

讨论的总体情感倾向积极,用户普遍对Hugging Face的文档改进表示赞赏。主要分歧点集中在文档的清晰度和模型使用限制上,部分用户对某些细节表示疑问,希望得到进一步的解释。情感倾向积极的原因在于用户认为文档的改进提高了API的可用性和用户体验。

趋势与预测

  • 新兴话题:文档的进一步改进和模型使用限制的澄清可能会引发后续讨论。
  • 潜在影响:文档的改进和限制的明确将有助于提高用户的使用体验,减少误解,从而增加用户对Hugging Face API的信任和使用频率。

详细内容:

标题:Hugging Face 推理 API 明确列出限制和模型

近日,Reddit 上一则关于 Hugging Face 推理 API 的帖子引发了广泛关注。该帖子重点介绍了其新的官方文档,获得了众多点赞和大量评论。

原帖指出,Hugging Face 推理 API 针对不同用户类型设定了明确的限制,未注册用户每小时 1 次请求,注册用户每小时 300 次请求,专业用户每小时 1000 次请求且能访问高级模型。有人表示自己为 Hugging Face 工作,虽然并非负责此特定功能,但一直努力推动官方提供清晰的文档和承诺,如今终于有了明确的文档。

讨论的焦点主要集中在以下几个方面: 有人认为,Hugging Face 终于更加清晰明确,但其可用性仍需改进,尤其是对于非“GitHub 专业 AI 空间”的人员。有人提问 Meta-Llama/Meta-Llama-3.1-8B-Instruct 是否需要专业订阅。还有人感谢为提高清晰度所做的努力。

对于未注册用户每小时 1 次请求的限制,有人认为太严格,而有人认为这是为了防止滥用,注册仅需邮箱地址已很宽松。有人对 Inference API 和 Serverless API 的关系感到困惑,得到的回复是两者相同,只是表述有点令人混淆。有人对某些模型的使用权限和收费规则存在疑问,比如暖模型的使用是否需要专业账户。

总体来说,大家对文档的清晰度表示欢迎,但也对一些具体的细节和规定存在疑问和讨论。此次关于 Hugging Face 推理 API 的讨论,展现了用户对于清晰规则和优质服务的期待。