我很自豪地宣布我的框架的新版本:GraphLLM。这个新版本有一个图形用户界面(GUI),用过ComfyUI的人应该会比较熟悉。节点的输出会流式传输到前端,所以结果可以实时可见。后端支持循环、节点并行执行、条件判断,甚至可以运行自定义的Python代码。这个框架不会试图隐藏底层操作,用户可以确切看到发送给模型的提示并进行编辑。我还在构建更多示例的过程中,但到目前为止我已经包含了这些示例:下载YouTube字幕并用多轮提示生成摘要;多次调用大语言模型(LLM)并通过多数投票选择答案;可联网、进行网络搜索、访问本地文件和执行Python代码的代理;用于更复杂图形的分层节点;大语言模型之间的说唱对决生成器;生成解决问题的Python代码并运行它。生成Python代码,然后执行它。网络爬虫:包含的网络爬虫运行Firefox的无头实例来抓取网页数据,即使是从动态生成的网站也可以。这个过程类似于jina.ai使用的过程,但它可以抓取更多不友好的网站,比如没有API的Reddit。YouTube字幕下载器:这个工具可以预处理并以大语言模型友好的格式保存YouTube字幕。PDF解析器:只是将PDF转换为文本,没什么特别的。源代码可在我的GitHub上的GraphLLM获取。
讨论总结
这个讨论围绕着GraphLLM推出有GUI的新版本展开。有人提出功能建议希望创建自然语言查询转节点配置工作流程,开发者积极回应。还有人表达对框架的喜爱、认可与感谢,同时也有对功能方面的期望,如希望LLM能动态生成图,以及对其与小模型适配性、在低显存硬件上可用性等技术问题的咨询,整体氛围积极友好。
主要观点
- 👍 提出创建自然语言查询转节点配置工作流程的建议
- 支持理由:有助于吸引新用户使用该工具
- 反对声音:无
- 🔥 对GraphLLM有GUI版本表示认可
- 正方观点:基于图的界面很棒
- 反方观点:无
- 💡 肯定GraphLLM框架很酷,但期望LLM能动态生成图
- 有用户认为框架本身有可取之处,但在功能上希望LLM能够动态生成图,开发者表示这一功能最终会实现
- 💡 询问GraphLLM与小模型的适配效果
- 原帖提到小模型可以工作且支持流行模型,但部分功能不可用
- 💡 关注GraphLLM在特定平台或模型下的可用性(自身显存低)
- 评论者因自身8GB低显存的硬件条件,询问在Ollama平台或Groq/Cerebras(llama3.1 - 70B)下的可用性
金句与有趣评论
- “😂 New_Comfortable7240: Please make workflow to enter a natural language query and return a nodes configuration, the user can edit, expand or save it”
- 亮点:提出了一个有建设性的功能建议
- “🤔 meaty_ochre: Awesome.”
- 亮点:简洁地表达对GraphLLM有GUI版本的认可态度
- “👀 That’s very cool, but I was hoping the LLM would be generating the graph as well, dynamically.”
- 亮点:在肯定框架的同时表达出功能期望上的落差
情感分析
总体情感倾向为积极正面。主要分歧点较少,个别地方存在对功能期望与实际功能的差异看法,例如在LLM是否能动态生成图方面。可能的原因是用户对工具的期望各有不同,基于自身需求希望工具具备更多功能。
趋势与预测
- 新兴话题:自然语言查询转节点配置工作流程如果实现可能会成为后续讨论热点。
- 潜在影响:如果GraphLLM能不断满足用户在功能适配、特定硬件条件下可用性等方面的需求,可能会吸引更多用户,对相关领域的开源框架发展起到推动作用。
详细内容:
《GraphLLM 推出新版本并引发热议》
近日,Reddit 上一则关于 GraphLLM 新版本的帖子引起了广泛关注。该帖自豪地宣布了 GraphLLM 的新迭代,称其拥有一个类似于 ComfyUI 的图形用户界面(GUI)。此版本的后端支持多种功能,如循环、节点并行执行、条件语句甚至运行自定义 Python 代码。框架不会掩盖底层操作,用户能清晰看到发送给模型的提示并进行编辑。目前已包含多种示例,如下载 YouTube 字幕并生成多轮提示的摘要、通过多数投票选择 LLM 的答案、能上网搜索和执行 Python 代码的代理等。同时,还具备网络爬虫、YouTube 字幕下载器和 PDF 解析器等工具。帖子获得了较高的关注度,截至目前已有众多评论。
在讨论中,主要观点如下: 有人提出希望能制作一个自然语言查询并返回节点配置的工作流程,方便新用户使用该工具,作者表示会考虑,但要先完成适当的文档编写。 有人称赞这个工具很棒,自己已经沉迷于基于图形的界面。 有人期待 LLM 能够动态生成图形,作者称这将是未来的一个功能。 有人询问对于较小模型的适用性,作者表示小模型可行,但部分功能不可用。 有人询问低 VRAM(8GB)能否通过 Ollama 或 Groq/Cerebras(llama3.1-70B)使用 GraphLLM,作者回复 Groq 虽支持但并非官方,功能有限,并建议使用适合 VRAM 的本地模型。
可以看出,大家对于 GraphLLM 的新功能表现出了浓厚的兴趣,同时也对其功能的完善和适用性提出了各种期待和疑问。这一讨论反映了人们对于高效、易用的图形化 LLM 框架的需求和关注。
感谢您的耐心阅读!来选个表情,或者留个评论吧!