大家好,
我曾是一名AMD工程师,多年来一直致力于GPU驱动程序的开发,特别是专注于机器学习/推理工作负载。当生成式AI热潮兴起时,我离开了AMD,创立了自己的初创公司,经过大约两年的紧张建设,我们实现了一次小规模的收购。
现在,我处于一个不再厌倦建设,但已准备好摆脱投资者、增长指标和初创公司持续压力的阶段。我想回到我最热爱的事情上:构建有用、有影响力的技术。这一次,我想在开源领域进行,专注于纯粹创造有价值的东西,而不受商业成功的干扰。
我特别热衷的一个领域是在边缘设备上运行大型语言模型,如树莓派。将AI的力量带到小型、易获取的硬件上的想法让我兴奋不已,我很愿意进一步探索这一领域。
因此,我向这个了不起的社区伸出援手——你们面临的一些问题是什么,希望有什么解决方案?你们在工作流程、项目或工具中的痛点是什么?我渴望投身于新事物,并乐于为解决现实世界问题做出贡献,尤其是在推动小型设备能力边界方面。
期待听到你们的想法!
讨论总结
本次讨论主要围绕前AMD工程师和创业公司创始人转向开源项目的想法展开,重点关注在边缘设备上运行大型语言模型(LLMs)的技术挑战和需求。讨论中涉及多个关键话题,包括AMD设备运行CUDA的需求、开源工具的开发、AI技术在小型设备上的应用潜力等。参与者提出了多种技术问题和解决方案,如改进CUDA在AMD硬件上的兼容性、开发适用于边缘设备的AI模型、以及创建新的开源平台以挑战现有垄断等。整体上,讨论反映了社区对技术创新和开源合作的强烈兴趣和支持。
主要观点
👍 AMD设备需要能够运行CUDA的解决方案
- 支持理由:CUDA在快速推理方面几乎是唯一选择,形成了垄断。
- 反对声音:ZLUDA项目被AMD终止,SCALE项目是闭源的。
🔥 需要一个能够处理多种通信方式的技术支持系统
- 正方观点:该系统应能减轻技术支持工作量的25%。
- 反方观点:现有的解决方案如Twilio存在,但用户并不满意。
💡 快速、本地的混合RAG对边缘设备上的LLM至关重要
- 解释:提到了一个具体的相关开源项目,该项目可能与作者的兴趣和目标相符。
👀 tinygrad项目是一个新的PyTorch竞争对手,旨在简化ML张量库
- 解释:该项目通过减少依赖和代码行数,采用通用方法优化性能。
🚀 需要一个专注于特定编程语言的编程语言模型(LLM)
- 解释:当前的通用模型在实际应用中并不实用,暗示了对更专业工具的渴望。
金句与有趣评论
“😂 We desperately need something like ZLUDA (recently strike down by AMD) or SCALE (closed source) to make AMD devices run CUDA.”
- 亮点:强调了AMD设备用户对CUDA兼容性的迫切需求。
“🤔 Tech support + Call routing. If i can have a solution that helps with recieving texts, calls, emails, and online chat requests and provides tech support that can solve even 25% of the work load, that would be a big great start.”
- 亮点:提出了一个创新的技术支持系统,旨在提高工作效率。
“👀 i think fast, local hybrid RAG is an important part of LLM on the edge.”
- 亮点:指出了边缘设备上LLM的关键技术需求。
情感分析
讨论的总体情感倾向是积极的,参与者表现出对技术创新和开源合作的热情。主要分歧点在于对现有技术解决方案的不满和对新开源工具的需求。可能的原因包括现有工具的局限性、对更高效解决方案的渴望,以及对打破技术垄断的期待。
趋势与预测
- 新兴话题:开发适用于边缘设备的AI模型和工具,以及创建新的开源平台以挑战现有垄断。
- 潜在影响:这些创新可能推动AI技术在小型设备上的应用,促进技术普及,并可能打破现有技术垄断。
详细内容:
标题:前 AMD 工程师寻求开源项目方向,Reddit 社区热议各类需求
在 Reddit 上,一位前 AMD 工程师、初创公司创始人发帖表示,在经历了创业并取得一定成果后,希望投身开源项目,尤其是在边缘设备如树莓派上运行大语言模型(LLM)相关的领域,并向社区征集想法。此帖引发了广泛关注,获得了众多点赞和大量评论。
讨论的焦点与观点众多。有人认为需要类似 ZLUDA 或 SCALE 的工具,以使 AMD 设备能运行 CUDA,也有人指出当前 CUDA 在快速推理方面的垄断地位。在技术支持和呼叫路由方面,有人希望有能解决部分工作负载的开源解决方案。对于在树莓派等小型设备上运行 LLM,有人提到硬件加速的问题,也有人探讨了相关的模型和硬件适配。还有人建议参与 tinygrad 项目,或者为开源平台做贡献以挑战 GitHub 的垄断。
有用户表示,希望能有针对个人和风险管理专业人员的本地 SLM,用于高效管理投资组合。也有人提到优化 Vulkan 后端的黑魔法会很有帮助,以及让 CUDA 框架在 AMD 硬件上易用且有效运行将是极大的贡献。关于边缘设备的运行,有人建议开发开源工具以在消费硬件上运行良好的 LLM,或者在低端消费硬件上运行优质的 LLM。
同时,还有人提出各种具体的想法,如改善 llama.cpp、为特定硬件优化矩阵乘法、实现本地 llm openai 函数调用模块、构建提取提示模板和聊天历史模板的工具等。
总之,Reddit 上的讨论丰富多样,反映了大家对开源项目和技术创新的热切期待和多样需求。这位前工程师在众多建议中,究竟会如何抉择,让我们拭目以待。
感谢您的耐心阅读!来选个表情,或者留个评论吧!