模型与技术 训练与微调技术

Whisper 太神奇了。它是如何在这么多语言上进行训练的?

讨论围绕Whisper语音识别模型如何在多种语言上进行训练展开,涉及训练方法、数据来源、模型性能和多语言支持等多个方面。

 ·  · 
模型与技术 训练与微调技术

为大型语言模型添加“记忆”的最佳方法是什么?

讨论集中在如何为大型语言模型(LLMs)增加记忆功能,涉及多种技术实现和项目分享。

 ·  · 
模型与技术 训练与微调技术

愚蠢的实验 LAiNN,DIY 预训练我自己的语言模型来玩 :3。

讨论围绕自定义语言模型预训练项目展开,涉及模型大小、训练时间、电力消耗、源代码分享等多个技术细节,整体氛围积极且充满实验精神。

 ·  · 
模型与技术 训练与微调技术

0训练损失值是好的吗?(我第二次尝试微调)

讨论围绕“平坦的0训练损失”是否意味着模型过拟合展开,涉及学习率设置、模型输出检查及损失计算的合理性。

 ·  · 
模型与技术 训练与微调技术

Phi 3.5 微调速度提升2倍 + Llamafied 提高准确性

讨论围绕微软发布的Phi-3.5模型及其在Unsloth平台上的微调加速和内存优化展开,社区成员积极互动,探讨模型性能和未来发展。

 ·  · 
模型与技术 训练与微调技术

教程:使用llama recipes对llama3.1进行PEFT微调!

本次讨论主要围绕一篇关于使用PEFT方法对llama3.1模型进行微调的教程文章,评论者普遍表示赞赏和感谢,同时探讨了PEFT与传统finetuning的比较。

 ·  · 
模型与技术 训练与微调技术

你们会微调模型吗?如果是的话,目的是什么,效果如何?

讨论围绕模型微调的价值、方法和效果展开,涉及特定任务的应用、数据集的重要性以及微调过程中的技术挑战和成本考虑。

 ·  · 
模型与技术 训练与微调技术

Beginner"s Guide: How to Fine-tune Llama 3.1 Ultra-Efficiently with Unsloth & Deploy to Hugging Face

这篇讨论围绕如何在Hugging Face上高效微调Llama 3.1模型展开,涉及LoRA技术、信息损失、模型定制等多个技术点,同时包含了对指南的感谢和实验中遇到的问题。

 ·  · 
模型与技术 训练与微调技术

目前最好的RP模型和从llama 3.1或mistral nemo微调是什么?

讨论围绕当前最佳RP模型及其微调版本展开,涉及模型比较、使用体验、创意与乐趣等多个方面,社区成员积极分享个人偏好和推荐。

 ·  · 
模型与技术 训练与微调技术

运行你自己的网络代理:Agent Q 论文展示 LLMs 可以学会浏览网站

讨论围绕Agent Q这一自主网络代理的研究项目,涉及其技术特点、潜在应用及开源可能性,同时探讨了网页导航的复杂性和现有技术的局限性。

 ·  ·