模型与技术 训练与微调技术

能否使用非结构化文本文件微调大语言模型

[围绕能否使用YouTube视频转录文本微调大型语言模型展开讨论,包含不同的数据处理观点、资源推荐和工作流程分享,整体氛围理性专业]

 ·  · 
模型与技术 训练与微调技术

是否有人在培育大型语言模型?

[原帖询问是否有人在进行大型语言模型(LLM)的培育,评论者们从不同角度进行回应,包括指出应用遗传算法的困难、提供相关论文或资源、分享个人尝试经验等,整体氛围是技术探讨]

 ·  · 
模型与技术 训练与微调技术

NaturalLM:一款发音自然的大语言模型

[原帖介绍了在Mistral Nemo 12B基础上连续预训练后的模型,评论者围绕操作过程、模型相关操作(如指令调整)、模型表现以及测试提示等方面展开讨论,氛围较为积极和谐]

 ·  · 
模型与技术 训练与微调技术

量化与Lora结合可全模型训练

[原帖介绍一篇看起来令人兴奋的论文相关内容,评论围绕论文涉及的模型训练(如特定硬件上的训练)、与其他技术对比、未整合情况等展开讨论,氛围较为积极且充满好奇]

 ·  · 
模型与技术 训练与微调技术

可自行训练的最强大型语言模型

[原帖询问如何训练自己的强大语言模型,评论主要围绕训练的资源成本、框架、数据获取以及给出各种训练建议展开,整体氛围比较理性且有建设性]

 ·  · 
模型与技术 训练与微调技术

单文档训练模型的可行性

[原帖作者在单页数据上训练llama 1b指令模型遇到困难,评论者们从不同角度给出建议,包括利用其他LLM创建合成数据、推荐相关工具、采用不同的训练方法等,整体氛围积极探索]

 ·  · 
模型与技术 训练与微调技术

LLM微调的最佳实践

[原帖探讨LLM微调最佳实践,评论者们分享各自的经验、观点,包括不同微调方法的比较、模型选择、调谐参数设定等内容,整体氛围积极且富有建设性]

 ·  · 
模型与技术 训练与微调技术

使用数台100k H100s训练Llama 4

[该讨论围绕在若干个100k H100s上训练Llama 4展开,涉及技术方向、模型版本、性能提升、训练资源等多方面,观点多元且有争议,整体氛围热烈且富有探索性]

 ·  · 
模型与技术 训练与微调技术

古登堡训练材料的问题

[原帖指出古登堡计划电子书作为训练材料存在语言过时等问题,评论围绕该问题展开,有提出针对古登堡书籍筛选作者等改进方式、存在其他过滤工具、模型存在的其他相关问题以及不良内容插入等多方面的讨论]

 ·  · 
模型与技术 训练与微调技术

我糟糕的Llama 3.2视觉微调经历

[原帖分享llama视觉模型微调失败经历并寻求原因,评论者们有的给出改善建议如调整过拟合、增加样本、改变LoRA配置等,有的表达感谢和认可,整体氛围积极且富有建设性]

 ·  ·