模型与技术 训练与微调技术

微调嵌入以用于RAG的经验教训

[原帖分享微调嵌入实验成果,评论围绕实验中的技术点如eval的作用、浮点格式、合成问题、GPU相关内容等展开提问、交流与感谢,整体氛围友好且富有探索性]

 ·  · 
模型与技术 训练与微调技术

基于个人理念的精选模型

[原帖作者分享基于自身信念微调的模型,评论者围绕模型的构建(如训练设置、硬件配置、数据集等)、模型能力(回答妻子问题能力、可靠性等)、表达赞同或尝试计划、进行轻松互动等展开讨论,氛围比较积极友好。]

 ·  · 
模型与技术 训练与微调技术

Qwen 32B全面微调用于角色扮演/故事创作:EVA

[围绕Qwen相关模型,包括32B微调模型、2.5指令版等展开讨论,涉及模型性能、写作风格、缓存等方面,讨论热度整体不高,氛围比较平和]

 ·  · 
模型与技术 训练与微调技术

LLM训练错误修复 - 梯度累积错误

[原帖提到LLM训练中梯度累积的错误修复,评论者对修复工作表示赞赏、感谢、提出疑问或展开相关技术讨论,整体氛围积极正面]

 ·  · 
模型与技术 训练与微调技术

英特尔首次开放分布式大语言模型INTELLECT - 1的训练

[关于首个开放分布式LLM - INTELLECT -1的训练,讨论涉及硬件资源、计算效率、许可发布等多方面,观点有正面期待也有质疑,氛围较为理性]

 ·  · 
模型与技术 训练与微调技术

惊讶于未见Llama 3.2(11B)的通用或RP微调

[围绕Llama 3.2 (11B)缺乏通用或RP微调展开讨论,涉及模型结构、性能、在游戏中的应用、技术支持、与其他模型比较等多方面内容,讨论氛围积极热烈]

 ·  · 
模型与技术 训练与微调技术

使用Transformer(TRL)时小批量大小和梯度累积微调效果差

[原帖提出使用特定库微调时小批量和梯度累积性能差,评论者有的表示感谢原帖分享,有的进行技术讨论、提出疑问、分享实验结果或表达希望解决问题等内容,整体氛围较为积极探索]

 ·  · 
模型与技术 训练与微调技术

本地训练逆袭:Impish_LLAMA_3B的诞生记

硬件投资和电力消耗也是隐性成本。

 ·  · 
模型与技术 训练与微调技术

重要更新:无损失连续微调技术新突破

讨论围绕“Continuous Fine-tuning Without Loss Using Lora and Mergekit”方法展开,主要探讨LoRA合并的权重分配、TIES算法的优势、模型优化的具体细节,以及该方法对基础模型和指令微调的影响。

 ·  · 
模型与技术 训练与微调技术

如何微调大型语言模型?

讨论围绕如何微调大型语言模型(LLM)展开,提供了多种资源和实用建议,涵盖了从本地环境到云实例的多种解决方案。

 ·  ·