模型与技术 训练与微调技术

需要关于从PDF中提取大型合规项目的指导

讨论围绕如何从PDF文档中提取合规项目,涉及模型选择、数据处理和微调策略。

 ·  · 
模型与技术 训练与微调技术

如何使用txt文件微调/训练一个相当大的LLM?

Reddit用户讨论如何微调一个已经用芬兰语训练过的大型语言模型,寻求避免训练参数限制导致的损失的解决方案。

 ·  · 
模型与技术 训练与微调技术

LoRA微调有时是否不如对较小模型进行全面微调有效?

讨论围绕LoRA微调技术在特定任务中的效果不如全量微调小型模型的问题,涉及性能比较、参数效率和模型泛化等多个方面。

 ·  · 
模型与技术 训练与微调技术

强制格式训练

讨论围绕使用LLaMA3.1 70B-Instruct生成终端调用时,如何通过lm_format_enforcer确保输出格式正确,并探讨在训练中是否应调整损失函数以排除模板中强制的令牌。

 ·  · 
模型与技术 训练与微调技术

模型构建分解指南

讨论围绕如何分析和比较Llama 3.1 8b模型与微调版本,涉及模型文件的识别、权重比较及应用场景的探索。

 ·  · 
模型与技术 训练与微调技术

本地大型语言模型经常反复重复“请告诉我这是否符合您的要求”这样的句子

Reddit用户讨论本地大型语言模型(LLMs)重复提供帮助语句的问题,尝试通过修改系统提示解决,但效果不佳,寻求更有效的解决方案。

 ·  · 
模型与技术 训练与微调技术

微调Llama 3.1于医疗数据集

讨论围绕在医疗领域中使用微调技术提升AI模型的专业性,涉及模型选择、数据处理和未来发展方向。

 ·  · 
模型与技术 训练与微调技术

微调思维链以教授新技能

讨论围绕如何通过微调或使用RAG等方法来教授模型新的技能,特别是链式思维和计数能力。

 ·  · 
模型与技术 训练与微调技术

使用Lora和Mergekit进行无损连续微调

讨论围绕使用LoRA适配器和MergeKit技术进行开源AI模型的连续微调,展示了新方法的优越性和广泛的应用前景。

 ·  · 
模型与技术 训练与微调技术

在我的个人日记上训练一个语言模型?

讨论围绕使用个人日记数据训练语言模型的可行性、方法和资源展开,涉及数据处理、模型微调和计算资源等多个方面。

 ·  ·