原贴链接

神经科学领域理论认为人类大脑依据自由能原理工作。自由能原理提出生物系统(包括大脑)会尽量减少内部模型与感官输入之间的“意外”(或预测误差)。生物会通过更新内部模型或改变环境来维持预期状态。这种系统似乎可在机器学习领域复制,已在强化学习算法SMIRL中成功实现。SMIRL算法有诸多有趣之处,如无需明确目标即可工作等。之后发现SMIRL模型的工作方式与液态时间常数网络(Liquid Time Constant Networks)相似,这有助于解释液态神经网络为何有效。还介绍了其更新版本封闭形式连续时间神经网络(Closed Form Continuous Time Neural network)在汽车驾驶任务中的表现,相比其他模型,它能用少得多的神经元达成相同任务。又提到了能实时在线学习的LTC模型版本,这是时间前向传播+液态时间常数+脉冲神经网络(Spiking Neural Networks)的组合,解决了脉冲神经网络训练的一些问题。还阐述了基于惊喜最小化的学习规则对神经网络的影响,以及与脉冲时间依赖可塑性(STDP)学习的关系。接着作者理论推测将液态时间常数神经网络与基于惊喜最小化的神经元学习规则相结合的模型特性,如可实时学习、能自然探索学习、用较少训练材料学习语言等。最后指出大语言模型(LLMs)在真正学习方面存在不足,难以解决分布外问题,而作者提出的模型有望解决这些问题,还阐述了人类通过惯例(routines)解决问题以及LLMs在这方面的缺陷,介绍了自己提出的神经网络模型解决ARC - AGI谜题的思路。

详细内容:

**