研究发现,允许AI自言自语或许能提升其学习效果。研究人员指出,内部“低语”与短期记忆相结合,能帮助AI更轻松地适应新任务、切换目标并应对复杂挑战。这种方法不仅大幅减少了训练数据需求,还显著提升了学习效率,有望为开发更灵活、更接近人类思维的AI系统铺平道路。
研究结果表明,学习的塑造不仅取决于人工智能系统的结构,还取决于它在训练过程中如何与自身互动。正如第一作者、OIST认知神经机器人研究单元的工作人员科学家Jeffrey Queißer博士所解释的:“这项研究强调了自我互动在我们学习方式中的重要性。通过以教导我们的系统与自己对话的方式构建训练数据,我们展示了学习的塑造不仅取决于人工智能系统的架构,还取决于嵌入在我们训练程序中的互动动态。”
自我对话如何提升人工智能性能
为了验证这一想法,研究人员将自我导向的内部言语(描述为安静的“喃喃自语”)与专门的工作记忆系统相结合。这种方法使他们的人工智能模型能够更有效地学习,适应不熟悉的情况,并同时处理多项任务。结果显示,与仅依赖记忆的系统相比,在灵活性和整体性能方面有明显提升。
构建能够泛化的人工智能
团队工作的一个核心目标是内容无关的信息处理。这指的是将学到的技能应用于训练中遇到的确切情况之外,使用通用规则而非记忆的示例。
“快速切换任务和解决不熟悉的问题是我们人类每天轻松做到的事情。但对人工智能来说,这更具挑战性,”Queißer博士说。“这就是为什么我们采取跨学科方法,融合发展神经科学、心理学与机器学习、机器人学等领域,以找到思考学习的新方式,并为人工智能的未来提供信息。”
为什么工作记忆很重要
研究人员首先检查人工智能模型中的记忆设计,重点关注工作记忆及其在泛化中的作用。工作记忆是短期持有和使用信息的能力,无论是遵循指令还是进行快速心算。通过测试不同难度级别的任务,团队比较了各种记忆结构。
他们发现,具有多个工作记忆槽(信息的临时容器)的模型在具有挑战性的问题上表现更好,例如反转序列或重现模式。这些任务需要同时持有多个信息并按正确顺序操作。
当团队添加鼓励系统与自己对话特定次数的目标时,性能进一步提升。最大的提升出现在多任务处理以及需要多个步骤的任务中。
“我们的组合系统特别令人兴奋,因为它可以处理稀疏数据,而不是通常训练这类模型进行泛化所需的广泛数据集。它提供了一种互补的、轻量级的替代方案,”Queißer博士说。
在现实世界中学习如何学习
研究人员现在计划超越干净、受控的测试,探索更现实的条件。“在现实世界中,我们在复杂、嘈杂、动态的环境中做决策和解决问题。为了更好地反映人类发展学习,我们需要考虑这些外部因素,”Queißer博士说。
这一方向支持了团队更广泛的目标,即理解人类学习在神经层面上的运作方式。“通过探索像内部言语这样的现象,并理解这些过程的机制,我们获得了对人类生物学和行为的基本新见解,”Queißer博士总结道。“我们还可以应用这些知识,例如开发能够在复杂、动态世界中运行的家用或农业机器人。”