对头顶树冠的内在理解帮助我们判断道路的延伸方向。树枝的清脆断裂声或苔藓的柔软触感传递着脚下稳定性的信息。树木倒塌的轰鸣或强风中舞动的枝条则警示着附近潜在的危险。
相比之下,机器人长期以来仅依靠摄像机或激光雷达等视觉信息在世界中穿行。在好莱坞之外,多感官导航对机器始终是严峻挑战。森林中茂密的灌木丛、倒伏的树干与瞬息万变的地形构成美丽的混沌,对传统机器人而言恰似充满不确定性的迷宫。
如今,杜克大学研究人员开发出名为WildFusion的创新框架,通过融合视觉、振动与触觉,使机器人能像人类般"感知"复杂的户外环境。该成果近期被IEEE机器人与自动化国际会议(ICRA 2025)收录,会议将于2025年5月19-23日在美国佐治亚州亚特兰大举行。
"WildFusion开启了机器人导航与三维测绘的新篇章,"杜克大学机械工程与材料科学、电气与计算机工程以及计算机科学Dickinson Family助理教授陈博元表示,"它帮助机器人在森林、灾区及越野地形等非结构化、不可预测环境中更自信地运行。"
论文第一作者、陈实验室二年级博士生柳彦白辉补充道:"传统机器人过度依赖单一视觉或激光雷达,在缺乏清晰路径或可识别地标时极易失效。即使先进的三维测绘方法,当传感器数据稀疏、含噪或残缺时——这在非结构化户外环境中屡见不鲜——也难以重建连续地图。这正是WildFusion旨在攻克的核心挑战。"
基于四足机器人构建的WildFusion集成多重传感模态,包括RGB相机、激光雷达、惯性传感器,以及核心组件接触式麦克风与触觉传感器。与传统方法相同,相机与激光雷达捕获环境几何结构、色彩、距离等视觉细节。WildFusion的创新性在于声学振动与触觉的应用。
机器人行进时,接触式麦克风记录每步产生的独特振动,捕捉细微差异——如枯叶的碎裂声与泥土的柔软挤压声。同时触觉传感器实时测量每只脚掌的受力,协助机器人感知地面稳定性或湿滑程度。惯性传感器则收集加速度数据,评估机器人在不平坦地面行进时的晃动、俯仰及翻滚幅度,为多模态感知提供补充。
各类传感数据经专用编码器处理后,融合为统一的高维表征。WildFusion的核心是基于隐式神经表征的深度学习模型。与传统离散点云处理方法不同,该技术对复杂表面与特征进行连续建模,使机器人即使在视觉受阻或模糊时,仍能做出更智能、更直观的落脚决策。
"这如同拼合缺失碎片的拼图时仍能直觉想象完整画面,"陈博元阐释道,"WildFusion的多模态方法让机器人能在数据稀疏或含噪时'填补空白',高度模拟人类行为模式。"
在杜克校园附近的北卡罗来纳州伊诺河州立公园测试中,WildFusion成功引导机器人穿越密林、草地与碎石小径。"目睹机器人自信穿越复杂地形的场景令人无比振奋,"柳彦白辉分享道,"这些实地测试验证了WildFusion精确预测可通行性的卓越能力,显著提升了机器人在挑战性地形中的安全路径决策水平。"
展望未来,团队计划整合热成像或湿度检测器等更多传感器以扩展系统功能,进一步提升机器人理解与适应复杂环境的能力。凭借灵活的模块化设计,WildFusion在森林路径之外具有广泛应用前景,涵盖不可预测地形的灾害响应、偏远基础设施巡检及自主探索等领域。
"当代机器人学的核心挑战在于开发不仅实验室表现优异,更能于现实场景可靠运作的系统,"陈博元强调,"这意味着机器人须在世界陷入混乱时仍保持适应能力、决策能力与持续行动力。"
本研究获得DARPA(HR00112490419, HR00112490372)及陆军研究实验室(W911NF2320182, W911NF2220113)资助。
Story Source:
Materialsprovided byDuke University.Note: Content may be edited for style and length.
2025-07-02
2025-07-02
2025-07-02
2025-07-02