对头顶树冠的先天理解帮助我们判断路径的走向。树枝清脆的断裂声或苔藓柔软的缓冲感告知我们脚下是否稳固。树木倒下的轰鸣或强风中枝条的狂舞则警示我们附近潜在的危险。
相比之下,机器人长久以来仅依赖摄像头或激光雷达等视觉信息在世界中穿行。在好莱坞之外,多感官导航对机器而言始终充满挑战。森林中茂密的灌木丛、倒下的原木以及不断变化的地形构成了一幅美丽的混沌图景,对传统机器人来说却是不确定性的迷宫。
如今,杜克大学的研究人员开发出一种名为WildFusion的新型框架,融合视觉、振动和触觉,使机器人能够像人类一样"感知"复杂的户外环境。该成果近期被IEEE机器人与自动化国际会议(ICRA 2025)接收,该会议将于2025年5月19日至23日在佐治亚州亚特兰大举行。
"WildFusion开启了机器人导航与三维测绘的新篇章,"杜克大学Dickinson家族机械工程与材料科学、电气与计算机工程及计算机科学助理教授陈博远(Boyuan Chen)表示,"它帮助机器人在森林、灾区及越野地形等非结构化、不可预测的环境中更自信地运行。"
"典型机器人过度依赖单一视觉或激光雷达,一旦缺乏清晰路径或可预测地标就容易失效,"论文第一作者、陈博远实验室二年级博士生刘彦百卉(Yanbaihui Liu)补充道,"当传感器数据稀疏、嘈杂或不完整时,即便先进的三维建图方法也难以重建连续地图——这在非结构化户外环境中屡见不鲜。而这正是WildFusion旨在解决的挑战。"
基于四足机器人构建的WildFusion集成了多种传感模式,包括RGB摄像头、激光雷达、惯性传感器,以及尤为关键的接触式麦克风与触觉传感器。与传统方法相同,摄像头与激光雷达负责捕捉环境几何结构、色彩、距离等视觉细节。WildFusion的创新之处在于其对声学振动与触觉的运用。
机器人行走时,接触式麦克风记录每一步产生的独特振动,捕捉诸如枯叶碎裂的嘎吱声与泥泞挤压的噗呲声等细微差异。与此同时,触觉传感器测量施加于每只脚掌的压力,实时感知地面稳定性或湿滑程度。惯性传感器则通过收集加速度数据,辅助评估机器人在崎岖地面行走时的晃动、俯仰或翻滚幅度,为这些新增感官提供补充。
各类传感数据经专用编码器处理后,融合为统一的丰富表征。WildFusion的核心是基于隐式神经表示概念的深度学习模型。不同于将环境视为离散点集合的传统方法,该技术可连续建模复杂表面与特征,使机器人即使在视野受阻或模糊时,也能对落脚点做出更智能、更直观的决策。
"这就像拼拼图时,即便缺失部分图块,你仍能凭直觉想象完整画面,"陈博远解释道,"WildFusion的多模态方法让机器人在传感器数据稀疏或嘈杂时能够'填补空白',与人类行为高度相似。"
在杜克校园附近的北卡罗来纳州伊诺河州立公园的测试中,WildFusion成功引导机器人穿越茂密森林、草地与碎石小径。"目睹机器人在复杂地形中自信导航令人无比振奋,"刘彦百卉分享道,"这些实地测试验证了WildFusion精准预测可穿越性的卓越能力,显著提升了机器人在挑战性地形中选择安全路径的决策水平。"
展望未来,团队计划通过集成热敏或湿度探测器等额外传感器来扩展系统,进一步提升机器人理解与适应复杂环境的能力。凭借其灵活的模块化设计,WildFusion在森林小径之外展现出广阔应用前景,包括在不可预测地形的灾难响应、偏远基础设施巡检及自主探索等领域。
"当今机器人学的核心挑战之一是开发不仅在实验室表现优异,更能可靠应用于真实场景的系统,"陈博远强调,"这意味着机器人必须能在混乱环境中持续适应、自主决策并保持行进。"
本研究获得DARPA(HR00112490419, HR00112490372)及陆军研究实验室(W911NF2320182, W911NF2220113)资助。
Story Source:
Materialsprovided byDuke University.Note: Content may be edited for style and length.
2025-07-02
2025-07-02
2025-07-02
2025-07-02