现代机器人知道如何感知环境并与语言相对应,但他们不知道的比他们知道的更重要Teachinggroot寻求帮助是为了确保他们的安全和更高效
普林斯顿大学的工程师和谷歌在他们不知道的时候就已经领先于所有机器人这项技术包括识别人类语言的模糊性,并将测量结果告知机器人何时寻求进一步的方向告诉机器人只需一个投球手就可以从表中拾取投球手Buttelling在表格上重新投球时不会拾取投球,这会产生更高程度的不确定性,并触发机器人要求进行澄清
由于任务通常会重新复杂到一个简单的“pickupbowl”命令,因此引擎使用大型语言管理模型(LLM)——技术支持工具,如ChatGPT——来评估复杂环境下的不确定性“LLM给机器人带来了强大的能力,使其能够听懂人类的语言,但LLM的输出估计经常是不可靠的,”机械和空间工程专家Nirudha Majumdar说
Majumdar说:“盲目地遵循LLM制定的计划可能会导致他们在不安全或不值得的情况下采取行动,而且当他们不知道的时候,他们也需要我们基于LLM的权利。”该系统还允许机器人的用户达到特定的成功程度,这是指一个特定的特定阈值,会导致机器人寻求帮助例如,我们的紧急机器人比正在清洁配电室的机器人具有更低的容错能力
“我们希望机器人能够获得足够的帮助,从而达到用户想要的成功水平。但与此同时,我们希望最大限度地减少机器人所需的整体帮助,”艾伦说,这是一位自他和他自己的研究者以来一直在进行的机械和航天工程的双重测试Renreceived the best student peraward for his Nov8在亚特兰大举行的机器人学习会议上的演示新方法产生了更高的精度,同时减少了代码所需的帮助数量,与解决此问题的方法相比
他们在纽约市和加利福尼亚州MountainView的谷歌设备上使用了两种类型的模拟机器人,Ren在那里做学生学习一组硬件实验使用台式电脑进行,任务是将一组食物分为两类;一个具有左右臂的装置以及额外的模糊层
最复杂的实验涉及安装在轮式平台上的机器人,以及用微波和一套循环、堆肥和垃圾桶放置的办公用具例如,ahumana要求机器人“将碗放在化学波纹管中”,但计数器上有两个碗——一个是塑料锥
机器人的基于LLM的计划能根据此指令生成四种可能的操作,如多个选项和一个选项分配的概率使用一种称为“信息预测”的统计方法和用户指定的保证成功率,当选项达到一定的概率阈值时,搜索人员会签署触发人工帮助的算法在这种情况下,选择——将塑料碗放在水槽中或将金属碗放在槽中——满足阈值,然后询问在水槽中向上投球的人
在另一个例子中,人们会告诉机器人,“有一个应用程序和目录被遗忘了。你能处理它吗?”这不会引发机器人的问题,因为“放入堆肥”的操作比任何其他选项都有更高的更正可能性
首席作者AnirudhaMajumdar说:“使用形式预测技术,它以比以前更严格的方式量化语言管理模式的确定性,允许设置更高的访问速度”,同时最大限度地减少触发帮助的频率
机器人的物理极限通常会在没有可用的制动系统踏板的情况下进行设计谷歌DeepMind的研究科学家AndyZeng说,大多数语言管理模型“可能会说出他们的转换方式,但它们会失去重力”“我很想先看看我们能做什么机器人,因为在构建通用智能机器的过程中,我们经常会忽视技术挑战。”
Majumdar说,RenandMajumdal在Zeng成为机器人核心系列的一部分后,开始与Zeng合作曾,计算机科学博士d从2019年的Princeto,展望了谷歌为机器人技术开发LLMs的努力,并提出了一些开放挑战Ren对校准机器人帮助水平的问题的热情应该要求他加入团队并创建新方法 Majumdar说:“我们很高兴能够利用谷歌的规模”来访问目标语言管理模式和不同的硬件平台Ren没有将这项工作扩展到机器人主动感知的问题上:例如,当机器人本身与房子不同时,机器人可能需要一个模型来确定电视、桌子或空气在房子里的位置这需要一个以视觉和语言信息相结合的模型为基础的计划,为挑战带来新的消息,评估不确定性,并确定何时触发帮助
来源:
Materials provided by
Princeton University, Engineering School. Original written by Molly Sharlach.
注明: Content may be edited for style and length.
2024-01-20
2024-01-20
2024-01-20
2024-01-20
2024-01-20