Researchers have developed a new experiment to better understand what people view as moral and immoral decisions related to driving vehicles, with the goal of collecting data to train autonomous vehicles how to make "good" decisions. The work is designe
研究人员已经开发了一项我们的实验,以了解人们认为与驾驶车辆相关的非机动决策是什么,以及收集数据来训练自动驾驶车辆如何做出“好”的决策这项工作旨在捕捉更真实的交通挑战,而不是受所谓“电车问题”启发而全面讨论的生死场景
“手推车问题呈现出一种情况,即为了避免多人死亡,必须有人决定是谁故意杀死了一个人(这违反了道德规范),”北卡罗来纳州立大学关于手推车和博士后研究的论文第一作者DarioCecchini说
“最近几年,滚动问题被用作研究办公室道德判断的范例,”Cecchinis说“典型的情况包括两种选择,一种是向左行驶,另一种是撞到路边的障碍物,另一个是向前行驶,撞到过街的行人专用区。然而,这些类似手推车的情况是不真实的。司机每天都要做出更现实的决策。我应该超速行驶吗?我应该轻一点吗?我是否应该全速行驶还是救护车?”“这些基本决定非常重要,因为它们最终可以适应生命或死亡的情况,”科学、技术和科学领域的相关专家和协会主席VeljkoDubljevic说;NCState的社会计划
“例如,如果有人在速度最慢且不太亮的地方行驶了20英里,那么这两个人就必须在他们必须与其他人接触的情况下才能进行碰撞。目前,关于我们如何对驱动因素的决策做出道德判断的信息很少。”
为了解决缺乏数据的问题,研究人员开发了一系列实验,设计了关于人类如何对低风险办公环境下的决策做出口头判断的收集数据他们创造了一些不同的驾驶场景,比如父母必须决定他们是否远离办公室信号,同时让孩子按时上学每个场景都是在虚拟现实环境中进行的,因此参与实验的研究参与者在做出决策时都有关于驾驶员所做操作的视听信息,而不是简单地了解场景
在这项工作中,研究人员建立了一种被称为“代理决定序列”(ADC)模型,该模型假设人们在做出道德判断时必须考虑到:代理,这是个人选择的特征或内容;设计的,或者说是设计的;以及由此产生的结果
研究人员为每个流量场景创建了不同的版本,改变了代理、数据和结果的组合例如,在任何情况下,父母都会照顾孩子,在黄灯下刹车,让孩子按时上学在第二个版本中,家长们忙得不可开交,并引发意外另一个版本则代表租户的性质(代理)、他们的决策、交易信号(定义)和/或他们的决策结果(顺序)
Cecchinis说:“这里的目标是让研究参与者查看每个场景的一个版本,并确定河流的行为在每个场景中的程度,从1到10。”“这将为我们提供关于我们认为驾驶车辆经济行为的可靠数据,这将有助于开发一种算法,用于决策驾驶非电动车辆。”我们进行了飞行员测试,以精确调整场景,并确保其反映出令人难以置信的情况,并基本上了解情况
“下一步将进行大规模的数据收集,让成千上万的人参与实验,”Dubjevic说“我们可以使用这些数据来开发更多的交互式实验,以更好地调整我们对决策的理解和理解。所有这些数据都可以用于创建用于无人驾驶汽车的算法。我们还需要进行额外的测试,以了解每种形式的算法。”