如何使机器人的行为更像人

文章 (137) 2021-01-31 21:38:38

去年,我的一个朋友邀请我乘坐他的特斯拉 TSLA尝试一下自动驾驶功能,称为自动驾驶。我的朋友知道我研究了人类信任(或不信任)自动化的方式。当然,我说的是!

当我们在自动驾驶仪上导航时,我迅速了解到特斯拉能够识别我们前面停着的汽车的能力,并开始相信特斯拉能够自行停车。如此之多,以至于有一次,我的朋友突然不得不提醒我要停下来,因为我们正接近红灯。他解释说,特斯拉在这种情况下不会自动刹车。该汽车能够检测前方的物理物体,但未编程为在红色信号灯处停车。

直到那时我才知道这辆车的限制。而且汽车没有任何办法“知道”我在想什么,或者意识到我没有准备停车。如果我的朋友没有和我在一起,向我解释自动化,那我很可能会发生事故-一辆旨在让我更安全的汽车。幸运的是,特斯拉在今年早些时候发布了其新的“交通灯和停车标志控制”功能来满足这一需求。

像这样的经历令人沮丧地提醒我们,即使似乎我们处在全自动,机器人驱动的未来的风口浪尖上,我们仍然有很长的路要走。我的事件发生在方向盘后面,但是这种情况也可能发生在工厂车间,家庭,医院或其他人们越来越依赖自动化系统的地方。对于工程师来说,在设计自治系统时不必考虑人类行为的复杂性当然会更简单。但是,要使自动化与人类成功互动,无知不是幸福。人工系统和自治系统都需要针对对方的运行方式开发准确的“心理模型”。

建立心理模型

人类本能地为与我们互动的所有事物和所有人创建心理模型。例如,当我们开车时,我们会感觉到必须转动多少车轮才能转弯或者需要多少加速器重量才能达到特定速度。当我们与队友合作时,我们会评估激励他们的动机,他们喜欢如何完成工作以及何时介入或退出。重要的是,随着我们对其他人,情况或系统的更多了解,我们自然也倾向于不断调整这些模型。我们的思维模型可能并不总是准确的,但它们始终存在,可以告知我们的决策和行动。

当我们的人类队友也了解我们,自动驾驶汽车,机器人和其他系统通常没有能力“感知”我们的运作方式,或确定一个人的想法或反应方式,更不用说辨别不同人的个人倾向了。人。但是,为了有效地与人类合作并保持互动,机器人和其他自治系统确实需要拥有自己的思维模型。没有人,甚至像我这样的人(设计自治系统的机械工程师)也可能期望机器的行为实际上超出其能力范围,几乎没有办法纠正出了问题。闪烁的灯光,大声的声音和强烈的振动(例如在仪表板或方向盘上)可以使某人重新参与其中,但他们仍然无法满足特定用户的需求,也无法利用他们的个人优势,

向队友学习

具有建设性的人与人伙伴关系的特征通常是,一个人或两个人表现出较高的情商,或更简单地说,就是“人”。一个人善于与他人互动并进行解释。因此,他们是更有效的沟通者和合作者,可以充分利用周围的人。因此,自主系统需要自己的情商版本才能对与之交互的人类执行相同的操作。例如,这可能包括辨别诸如过度信任和脱离接触之类的行为,然后采取行动使人类重新参与,或者感觉到恐惧和焦虑并采取行动使人放心。没有人能一劳永逸的解决方案,而我们的新技术需要体现这一点。

人机交互和人机交互的更广泛领域的研究人员正在研究此问题的许多方面,并已开发出一些可能的解决方案,例如基于语音或面部表情读取人的情感,但仍有许多工作要做。如果创新者没有适当地考虑到自动化方面的这一重要需求,那么后果不仅会危害人类生产力,还会危害人类安全和目标。无论给定技术多么自治,人类都必须始终处于循环之中,以使人类和机器都能发挥最大潜能。在继续设计和使用自主系统的同时,意识到这一点符合我们自己的利益和安全。

THE END

发表回复