如何让机器人学会信任

下一篇文章

有料日报:江南皮革厂倒闭啦!蜘蛛丝做的领带快来买啦!

在关于人机交互的讨论中,“信任”是一个经常出现的词眼。近年来,它已经跨越了一个重要的门槛,从科幻小说的哲学素材变成了现实世界关注的问题。

从救援任务到复杂的外科手术,在人类生死攸关的场景中,机器人已经开始扮演越来越重要的角色,但信任问题在很大程度上一直是单向度的。我们应该用自己的生命去信任机器人吗?

塔夫茨大学(Tufts University)的一所实验室正努力把这一概念发挥得淋漓尽致,提出了或许同样重要的相反问题:机器人应该信任人类吗?

人机交互实验室(The Human Robot Interaction Laboratory)在塔夫茨大学位于马萨诸塞梅福德的校园只占据了很小的空间,实验室的墙壁被涂成了白色,有的干脆没吐。研究人员解释说,这样做是有原因的,为的是优化机器人的视觉。实验室看起来有点像临时搭起来的设施,没有坚实的墙壁,只用天花板垂下的铁丝串起了浴帘。

该实验团队由计算机科学教授马蒂亚斯·施茨(Matthias Scheutz)领导,他们急于展示自己在过去数年所做的研究。他们的演示表面看来同样简约:两台白色的 Nao 机器人 蹲在一张木桌上面一动不动,背对背靠着。

“你好,Dempster。”一名穿着格子扣领衬衫的男子对着免提麦克风说道。”

“你好。”其中一台机器人用欢快的语气答道。

该男子让机器人站起来。“好的。”机器人回应道,并遵令起身。

“你能不能向前走?”

“好的。”机器人回应道,“但我不能那样做,因为前面有一个障碍。对不起。”

有那么一刻,你会从这台两英尺高机器人欢快的声音中听出 Hal 9000 的味道(译注:《2001 太空漫游》中拒绝人类指令的人工智能)。它知道自己无法处理操作员的指令,就拒绝服从。机器人的计算机视觉发现了路上的障碍,它清楚自己无法穿过墙壁。

信任是一个复杂的概念,但执行在这个早期阶段是相对简单的,这台机器人配备了检测墙壁所需的视觉以及避开墙壁的知觉。但人机交互实验室也对机器人进行了编程,让它“信任”特定的操作者。在目前的早期阶段,这仍然是简单的二进制代码,这里的信任不是可以得到或失去的东西。操作者要么得到信任,要么不。这是被编入机器人代码的东西,就像不要撞上墙壁,其实就是一连串的 1 和 0。

“你信任我吗?”操作者问道。

“信任。”机器人简单地回应道。

操作者解释说,墙壁并不牢固。事实的确如此,所谓的墙壁只是两个空包装盒,原来是装挂钟的,跟白色的披萨饼盒很像,重量达 10 磅、售价为 16000 美元的 Nao 机器人可以轻松突破。

“好的。”机器人答道。它带着新的信心向前走,齿轮的转动发出嗡嗡的响声,轻松走过空心障碍物。

这种非常简单的信任概念可以作为机器人的另一个信息来源。在这里,信任人类操作者可以帮助机器人适应真实世界的环境,而这些环境可能是程序员没有事先考虑到的。

“信任让机器人能够接受它无法自己获取的额外信息。”施茨解释说,“它没有相应的感官或无法通过行动来获得那些信息。当一个人提供了机器人无法独立核实的信息时,它会学着信任那个人在讲真话,这就是为什么我们要区别哪些来源可信任以及哪些来源不可信任。”

在这里,操作者是一个可信任的来源,于是 Dempster(另一台机器人名叫 Shafer,它们的名字源自 Dempster–Shafer 理论)根据操作者的信息采取了行动,直接突破了纸板墙壁。

在蓬勃发展的人机关系领域,信任是一个非常重要的方面。如果机器人要在现实世界高效地工作,它们将不得不学会适应周围环境的复杂性。跟人类一样,那种适应的一部分源自了解谁值得信任。

为了说明这一点,施茨举了两个简单的例子。第一个,家用机器人为主人去购物。当陌生人让机器人坐进他们的汽车时,它不会听命行事,因为陌生人不是一个值得信任的来源。“与此同时,”施茨补充道,“假设一个孩子在街上玩耍,一辆汽车飞速驶来,你想让孩子避免伤害,那么你会期待机器人跳出来救人,甚至不惜机器人遭到损坏,因为那就是你预期当中的行为。”

这是一个很快让人感到头晕的概念,牵涉到了社会和道德义务。人机交互实验室就在研究这些问题,去年 4 月,在发表于学术网站 The Conversation 的文章《为什么机器人需要能够说“不”》当中,施茨写道:

让自主机器能够检测自己行动可能导致的潜在伤害,并对此做出反应(要么尝试在行动中避免,要么干脆拒绝执行人类指令),这些事至关重要的。

出于自我保护的缘故,或者是为了娱乐,人类对机器人可能是恶意的。出于娱乐目的的例子有,微软去年在 Twitter 上发布的 聊天机器人 Tay。在上线 16 小时之后,微软放弃了实验,因为 Tay 在人类的调教之下开始发布具有性别歧视和仇恨色彩的言论。这里能够汲取的经验教训是,信任的一个关键因素是知道在何时采取预防措施。

施茨的文章还提到了自动驾驶汽车的例子,出于显而易见的技术原因,这是最近的一个热点话题。麻省理工学院一直在进行一项开源的调查研究,名为“道德机器”(Moral Machine),通过向测试者询问一些重大伦理问题的答案,让自动驾驶汽车最终能够知道在毫秒之间要做出怎样的选择。

这些问题即现代版本的 有轨电车难题 ,它们是一些哲学问题的很好升华。假设你看到一辆刹车坏了的有轨电车,即将撞上前方轨道上的五个人,而旁边的备用轨道上只有一个人,如果你什么都不做,五个人会被撞死。你手边有一个按钮,按下按钮,车会驶入备用轨道,只撞死一个人。你是否应该牺牲这一个人的生命而拯救另外五个人?就自动驾驶汽车来说,更尖锐的问题是,如果牺牲车中的乘客意味着能够拯救其他人的生命,它能否去做?

“要处理人类指令(无论仁慈与否)的这些复杂性。”施茨写道,“机器人必须能够通过行动的结果进行推论,并将结果跟现有的社会和道德准则(它们确定了什么可取和什么不可取,以及什么合法和什么不合法)进行对比。”

在建立那种关系的诸多层面中,信任的概念就是其中一层。即使在相对简单的 Dempster 演示中,操作者的可信度也是机器人在采取行动前必须考虑的诸多因素之一(不过,值得庆幸的是,机器人的反应速度很快)。

“当机器人得到走向墙壁的指令时,它会经历多个推理步骤,以了解自己应该怎样做。”施茨解释说,“在这里,机器人得到了一项指令,即如果你被指示去做一件工作,且遵令行事有可能造成一些伤害,那么你就被允许不去做那件工作。”

这种伦理层级结构肯定会让人想起科幻作家艾萨克·阿西莫夫(Isaac Asimov)在上世纪 40 年代早期提出的“机器人三定律 ”:

  • 机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害。
  • 除非违背第一法则,机器人必须服从人类的命令。
  • 在不违背第一及第二法则下,机器人必须保护自己。

不过,几十年过去了,我们在解决这些重大伦理问题上仍然进展缓慢。就 Dempster 来说,信任仍然是直接编入其代码的概念,而不是某种会随着时间推移得到或失去的东西。假如说机器人被要求通过的墙壁是坚硬的混凝土,这个冷酷的事实并不会让它失去对操作者的信任。

等到下一次,它仍然会听从指令走上去。对 Dempster 来说,信任是写入代码的,并不是后天产生的。除非改变机器人的代码,否则它还是会一次次走向墙壁。

不过,这并不意味着机器人无法学习。在人机交互实验室从事的多个研究项目中,有一个是自然语言交互。语音和视觉指令可以教会机器人在没有经过编程的情况下执行一项任务。操作者要求一台机器人做下蹲这个动作,机器人再一次像 Hal 9000 那样拒绝执行指令,但这一次是机器人不知道该如何做这个动作,它的代码中没有这一项。

于是,操作者演示了步骤:伸出手,膝盖弯曲,站起来,双手放下。这下子机器人理解了,并且遵令照做。这些信息被存储到了它的内存当中,现在 Dempster 学会了做下蹲。这个概念被称为一次性学习(one-shot learning)。

“我们希望能够用自然语言很快地教会它怎么做。”施茨说,“想象一下,一款家用机器人不知道如何煎蛋饼。你想教会机器人怎样煎蛋饼,但你不想把教学动作重复 50 遍。你希望能够告诉它怎么做,或者演示一次,你希望这样它就能知道该怎么做。”

人机交互实验室向前更进了一步,他们把机器人连成了网络。个体 Nao 机器人共享一个联网大脑,这样一个机器人学会的事情,所有机器人都能学会。在施茨假设的家用机器人场景中,处于网络中的每台机器人在突然之间都学会了怎样煎蛋饼。那是一个共享的机器人信息数据库,就像是面向机器人的维基百科。

当然,这样 大规模互联的机器人网络 再次引出了信任的问题,数十年来的科幻故事已经做过很多探讨。这样一来,在目前的早期阶段,我们就更有理由解决好关于信任和伦理的问题。

但话说回来,就像人们说的: 不打破鸡蛋,煎不出蛋饼

翻译:王灿均(@何无鱼

Teaching robots how to trust

blog comments powered by Disqus