创新资讯网

美国机器人获得人类情感,是好事还是坏事?

创新资讯网 2018-03-07 18:12 出处:人工智能 编辑:@科技资讯网
【腾讯科技编者按】《麻省理工科技评论》本周刊文称,随着机器人变得越来越智能,甚至可以识别人类的情绪和反应,它们也在形成自身的情感。然而,这可能带来许多问题,且并不能让机器人变得更像人类。

美国机器人获得人类情感,是好事还是坏事?

【腾讯科技编者按】《麻省理工科技评论》本周刊文称,随着机器人变得越来越智能,甚至可以识别人类的情绪和反应,它们也在形成自身的情感。然而,这可能带来许多问题,且并不能让机器人变得更像人类。

以下为文章主要内容:

Octavia是一款用于海军舰只灭火的机器人。近期,她掌握了一系列复杂的面部表情。

当机器人关机时,看起来就像是真人大小的娃娃。机器人有着圆润的白色面庞和挺拔的鼻子。机器人的塑料眉毛贴在前额上,就像两个翻过来的独木舟。

然而,在机器人开机后,眼睛将会张开,并呈现出表情。她会点头表示理解;睁大眼睛扬起眉毛发出警报;或是把头歪向一侧同时撇嘴,表示困惑。在一种漫画效果下,她甚至可以弯起一侧眉毛,挤另一侧的眼睛,同时敲打金属手指,就像是在策划什么机密事件。

不过,Octavia的面部表情还不是最引人关注的特点。更令人惊讶的是,这些情绪直接来自她与人类互动的互动。例如,在发现自己的战友时,她看起来会很高兴。但如果战友给了意料之外的命令时,她会看起来很惊讶。而如果有人发来了无法理解的指令,那么她看起来会很迷惑。

由于可以处理海量环境信息,Octavia可以表现出适当的情绪。Octavia能够观察、聆听和触摸。利用嵌入眼睛里的两个摄像头,她可以观察周围环境,分析面部特征、肤色和衣饰。利用4个麦克风和名为Sphinx的语音识别程序,她可以探测语音。她还能通过触摸去感知25种不同对象,并用手指将这些对象摆弄至特定的姿态和形状。这些感知机能构成了Octavia“具体认知架构”的一部分。作为开发者的美国海军人工智能应用研究中心表示,这些技术使她可以“以类似人类的方式去思考和行动”。

这令人兴奋,但还不算震惊。让机器像人类一样去行事,这样的想法并不新颖。早在18世纪时,自动化装置就可以跳舞、计时、打鼓和弹琴。我们甚至已经习惯于机器可以像人类一样思考。人类认知能力的象征,例如成为国际象棋大师,或是作出一首精妙的十四行诗,已经被计算机所掌握。

然而,Octavia的行动,例如睁开眼睛,用扬起眉毛去表示困惑,似乎要更进一步。这些行为表明,除了以人类的方式去思考之外,Octavia还可以体验到人类的情感。

当然,这些情感并不是真实存在的。美国海军人工智能中心智能系统部门负责人格雷高利·特拉夫顿(Gregory Trafton)表示,设计这些表情只是为了展示Octavia的思考内容,方便人们与她交流。然而,在想法和感觉之间划清界限并非永远可行。特拉夫顿指出,“很明显,人们的想法和情绪是不同的两件事,但会相互影响。”而如果“情绪影响认知或者认知影响情绪”,那么在智能机器的发展过程中,Octavia的思考、推理和感知能力将带来更大的问题。在什么样的情况下,机器能聪明到去感受某些东西?我们怎么才能知道这一点?

个性化的感受

Octavia的程序包含心智理论,这意味着她可以预见人类战友的精神状态。她能够理解,人类可能同时存在相互矛盾的想法和意图。当Octavia被要求执行预期之外的命令时,她会进行模拟,以确定发出命令的战友在想什么,以及为什么他认为这个预期之外的目的是合理的。在这个过程中,Octavia运用自己的世界模型,但进行稍许调整,试图找到通往既定目标的途径。当她把头歪向一边,皱起眉毛时,这就表明她正在运行模拟程序,试图更好地理解战友的想法。

Octavia的程序中并没有包含情绪模型。她的心智理论是一种认知模式,但功能更侧重移情。这是人类情感中最有价值的部分。

其他机器人厂商回避了关于机器人情感智能的问题。例如,软银开发了人形机器人Pepper,这种机器人可以作为人类的伴侣而存在。软银表示,“Pepper喜欢和你互动,希望更多地学习你的品味、你的习惯,以及最简单的问题,你是谁”。但尽管Pepper可以识别人类的情绪,并且可以用微笑或悲伤表情来做出回应,但没有人可以说,Pepper实际上体验到了这些情绪。

那么,机器人的开发者会怎么说?一方面,关于体验情绪这件事,我们所知的依然非常有限。

近几年,心理学和神经科学的突破性研究重新定义了情绪的概念,导致我们更加难以确定和描述情绪。美国东北大学心理学家丽莎·费尔德曼·巴雷特(Lisa Feldman Barrett)等科学家指出,我们在成长过程中所处的文化会极大地影响我们的情绪。实际上,即使是同一个人,在不同情况下情绪也会有极大的差异。

尽管我们与其他人和动物有着同样的“情感”,例如快乐、不愉快、兴奋和冷静,但对于特定情况,我们的细微情感会有很大差别。例如,恐惧是一种在文化上得到认同的概念,但会以多种方式在我们的身体中得到体现。恐惧可以来自多种不同的刺激,在我们的大脑中有多种不同表现,并在我们的脸上反映为多种不同表情。我们的大脑中并没有统一的“恐惧中枢”或“恐惧回路”,而我们的脸上也没有统一的“恐惧表情”。基于情况的不同,我们以各种不同方式去处理并表现自己的恐惧情绪。而通过与他人的互动,我们学会识别并标记“恐惧”。

因此,恐惧实际上是一种泛义的“伞型概念”,而非来自大脑的某个具体部分。巴雷特指出,我们通过身体系统的相互作用来构建情绪。那么,程序员要如何准确在机器人中还原人类的情绪?

优秀的士兵

围绕机器人情绪还存在伦理难题,类似Octavia的军用机器人尤其如此。这些军用机器人会被派遣至可怕、痛苦,或是可能致命的环境中,替代人类去展开任务。

美国陆军于2017年赞助了一场主题为“疯狂科学家倡议”的大会。陆军训练和条令司令部副司令员凯文·曼谷姆(Kevin Mangum)中将明确指出,机器人应当是自动化的。“随着我们关注日益复杂的世界,毫无疑问,机器人、自动化系统和人工智能将发挥作用。”2017年美国陆军机器人和自动化系统战略预测,对自动化系统的全面整合将于2040年到来。这将取代当前的炸弹处理机器人,以及其他由人工远程遥控的机器人。

当这些机器人能够自主行动和思考时,它们是否应当像Octavia一样,表现出类似人类的情绪?程序中是否应当这样做?如果我们把这样的机器人送上战场,机器人不仅要和人类伙伴一同思考,还要与他们分享同样的感受?

从一方面来看,答案当然是否定的。如果我们设计机器人的目的是让它们进入危险的环境,那么加入感知恐怖、创伤或痛苦的能力将是非常残忍的。

另一方面,如果情绪影响智力,或智力影响情绪,那么我们能否认为,没有情绪的机器人会成为优秀的士兵?缺乏情绪是否会导致愚蠢的决定、不必要的风险,或是过于残酷的行为?没有情绪的机器人是否会做出被认为战争犯罪的行为?或者说,没有恐惧或愤怒情绪的机器人能比人类做出更明智的决定?

还有一种可能。如果情绪和智力密不可分,智能机器人必然拥有情感,那么问题在于,机器人应当拥有多少情感已经超出了程序员对智能的控制。

情感依赖

还有个问题在于,这些机器人会如何影响他们的人类伙伴。

截至2010年,美国陆军已部署了大约3000个小型战术机器人。在很大程度上,这是为了应对战争中的简易爆炸装置。这些机器人可以替代人类士兵,进入容易暴露的街道、黑暗的洞穴,通过狭窄的通道,拆除不可预知的简易爆炸装置。

这些机器人的具体型号包括iRobot的PackBot和QinetiQ北美公司的Talon,并不算特别先进。这些机器人看起来有些像是好莱坞电影中的机器人瓦力,四四方方的金属身体在橡胶履带上保持平衡,从而穿越岩石地形、爬楼梯,以及在昏暗的走廊里走动。它们还配备了装有摄像头的机械臂,以探查周围环境,而爪子则可以处理爆炸装置。

这些机器人非常有用,但并不是完全自动化的。它们需要遥控操作,就像遥控玩具车一样。实际上,PackBot并没有比iRobot的拳头产品Roomba扫地机器人先进太多。

然而,尽管这些机器人并没有给人眼前一亮的感觉,但人类士兵仍然与它们形成了关联。朱莉·卡朋特(Julie Carpenter)在“军事场景的文化和人类机器人互动”中展示了混合愉快和痛苦的复杂关系。

卡朋特问到一名士兵对被摧毁机器人的感觉,后者的回答是:“尽管并不明显,但感觉有些类似于好友受伤,或是战友阵亡。毫无疑问这是一种失去的感觉。”

另一名士兵则将机器人比作宠物犬:“你会像照顾战友一样照顾好机器人,确保机器人清理干净,电池一直有电。如果机器人没有在使用,那么你会以最好的方式去保管机器人,因为你知道如果没有机器人,一切就轮到你上。”

甚至还有一名士兵提到,他的战友给机器人起了人类的名字。

这些士兵都强调,机器人是工具,而不是有感情的生物。尽管如此,他们还是会给机器人起人类的名字,并在夜间妥善保管机器人。他们以开玩笑的方式来看待这样的行为,但这样的笑话中流露出了一些令人不安的迹象。卡朋特采访的士兵似乎有两种不同的感受。他们意识到,照顾一个没有情感的机器人是荒谬的,且机器人被设计成易耗品,但他们仍然倾向于在一定程度上去照顾这些机器人。

如果对于PackBot和Talon这样的机器人,士兵的态度已经是这样,那么对于类似Octavia的机器人他们又会是什么样的态度?后一种机器人能够观察、倾听和触摸,并猜测人类战友的心理。

给予机器人情感将带来伦理问题,但我们更倾向于关注技术创新对机器人本身的影响。《银翼杀手》和《西部世界》等电影电视关注人类如何以娱乐的心态对待机器人,给机器人造成创伤。不过,也有反面问题需要考虑:机器人对人类造成创伤,甚至带来死亡。

更复杂的是,如果类似Octavia的机器人最终感受到人类的情感,那么这些情感不可能仅仅是人工赋予的认知架构的一部分。如果机器人获得类似人类的情感,那么情感就会随着机器人与战友关系,以及周围环境的变化而变化。

例如,如果机器人的“一生”就是去火场里灭火,或是独自行走在沙漠里拆除爆炸装置,那么她的情感就会和那些受到保护的机器人,或受保护的人类不同。无论她脸上表达出的情绪是什么,如果在一个非人类的环境下“生活”,那么她的真实情绪将无法辨认。(编译/陈桦)

正文已结束,您可以按alt+4进行评论

0

精彩评论

暂无评论...
验证码 换一张
取 消