如果说好莱坞曾经给科学家们一个教训,那一定是机器人开始反抗它们的创造者——人类。尽管这样,机器人学家已经开始教机器人拒绝人类的命令了。他们已经编程了一对小型的类人机器人,名字叫谢弗和邓普斯特,如果人类的指令对它们自己有危险,它们就会违背命令。
相比那些会杀人的终结者机器人,这个试验的结果更像是威尔·史密斯主演的《我与机器人》中的那个会道歉的机器人索尼,但是它们都遵守重要的原则。
马塞诸塞州塔夫茨大学的工程师戈登·布里格斯和马特赫兹博士正试图创造出更能以人性化方式交流的机器人。在人工智能发展协会上发表的一篇论文中,两人说:“人类会因为各种各样的原因拒绝执行指令:从没有能力做到对道德的顾虑。” “鉴于自主系统的局限性,大多数指令排斥反应机制只需利用以前的理由——缺少知识或者能力。” “然而,随着自动自主主体的能力不断提升,将会有越来越多人对计算机伦理学或者自主主体行为的道德性领域感兴趣。”两人创造的机器人能够执行人的口头指令如“起立”和“请坐”。然而,如果命令他们走入障碍物或者走向桌子的边缘时,机器人会礼貌地拒绝。当要求机器人在桌子上向前走时,机器人会僵持,并告诉命令发出者:“对不起,前方没有路,我不能这么做。”再一次要求机器人时,它会说:“但这不安全。”当人告诉机器人在它们走在桌子边缘时,人们会接住机器人,那么机器人会非常信任人类然后继续向前走,这还相当令人感动。同样的,人们告诉机器人前方的障碍不是固体的时候,机器人也会无所畏惧地向前走。
为了实现这一效果,研究人员在机器人的软件程序中引入了推理机制,能让机器人评估环境并且判断这一指令是否会危及它们的安全。然而,他们两人的研究似乎违反了科幻作家艾萨克·阿斯莫夫制定的机器人法则,该法则规定机器人必须服从人类的命令。
许多人工智能专家认为,确保机器人遵守这些法则是十分重要的——这些法则还包括机器人永远不能伤害人类,并在不和其他法则相冲突的前提下保护自己。这项工作可能会引发担忧:如果人工智能使机器人能够违背人类的命令,那么它可能带来灾难性的后果。许多领袖人物,包括霍金教授和马斯克都已警告过人工智能可能会失控。另一些人警告说,机器人可能最终会取代许多工人的工作,有些人担心机器人将接管一切。
在电影《我与机器人》中,人工智能让机器人索尼突破了编程,违抗了人类的命令。而戈登·布里格斯和马特赫兹补充道:“为了能让这些推理和对话机制更加强大和全面化,我们还有很多工作要做。”
评论 {{userinfo.comments}}
{{child.content}}
{{question.question}}
提交