随着人工智能的发展,机器人越来越多的出现在人们的生活之中,在可预见的未来,你可能会面临这样的情况:早上收到机器人快递小哥送来的快递,中午去餐厅吃饭,而厨师是一位机器人,晚上回家,孩子正在开心的和机器人玩耍。但是,当机器人越来越像“人”了,是不是也该遵守人类社会的道德规范呢?
艾萨克·阿西莫夫曾在科幻小说中描述过规范机器人行为的三定律,包括不能伤害人类、服从人类命令和保护自己。但在现实生活中,情况往往更加复杂,这样的三定律并不完善。
近日,英国标准协会正式发布一套机器人伦理指南,全称是《机器人和机器系统的伦理设计和应用指南》(以下简称《指南》),《指南》对机器人的行为做了更加复杂和成熟的规范。里面描绘的场景,就像是身在科幻世界一样,不由得让人产生一种科幻与现实交织的错觉。这个标准的文件代号为BS8611,在9月15日英国牛津郡的“社会机器人和AI”大会上发布,是业界第一个关于机器人伦理设计的公开标准。
先来看看《指南》中到底写了哪些内容?《指南》首先给出了一个广泛的原则:机器人的额设计目的不应是专门或主要用来杀死或伤害人类;人类是负责人的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。这个原则与之前美国对急速激增的无人机规定类似,毕竟机器的操控者是人,通过明确责任可以规避一定的危险。
对于性别和种族歧视,《指南》中也有提及。由于深度学习系统很多都是使用互联网上的数据进行训练,而这些本身就带有偏见的数据,很可能会“教坏”机器人。机器人的偏见会直接影响其技术应用,它会更深入学习某些群体,而很容易忽视另一些群体。
目前机器人的偏见已有体现,比如声音识别系统对女性的理解要弱一些,容易识别白种人的脸但很难识别黑人的脸等等。如果是医疗机器人出现这样的问题,后果会更加严重,机器人很可能在诊断这部分人群的时候专业程度有所降低。
此外,《指南》也阐述了一些有争议性的话题,比如,人可以和机器人产生情感联系吗?在电影《我的女友是机器人》中的浪漫恋爱在现实中似乎是不可能的,谢菲尔德大学教授Noel Sharkey表示,机器人是没有感情的,人类之所以会感觉机器人有感情,是机器人在无意中欺骗了人类。最近一项研究中,把小机器人放在幼儿园里,孩子们非常喜爱,并会认为机器人比家里的宠物有更高的感知能力。
英国标准协会在世界范围内具有很高的权威性,有着100多年的历史。此次发布机器人伦理指南在一定程度上也反映了机器人产业的快速发展,以及面对机器人,人们所产生的焦虑和担忧。
评论 {{userinfo.comments}}
{{child.content}}
{{question.question}}
提交