当军事打击目标和平民隐藏在同一座房子里,无人飞行器该向其开火吗?将来有一天,我们的生活需要依赖智能机器人的服务,那时,“机器人伦理”将是一个不容回避的重要问题。
在经典科幻冒险电影《2001太空漫游》中,控制飞船的电脑“HAL”需要作出一个两难的选择。它收到指令,必须完成调查木星附近人造天体的任务,但同时,任务的真实目的不能令宇航员知晓。面对这个矛盾,HAL的解决方式是杀死所有船员。
随着机器人不断获得更高智能、向自动化迈进,由计算机控制的机器面临一个日益迫切的问题:伦理。过去只存在于科幻领域的困境,如今真实摆在我们面前。社会需要找出更好的方法,确保它们做出的判断比HAL更好。
军方走在智能机器人的前列,这一点都不令人奇怪。由此派生出的机器人种类已经十分丰富。比如能一边跳出窗户、跃上房顶,一边连续拍摄影像的沙蚤机器人;比如拥有6条腿、能像蟑螂一样在墙上爬行的RiSE机器人;再比如能负重180公斤、跟着人在崎岖道路上小跑的类犬机器人LS3。此外,还有能在人群中识别特定目标并实行跟踪的机器人SUGV,它体型只有旅行箱那么大。现在的无人飞行器也是多种多样,有的比一枚戒指重不了多少,也有的能携带2.7吨炸药。
从飞机驾驶舱到手术室,民用机器人也开始大展身手,客机、火车无人驾驶也能安全停靠。在交通拥堵路段,沃尔沃的新车V40可以自动驾驶,判断将发生碰撞时还会自动刹车。更多的自动驾驶汽车正在从实验场地开出来,美国内华达州批准自动驾驶汽车上了公共道路,并给这类车开了专用道。
机器人们越来越智能化,并且变得普遍,将来,它们势必要在危急环境下自主做出重大决定,而它们下决定的依据就是伦理。
当军事打击目标和平民隐藏在同一座房子里,无人飞行器该向其开火吗?如果躲避行人的代价是撞上其他汽车,或危害到坐在车里的车主,自动驾驶汽车该如何选择?机器人发现了灾难,但放出消息可能引起恐慌,这时机器人该告诉民众实情吗?
所有这些疑问,都直指同一个根源——如何树立机器人的伦理标准,也就是如何判断“对错”,由此作出恰当的选择。
面对这个问题,有一些人的态度是完全回避,根本不会把方向盘交到机器人手中。像“国际机器臂控制委员会”这样的组织,就十分反对大量使用无人飞行器。但目前看来,使用机器人的好处远多于弊端。机械士兵不会去强奸,不会受愤怒驱使去焚烧村落,也不会因战争压力而失去条理。
正因如此,社会需要的是设法尽快解决机器人伦理问题。世间最著名的相关伦理法则,是科幻小说家艾萨克·阿西莫夫上世纪40年代提出的著名虚构学说“机器人三定律”。它的内容是:
第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:机器人必须服从人类的一切命令,除非违背第一法则;
第三法则:在不违背第一及第二法则的前提下,机器人必须保护自己。
这三大法则之间互相约束,有重大指导意义。可惜的是,它在真实世界中无法套用,因为单是机械士兵的存在就违背了第一条法则。
现实世界中的情况远比小说要复杂。当无人飞行器或自动驾驶汽车造成了事故,其设计者、编程者、生产者和操作者是否负有责任?为了界定责任,不仅要有详细的法律,计算机还要保有详细记录,这样才能解释它们所作所为背后的缘由。
并且,为机器人植入的伦理必须符合大部分人的标准,也就是“对大多数人来说都是好的”。为此需要研究人类面对伦理困境的反应。最后,也是最重要的,工程师、伦理学家、律师和政策制定者需要密切合作来制定标准。因为如果让他们各自遵从自己的立场出发,结果会是每个人定下的标准都不相同。结合各个专业领域,才能从合作中受益。
科技带动了人类的进步,但是每向前迈出一步,我们都会发现面前出现新的问题。自动机器人也是如此。越快解决它们面临的伦理问题,我们就能越早、越放心地享受它们提供的服务。
英国《经济学家》杂志
文 珠然


上一版






缩小
全文复制
