美国五角大楼希望10年后用机器人取代1/3的战车和军人,因为机器人比普通士兵更适应战场的需求,即便杀人也不会有负罪感,军方不必给它的亲属发慰问信。即便如此,机器人失控的危险仍然是美军的噩梦。据英国《卫报》1月1日消息,在美国陆军的支持下,佐治亚州理工学院正在设计让机器人在战斗中遵守基本道德准则的程序。有消息称,具有自主判断能力的机器战士,将在未来20年内登场。
给无人机装“道德适配器”
负责这项研究的罗纳德·阿金博士正在制订一套机器人专属的交战规则,以确保它们能根据道德准则适当行使武力。换句话说,阿金正在努力创造一种“人工道德意识”。他认为,让机器人上战场有一个隐蔽的优点,那就是它们的举动可能比人类更有理性——普通士兵可能会受到战场压力的影响而发狂,外部环境却不会影响机器人的判断。
阿金采取的方法是,设计一种被称为“潜在行动的多维数学决策空间”的软件程序。他与同事帕特里克·乌拉姆提交的报告称,这套融合了人类悔恨、同情、内疚等情绪的程序安装到机器人身上后,就能扮演“道德适配器”的角色,可根据传感器接收到的数据和情报,把机器人所有可能的行动分为“道德的”和“不道德的”两种,并根据需要选择适当的武器系统。机器人在使用大威力武器前必须经过“道德适配器”的审核,只有当使用武器的“负罪感”低于标准值才可行动。
阿金举了一个例子:美军打击恐怖分子时常用的无人驾驶飞机通常携带精确制导炸弹,“海尔法”导弹和链式机枪。当无人机准备打击某个目标时,若其自带的“道德适配器”觉察到投掷炸弹可能导致平民伤亡,便会及时做出“有罪”的判定,相应武器会被停用;如无人机下一步仍打算发射威力更大的“海尔法”导弹,“道德适配器”将发出更强烈的“有罪”提示,此时由于“有罪”提示超出最大允许量,无人机的整个武器系统将失效。
阿金团队的指导思想,与上世纪50年代科幻作家阿西莫夫提出的“机器人三定律”有相似之处。但阿西莫夫提出的规则是为了防止机器人在任何情况下伤害人类,阿金的发明则是为了确保机器人不在不道德的情况下杀人。
战争机器人可能更无情
事实上,美国从来就有人倡导“用技术取代流血”战争思想,美国人的聪明才智一直被用于设计更有效的杀敌和自保方式。有人预测,用不了20年,机器人甚至能从根本上改变战争的残酷面貌,种族屠杀乃至常规战争都将因“机器人维和部队”的干预而消失。
当然,也有很多人对未来并不乐观。美国学者H·G·韦尔斯就是“机器人战争”的坚定反对者。在他看来,机器人的知识面广泛却冷酷无情,“它们与人类的思维差距,就像人类与野兽之间的差距那样大,有可能产生希特勒那样的种族灭绝情绪”。
韦尔斯还援引历史学家S·马歇尔1947年出版的《不愿开火的人》一书的观点称,大多数真人士兵不会向敌人射击,有些人甚至不敢开枪,剩下的也只是向敌人的大致方向倾泻子弹,只有约1%的人会带着杀意瞄准对方开火,但他们多是精锐的狙击手。而战争机器人全是“狙击手”,它们瞄准的精确度是人类无法比拟的,而且开火时毫不犹豫。机器人一旦上战场,对人类来说就意味着九死一生,无形中将使战争变得更加无情。
对于阿金团队开发“道德型机器人”,韦尔斯认为此举的动机是令人钦佩的,但即使道德准则可以编入控制程序,仍难以回避某些预料不到的风险。虽然一个非常理智的机器人面对战场上的混乱状况可以不为所动,但它还是可能犯错误,毕竟侦察和情报资料时常有误,战场上的实际情况也瞬息万变,不仅对人类,对机器人来说同样是极难克服的。
今年第一季度,北京连续出现重度雾霾天气,越来越多的中国人因雾霾移居海外。[全文>>]
自信、自我、自由、乐观并且欢迎改变,疏离宗教、政治和社会,自恋而乐观。[全文>>]
13日,中国人民银行以保证金融安全为由,叫停了阿里巴巴和腾讯11日刚刚宣布推出的虚拟信用卡。[全文>>]
中国银监会宣布,包括阿里巴巴、腾讯在内的10家公司,已被选定参与投资中国首批5家民营银行。[全文>>]
许多人认为雷达无所不能。令他们惊讶的是,依靠这项技术至今也找不到消失的MH370航班。[全文>>]
一些票务公司和个人为了与“黄牛”作斗争,无奈之下也得“以牙还牙”,外挂大战愈演愈烈。[全文>>]