人工智能技术赋予未来的武器装备自主决策和自主作战的潜能,这引起了民众对“杀手机器人”背叛人类的恐惧。为安抚公众,美国军方近来多次表态说,将为人工智能技术的实战化应用设置更明确、更严格的“门槛”,确保它们不会削弱人类对军事行动的主导权。
据美国“商业内幕”网站消息,前不久,美国国防部修订了一项实施了10年的政策,承诺在武器装备的研发和生产阶段引入更多审查措施,让公众相信美军“不会在地下室里悄悄制造杀手机器人”。美媒称,随着人工智能与军事技术加速融合,“拥有自主作战能力”被各国视为下一代武器装备的重要特征;相应地,要求加强监管的呼声也在持续增长。
五角大楼发布的文件显示,新政策中最大的变化要数增加了“高级审查条款”,要求“自主武器系统,即具备自主和半自主操作模式的武器系统”在启动研发前和投入使用前,必须经过多位高级官员核准。根据负责军队发展和新兴能力的美国助理防长迈克尔·C·霍洛维茨的说法,新增补的条款有助于消除外界对人工智能及其军事化前景的一些困惑。
今年1月初,在美国“战略与国际研究中心”主办的一次研讨会上,霍洛维茨表示,这次政策修订“主要是为了实施更有效的治理”。他解释说,新政出台前,美国军方处于两难境地:一方面,很多社会团体相信,五角大楼试图滥用人工智能技术;另一方面,在美军内部,一些人误以为开发具有自主性的武器系统是绝对的禁区。换言之,新政为人工智能的军事应用划定了明确的界限,“我们鼓励人工智能在未来的军队中占有一席之地”。
霍洛维茨举例说,假如有一项“保护军事基地免遭大量导弹袭击”的新技术,那么按照最新的政策,这项技术必须在通过常规的测试和评估后附加特殊审查流程,国防部副部长和参联会副主席级别的官员直接参与审查,体现了审慎态度与专业主义的结合。
“商业内幕”就此评论称,美国国防部的举措表明,美军对人工智能武器的兴趣越来越大。去年8月,美国助理防长凯瑟琳·希克斯宣布,五角大楼希望“在未来18至24个月内,在多个领域,以数以千计的规模部署分布式自主作战系统”。
正如俄乌冲突展现的那样,随着无人机这类武器的威胁日益凸显,各国希望通过电子战等手段切断操作员与无人机的联系,这就对无人机的自主运作能力提出了要求。军事大国争相研发无人战机、无人军舰等更复杂的武器系统时,诸如“人类对智能武器的干预应该达到什么程度”“是否允许无人武器在失去控制时继续追杀目标”之类的议题已经超出了军事技术范畴,而且会在相当程度上决定下一场战争将以何种形式登场。
去年10月新一轮巴以冲突爆发后,英国《卫报》等媒体披露,以色列军方依靠人工智能搜索可疑人员、制订空袭计划。冲突双方大量平民伤亡的现实,加剧了公众对“人工智能在未获得人类授权的情况下随意毁灭生命”的担忧。美国《纽约时报》报道说,美国、俄罗斯、澳大利亚和以色列认为没有必要制定新的国际法规,其他一些国家则希望以联合国为平台,建立约束人工智能武器的多边框架。正如巴基斯坦常驻联合国代表所言,“自满不再是合理的选项……在(人工智能)技术突破的前夜,我们采取行动的机会之窗正在迅速缩小”。
责任编辑:张昊天
综合编译 张俊