史蒂芬·霍金:
未来我们会不会被机器控制?
《
青年参考
》(
2014年05月14日
38
版)
作者 史蒂芬·霍金,斯图亚特·拉塞尔,马克思·泰格马克,弗兰克·维尔切克 译者 李杭媛
随着好莱坞大片《超验骇客》的热映,约翰尼·德普和摩根·弗雷曼联手打造了人类未来冲突重重的图景。将高度智能化机器的概念从科幻小说带到现实生活,听起来挺诱人,但这也可能是一个错误,一个人类历史上潜在的最大错误。
近年来,人工智能研究发展突飞猛进。最近出现的诸如无人驾驶汽车、在智力竞赛中击败人类的电脑,以及个人数字助理Siri、Google Now和Cortana等一系列具有里程碑意义的事物,都不过是IT军备竞赛的征兆。
虽然潜在利益良多,但我们无法预知一旦这种智能被作为工具放大,会给人类带来什么福祉,也许每个人的清单上都会赫然列出这样几项:消除战争、疾病和贫穷。人工智能的出现将成为人类历史上最重大的事件。
不幸的是,这也可能是人类史上最后的事件,除非我们懂得如何规避风险。在短期内,全球军事界正在考虑研发一种能自动选择和消灭目标、具有自主性的武器系统。联合国及人权监察站已经签署条约禁止这种武器。在一段时期内,人工智能也许会大大改变我们的经济,既带来巨大的财富,也带来难以控制的混乱。
再往后看,人工智能的发展似乎没有无法逾越的局限。没有任何物理定律可以断言,不存在超越人类大脑智力的粒子组织形式。正如欧文·古德在1965年意识到的,拥有超人智能的机器会不断改进自身设计,触发约翰尼·德普扮演的电影角色所说的“超验”。
可以想象这样一种技术,比金融市场更聪明,比人类研究更富创意,比人类领袖更具领导力,发明出我们甚至都无法理解的武器。然而,人工智能的短期影响在于谁在掌控它,长期影响则在于是否能掌控它。
面对未来可能出现的无数利益和风险,专家们会想尽一切办法确保最好的结果?那你就错了。如果有更高等的外星文明给我们发短信说:“我们会在几十年内抵达地球。”人类难道只会回复“好的。到了给我们电话——我们给你留灯”吗?也许不会。但这可能是人工智能领域正在发生的事。
尽管我们正在经历着可能是人类历史上最好抑或是最坏的时代,却很少有研究认真严肃地致力于这样的议题,除了非盈利学术机构,例如剑桥大学的风险研究中心、人类未来研究中心、机器智能研究中心和未来生活研究中心。我们都该自问,现在要做什么才能尽可能地趋利避害。
英国《独立报》
作者 史蒂芬·霍金,斯图亚特·拉塞尔,马克思·泰格马克,弗兰克·维尔切克 译者 李杭媛
随着好莱坞大片《超验骇客》的热映,约翰尼·德普和摩根·弗雷曼联手打造了人类未来冲突重重的图景。将高度智能化机器的概念从科幻小说带到现实生活,听起来挺诱人,但这也可能是一个错误,一个人类历史上潜在的最大错误。
近年来,人工智能研究发展突飞猛进。最近出现的诸如无人驾驶汽车、在智力竞赛中击败人类的电脑,以及个人数字助理Siri、Google Now和Cortana等一系列具有里程碑意义的事物,都不过是IT军备竞赛的征兆。
虽然潜在利益良多,但我们无法预知一旦这种智能被作为工具放大,会给人类带来什么福祉,也许每个人的清单上都会赫然列出这样几项:消除战争、疾病和贫穷。人工智能的出现将成为人类历史上最重大的事件。
不幸的是,这也可能是人类史上最后的事件,除非我们懂得如何规避风险。在短期内,全球军事界正在考虑研发一种能自动选择和消灭目标、具有自主性的武器系统。联合国及人权监察站已经签署条约禁止这种武器。在一段时期内,人工智能也许会大大改变我们的经济,既带来巨大的财富,也带来难以控制的混乱。
再往后看,人工智能的发展似乎没有无法逾越的局限。没有任何物理定律可以断言,不存在超越人类大脑智力的粒子组织形式。正如欧文·古德在1965年意识到的,拥有超人智能的机器会不断改进自身设计,触发约翰尼·德普扮演的电影角色所说的“超验”。
可以想象这样一种技术,比金融市场更聪明,比人类研究更富创意,比人类领袖更具领导力,发明出我们甚至都无法理解的武器。然而,人工智能的短期影响在于谁在掌控它,长期影响则在于是否能掌控它。
面对未来可能出现的无数利益和风险,专家们会想尽一切办法确保最好的结果?那你就错了。如果有更高等的外星文明给我们发短信说:“我们会在几十年内抵达地球。”人类难道只会回复“好的。到了给我们电话——我们给你留灯”吗?也许不会。但这可能是人工智能领域正在发生的事。
尽管我们正在经历着可能是人类历史上最好抑或是最坏的时代,却很少有研究认真严肃地致力于这样的议题,除了非盈利学术机构,例如剑桥大学的风险研究中心、人类未来研究中心、机器智能研究中心和未来生活研究中心。我们都该自问,现在要做什么才能尽可能地趋利避害。
英国《独立报》