我们能控制比人类更聪明的机器吗

http://tjuj.com.cn/2019-05-14 19:30:50

我们能控制比人类更聪明的机器吗

?199IT数据中心微信账户:i199IT


如果人类将人工智能的研究继续下去,这将会给我们带来重大危害吗?许多科技领域的杰出人物公开表达了这种可能性:埃隆·马斯克将人工智能视为“召唤恶魔”;斯蒂芬·霍金警告说人工智能“可能导致人类灭亡”;比尔·盖茨同意马斯克的观点,站在了“担心者”的阵营。

他们所担心的是一旦人工智能被开启,它们就会逐渐承担越来越多的责任来管理我们这个奇妙的世界——它在初始设计的基础上始终保持改进——有什么措施来避免人工智能认为人类的存在是低效的,甚至是令人反感的?

就像马斯克所说,人工智能或许会处决掉我们,假如它认为摆脱垃圾邮件的最好方式就是将人类一起除掉的话。

毫无疑问,对某一趋势或技术的反乌托邦后果发出警示是有价值的。例如,乔治·奥威尔的《1984》就一直在警示技术或者被称作的“老大哥”(Big Brother)的机构。难道人工智能引发的焦虑是每一项应许美好未来的革新技术都命中注定的晦气:被指控为劫难的前兆?

这当然不是没有先例的。我们可以参考一下另外一种强大的技术——重组DNA,它当初也是被恐惧笼罩。

“一个能够自我完善的智能体(Agent)必须抽象的推导出比它更聪明的接班人的行为。如果他能详细预测接班人的行为的话,它就已经与它的接班人一样聪明了。”

1972年,斯坦福大学杰出的生物化学家保罗·伯格创造出了一条DNA链,其中包含一种疑似致癌症病毒的所有基因。他将这条DNA链与大肠杆菌基因进行了融合。这引发了轩然大波,但当研究者创造出了第一个重组DNA,表明任何有机体的DNA都能被克隆,并且被混合搭配以创造出新奇生命体时,外界的各种警告消失了。

哥伦比亚大学生物化学家欧文·查加夫(他的工作成果对于沃森和克里克发现双螺旋起到了不可估量的作用;译者注:他于1950年发现了两条“DNA语言”法则,也导致DNA双螺旋形结构被发现)向《科学》杂志的编辑发出了一封标题为“论干预基因的危害”的信。他强调“正在被策划的事拥有可怕的不可逆性。”他控诉道对于自然界已经维持了数百万年的秩序与稳定的玩弄行为是无耻到了极点。

最后他说道:“我们会受到未来的诅咒的。”几个月后,康奈尔大学的生物化学家列比·卡瓦列利将论战搬到了《纽约时报》上,他提到了如果重组DNA研究不及时被制止的话我们可以预期遭受的诸多灾难性的情况。

为了消减相关科学家的野心,卡瓦列利甚至建议“诺贝尔委员会宣布诺贝尔奖不会授予这个领域的研究。”查加夫和卡瓦列利代表了一帮希望看到重组DNA的使用(在近期的未来一段时间内)被禁止的研究人员。

鉴于重组DNA的研究将可能导致流行病产生,伯格呼吁在世界范围内停止此种实验,这促成了1975年在加州举行的Asilomar会议。与会者在重组DNA的议题上爆发了激烈的争论,只要针对DNA到底会带来疾病还是健康,即使在会间休息和餐后小叙时的短暂间歇里也讨论不休。

在会议的最后一天,会议同意研究可以继续进行,但有潜在危险的实验必须采取最为严格的限制措施。为了实现这些要求,空气循环和过滤系统要求被强制安装以预防某些携带病菌的粗颗粒物通过。

此外,为了进一步强化预防措施,受研究微生物将被要求基因弱化,让它们无法在实验室外生存。此类立法活动的继续促成了美国国立卫生研究院颁布的生物安全规范,此规范每十年内都会有数次更新,最近的一次更新是在2013年。

如果你是一位研究者并且想要进行重组DNA方面的实验,如果实验工作涉及克隆潜在致命DNA组或RNA组以及采用人类或动物病菌作为改造基因的载体等各种情况的话,你必须登记并获得安全委员会的批准。伯格后来说道,Asilomar会议允许研究在“亮着黄灯”的条件下小心的进行。

Asilomar会议两年后,美国国家科学院举办了后续会议来探讨重组DNA的各方面影响,这是研讨会上出现的对这项新技术的抗议。

虽有卡瓦列利的警告,但伯格和他的生物化学同事们还是获得了1980的诺贝尔奖。此后有不计其数的关于重组DNA的实验被实现,其中很多在1975年是难以想象的,而且并没有产生任何有害的后果。

最终证明那些著名的为此担忧过的反对者站在了历史的错误一端。靠着一直并且还将保持的谨小慎微的态度,生物学家们成功的预防了查加夫和卡瓦列利所预言的厄运。

但生物安全防御的小疏漏还是会偶尔发生。比如,就在去年,位于国家卫生研究院核心区的美国食品和药物管理局(FDA)实验室发现了一些隐蔽的含有天花病毒的旧药水瓶,它们被不安全地保管在标着“1954 “的纸板箱中。

在一个月前,美国疾病控制中心的负责人披露,实验室工作人员对被证明是活性炭疽脓疱的操作和存储闪烁其词,还疏忽地把致命的H5N1流感和良性的病毒株混合在一起运输到另一个实验室。

波士顿大学的医学教授黛博拉·科顿写道,这种专业精神的缺失伤害了人们的信任。她建议高风险的实验应该暂停,直到这些种种错误能被稳妥的预防。因为人类和组织机构的本性,再费尽心血的预防措施总会有所疏漏。

根据生物安全方面的经验,我们有能力阻止具有超常智慧的人工智能欺骗和威胁我们吗?如果有的话,其重要来源之一将可能是我们正在不懈努力完成的创造并维持一个“友好的人工智能”。

内特·苏亚雷斯之前在微软和谷歌专攻这一领域,现在是机器智能研究院的研究员。在他最近的论文《学习价值问题》中,他着重强调,艾瑞莎·弗兰克林的话还远远不够,她说“放尊重点。搞清楚它对我意味着什么。”

这真的是不够的,换句话说,要一个人工智能知晓什么是道德的行为的话:它必须自己也要偏好这种行为。但是,如每个家长知道的,灌输给一个孩子这些可能让你发疯。

然而,因为孩子没学到道德行为时可能还没有能力真正制造危险,所以这恼人的情形还可被容忍。可超级智能的情况就不一样了。

苏亚雷斯写到:“考虑到风险的巨大以及编写无漏洞(bug-free)软件的困难,当构建超级智能系统时,必须采取任何可用的预防措施。”

苏亚雷斯还说,关键是我们不要等到科技到来时才开始考虑预防措施,即使我们的指导方针是模糊且抽象的,总比没有的好。

“如果这是制造航空器的时间表的话,我们还处于只有几个发明家刚会捣弄扑翼装置的阶段。”

一种预防措施是基于这样的假设:并不是人类直接创造了超级智能,而是我们创造与人类水平相当的人工智能,它不断改善自身的设计,让自己远比人类能构造的任何东西更巧妙。

因此我们的挑战是,在人工智能会很有智慧的改善自身智能的情况下,如何确保它能坚守我们的道德价值,即便是当它在改变自己的“大脑”结构时。如果你看到了这其中潜在的矛盾,你是对的。它类似于尝试去想象如果你比实际的自己更聪明,你在困境中会怎么做。

这就是为什么“一个自我提升的智能体(Agent)必须在抽象的层面推理更聪明的继任者的行为,”苏亚雷斯解释说,“如果可以详细地预测他们的行为,那就已经和他们一样聪明了。”

目前,苏亚雷斯认为我们还远找不到恰当的理论来解释超过我们的智能是怎样思考的,他强调的重要障碍之一是给人工智能的自信程度编写程序,考虑到我们永远不可能给这类决定的优劣做出数学证明般准确的判断时。

程序如果有太多的困惑,它就永不会决定怎样有效的去修改自己;而程序如果过于自信,它就会执行糟糕的决定而不是去寻找更好的。要设计出一个平衡的系统而不至于掉入近乎瘫痪的缺乏自信或近乎傲慢的自负的陷阱,其复杂程度是惊人的。

而让人工智能自己去解决这个问题几乎是不可能的,因为这要求我们对理论性的问题有比我们现在达到的更深的理解。甚至去尝试这么做都是不明智的,因为一个超级人工智能可能推断出欺骗我们符合它自己的利益。

苏亚雷斯写道,这就是为什么先搞清楚如何让机器具备道德感“事关重大”,这甚至要早于让它们具备自我修改能力,“尽管我们已经有所有其他预防措施来防止灾难发生,能让我们成功的是机器对于我们价值观的学习。”

但对其他一些人工智能研究者而言,预防措施完全不必要,是无稽之谈。理查德·鲁斯摩尔在为伦理学和新兴技术研究所的撰文中写道:“这些末日景象在基本层面上存在着逻辑上的颠三倒四,它们极度难以置信轻易就能被驳斥。”

他特别指称机器智能研究所是信口雌黄的偏执狂。鲁斯摩尔写道他们的限制会“使得人工智能如此不稳定以至于永远无法达到可能成为威胁的智力水平”。

这场争端中可以得出的一个洞见可能是,这项科技依旧太遥远,以至于现在得不出什么有说服力的结论。正如鲁斯摩尔宣称的那样:“如果这是航空的时间轴而不是人工智能的时间轴,我们才刚刚发展到一些发明家摆弄扑翼的阶段。”但另一方面,超智能的发展可能是“事后追悔不如事前稳妥”的典型例证。


机器之心

微信号:jiqizhixin2014


男人的“罩杯”

我们能控制比人类更聪明的机器吗

点击文末“ 阅读原文 ”访问“全网最棒的大数据导航”


『 WeMedia 』自媒体联盟覆盖千万人群,『199IT-互联网数据中心』为其成员。( 账户:i199IT )


相关阅读:
神途 https://www.2tx.com
分享到: