生意场 > 高端访谈 > 新浪科技独家专访霍金:让人工智能造福人类世界

新浪科技独家专访霍金:让人工智能造福人类世界

生意场 2017-04-28 09:04:16 来源:新浪科技

  虽然史蒂夫-霍金开设了微博,但对大部分中国人来说,能与他直接交流的机会还是非常罕见。毕竟,我们多是从编译的外媒报道中,窥见这位科学巨擘思想的一二,而中文媒体的专访更是寥寥无几。

  新浪科技联合长城会发起了“科学复兴对话霍金”的活动,获得与霍金面谈的机会,短短一周时间内,超过700万网友浏览讨论了该活动。我们也最终收集到了上万条对霍金提出的问题,与长城会创始人文厨远赴剑桥面见了这位当今世界最伟大的物理学家、宇宙学家,霍金讲述了人工智能可能带给人类的变化及其对人生的态度。

  霍金近几年对人工智能十分关注,多次发表对人工智能发展的看法。在今天开幕的GMIC 2017北京大会上,霍金发表演讲称:“强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。对于好坏我们仍无法确定,现在人类只能竭尽所能,确保其未来发展对人类和环境有利,人类别无选择。”

  人工智能的研究与开发现在正以极快的速度迅速推进,霍金称:“也许我们所有人都应该暂停片刻,把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。”基于这样的考虑,美国人工智能协会(AAAI)于2008至2009年,成立了人工智能长期未来总筹委员会(Presidential Panel on Long-Term AI Futures),他们近期在目的导向的中性技术上投入了大量的关注,确保人工智能系统须要按照人类的意志工作。

  霍金提及聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。他称:“文明所提产生的一切都是人类智能的产物,我相信生物大脑可以达到的和计算机可以达到的,没有本质区别。因此,它遵循了‘计算机在理论上可以模仿人类智能,然后超越’这一原则。但我们并不确定,所以我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。”

  演讲中,霍金特别提到了,2015年1月,霍金与和SpaceX太空探索技术公司和特斯拉CEO埃隆-马斯克等其他人工智能专家签署的一份关于人工智能的公开信,目的提倡就人工智能对社会所造成的影响做认真的调研。在这之前,埃隆-马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。霍金称这份公开信号召展开可以阻止潜在问题的直接研究,同时也收获人工智能带给人类的潜在利益,致力于让人工智能的研发人员更关注人工智能安全。

霍金办公室的一角

霍金办公室的一角

  在过去的20年里,人工智能一直专注于围绕建设智能代理所产生的问题,也就是在特定环境下可以感知并行动的各种系统。在这种情况下,智能是一个与统计学和经济学相关的理性概念。通俗地讲,这是一种做出好的决定、计划和推论的能力。基于这些工作,大量的整合和交叉孕育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的建立,结合数据的供应和处理能力,在各种细分的领域取得了显著的成功。例如语音识别、图像分类、自动驾驶、机器翻译、步态运动和问答系统。

  霍金解释:“随着这些领域的发展,从实验室研究到有经济价值的技术形成良性循环。哪怕很小的性能改进,都会带来巨大的经济效益,进而鼓励更长期、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在稳步发展,而它对社会的影响很可能扩大,潜在的好处是巨大的,既然文明所产生的一切,都是人类智能的产物;我们无法预测我们可能取得什么成果,当这种智能是被人工智能工具放大过的。但是,正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何(从人工智能)获益并规避风险是非常重要的。”

  人工智能的迅速发展,霍金称对短期的担忧在无人驾驶方面、智能的致命性自主武器、由人工智逐渐可以解读大量监控数据而引起对隐私的担忧以及如何管理因人工智能取代工作岗位带来的经济影响,而长期的担忧则是对人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,强大的系统是否会威胁到人类。霍金担忧当前控制人工智能技术的工具,例如强化学习,还不足以解决上述问题。因此,人类需要进一步研究来找到和确认一个可靠的解决办法来掌控这些问题。

  霍金曾称人工智能的全方位发展可能招致人类的灭亡,今年早些时候,还和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的禁令,因为他觉得作为科学家,对核武器承担着特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预想的更加可怕。而对于人工智能,霍金同样觉得可能是人类文明史的终结,除非人类学会如何避免危险。

  对于灾难的探讨并非危言耸听,霍金希望人类要认清自己在影响当前技术的未来研发中的位置,呼吁国际条约的支持或者签署呈交给各国政府的公开信,希望科技领袖和科学家极尽所能避免不可控的人工智能的崛起。

  一个事物的好坏都有两面性,霍金表达完对人工智能的担心后,也表示人工智能的成功同样也可能是人类文明史上最大的事件,他称:“当人类的头脑被人工智能放大以后,也许在这种新技术革命的辅助下可以解决一些工业化对自然界造成的损害。关乎到我们生活的各个方面都即将被改变。”为此霍金去年在英国剑桥建立了一个新的机构“利弗休姆智能未来中心”,试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。

  演讲最后,霍金称人类还应该扮演一个角色,确保下一代不仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的世界,“我们需要跳出‘事情应该如何’这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人兴奋的、同时充满了不确定性的世界,而你们是先行者。我祝福你们。”

  以下为霍金回答中国网友与科技大咖、科学家、投资家的问题实录:

  创新工场的CEO李开复提问:互联网巨头拥有巨量的数据,而这些数据会给他们各种以用户隐私和利益换取暴利的机会。在巨大的利益诱惑下,他们是无法自律的。而且,这种行为也会导致小公司和创业者更难创新。您常谈到如何约束人工智能,但更难的是如何约束人本身。您认为我们应该如何约束这些巨头?

  霍金:据我了解,许多公司仅将这些数据用于统计分析,但任何涉及到私人信息的使用都应该被禁止。会有助于隐私保护的是,如果互联网上所有的信息,均通过基于量子技术加密,这样互联网公司在一定时间内便无法破解。但安全服务会反对这个做法。

  猎豹移动CEO傅盛提问:灵魂会不会是量子的一种存在形态?或者是高维空间里的另一个表现?

  霍金:我认为近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。这点上我和我的同事罗杰-彭罗斯正好相反。会有人认为电脑有灵魂吗?对我而言,灵魂这个说法是一个基督教的概念,它和来世联系在一起。我认为这是一个童话故事。

  百度总裁张亚勤提问:人类观察和抽象世界的方式不断演进,从早期的观察和估算,到牛顿定律和爱因斯坦方程式,到今天数据驱动的计算和人工智能,下一个是什么?

  霍金:我们需要一个新的量子理论,将重力和其他自然界的其它力量整合在一起。许多人声称这是弦理论,但我对此表示怀疑,目前唯一的推测是,时空有十个维度。

  斯坦福大学物理学教授张首晟提问:如果让你告诉外星人我们人类取得的最高成就,写在一张明信片的背面,您会写什么?

  霍金:告诉外星人关于美,或者任何可能代表最高艺术成就的艺术形式都是无益的,因为这是人类特有的。我会告诉他们哥德尔不完备定理和费马大定理。这才是外星人能够理解的事情。

  长城会创始人文厨提问:我们希望提倡科学精神,贯穿GMIC全球九站,请您推荐三本书,让科技界的朋友们更好的理解科学及科学的未来。

  霍金:他们应该去写书而不是读书。只有当一个人关于某件事能写出一本书,才代表他完全理解了这件事。

  中国网友提问:您认为一个人一生中最应当做的一件事和最不应当做的一件事是什么?

  霍金:我们绝不应当放弃,我们都应当尽可能多的去理解这个世界。

  中国网友提问:人类在漫漫的历史长河中,重复着一次又一次的革命与运动。从石器、蒸汽、电气……您认为下一次的革命会是由什么驱动的?

  霍金:我认为是计算机科学的发展,包括人工智能和量子计算。科技已经成为我们生活中重要的一部分,但未来几十年里,它会逐渐渗透到社会的每一个方面,为我们提供智能的支持和建议,在医疗、工作、教育和科技等众多领域。但是我们必须要确保是我们来掌控人工智能,而非它(掌控)我们。

  音乐人、投资者胡海泉提问:如果星际移民技术的成熟窗口期迟到,有没有完全解决不了的内发灾难导致人类灭绝?抛开陨星撞地球这样的外来灾难。

  霍金:是的。人口过剩、疾病、战争、饥荒、气候变化和水资源匮乏,人类有能力解决这些危机。但很可惜,这些危机还严重威胁着我们在地球上的生存,这些危机都是可以解决的,但目前还没有。

2
+1
1
+1
相关报道
文章关键字: 霍金 人工智能
版权与免责声明
1、凡本网注明"来源:生意场"的所有作品,版权均属于生意场所有,任何媒体、网站或个人在转载使用时请注明"来源:生意场"。
2、凡本网注明"来源:XXX(非本网站)"的作品,均转载自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、本网刊载之所有信息,仅供投资者参考,并不构成投资建议,投资者据此操作,风险自担。
4、如本网刊载之信息涉及版权等问题,敬请通知我们,我们将在第一时间予以更改或删除。
 

关注生意场微信公众号