虎鲸

霍金最新观点核武器是最大的威胁人工智能


号称“地表最强大脑”的物理学家、剑桥大学教授斯蒂芬·威廉·霍金日前在北京的公开视频演讲中指出,人工智能也可能是人类文明的终结者,人工智能的利弊尚无法定论,对人工智能社会效益的研究应该优先于技术的研究。核武器是当下最大的威胁,科学家与企业家需要认清在技术研发中的位置,当务之急要研究如何规避人工智能的风险,极尽所能避免不可控的人工智能崛起。

以下为霍金演讲全文:

斯蒂芬·威廉·霍金

物理学家、剑桥大学教授

人工智能的利弊尚无法定论,对人工智能社会效益的研究应该优先于技术的研究

在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。

人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重点从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于至年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的







































北京治疗白癜风医院哪家最好
治疗白斑医院



转载请注明:http://www.hujingahj.com/aqms/1082.html


当前时间: