北京时间年3月14日,英国著名物理学家、宇宙学家史蒂芬·霍金逝世,享年76岁。
这位英国科学家因黑洞和相对性的开创性著作而闻名,被世人誉为“宇宙之王”。
霍金生前一直致力于探索人类发展的终极问题,以及AI发展的原则。他认为人工智能的全方位发展可能招致人类的灭亡。对此他在年2月与ElonMusk联手推出了23条原则,告诫AI发展的底线。呼吁全世界的人工智能领域从业者在发展AI的同时严格遵守这些原则,共同保障人类未来的利益和安全。
以下为年霍金参加中国GMIC北京大会时的视频演讲内容,让我们一起来回顾一下霍金的精彩观点。
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
人工智能的研究与开发正在迅速推进
也许我们所有人都应该暂停片刻,把我们的研究重点从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于至年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的
转载请注明:http://www.hujingahj.com/aqly/5156.html