虎鲸

霍金临终惊世预言人工智能毁灭人类,超人将


霍金临终前的最后一本书《宇宙大问题简答》明天即将出版,书中霍金毫不留情的抨击了人工智能可能带来的威胁,并预言了年之内,地球的毁灭和基因改善后的超级人类殖民其他星球。

人工智能

霍金对人工智能管理的重要性发出严重警告,并指出“未来人工智能可以发展自主的意志,这种意志与我们的意愿相冲突。”应该停止对自主武器的军备竞赛。他写到,如果发生类似于年股票市场的大崩溃与武器发生碰撞会发生什么。他继续:

简而言之,超智能人工智能的出现将是人类有史以来最好或最坏的事情。人工智能的真正风险不是恶意,而是能力。超级聪明的AI将非常善于实现其目标,如果这些目标与我们的目标不一致,我们就会陷入困境。你可能不是一个邪恶的憎恨蚂蚁的人,你会无意踩到蚂蚁,并非出于恶意,但如果你负责一个水电绿色能源项目,并且该地区有一个蚁丘必须被洪水淹没,对蚂蚁来说太糟糕了。我们不要将人类置于那些蚂蚁的位置。

即将“见上帝”的霍金,则并不相信上帝。

地球的毁灭,基因编辑和超人

坏消息:在接下来的年的某个时刻,核战争或环境灾难将“削弱地球。”然而,到那时,“我们聪明的种族将找到一种方法来消除地球的羁绊,并因此生存下来,但是,“地球的其他物种可能不会成功。”

逃离地球的人可能是新的“超人”,他们使用像CRISPR这样的基因编辑技术来超越其他人。他说,他们将通过违反基因工程法律,改善记忆力,抗病能力和预期寿命来做到这一点。

霍金似乎对这最后一点充满了热情,写道:“没有时间等待达尔文的进化让我们更聪明,更善良。”

一旦这样的超人出现,未经改善的人类将面临重大的政治问题,他们将无法参与竞争。据推测,他们会绝灭,或变得不重要。相反,会有一群自我设计的生物以不断增长的速度提高自己。如果人类设法重新设计自己,它可能会扩散并殖民其他星球和恒星。

外星智能生命

霍金承认,为什么还没有找到外星人,或外星人类还没有访问地球有各种解释。他在这里的预测并不那么大胆,但他首选的解释是,人类可能“忽略”了其他智能生命的存在形式。

上帝存在吗?

不,霍金说。

问题是,宇宙是出于我们无法理解的原因而被上帝选择的?,还是由科学定律决定的?我相信第二个。如果你愿意,你可以称科学的法则为“上帝”,但你不会遇到人形的上帝并向他提出问题。

对地球的最大威胁

第一个威胁是小行星撞击,就像灭绝恐龙的那个。霍金写道,“我们无法防御”。更直接的是:气候变化。霍金写道:“海洋温度的升高会使冰盖融化并导致释放大量二氧化碳。”“这两种效应都可以让我们的气候像金星那样温度达到摄氏度。”

人类可应对的最好办法

核聚变能力。这将为我们提供清洁能源,没有污染或全球变暖。

无需打赏,防失联,转发并长按


转载请注明:http://www.hujingahj.com/aqly/5308.html


当前时间: