(KabirChibber/文)年,罗伯特·奥本海默(RobertOppenheimer)的一位同事向他提出了一个令人不安的想法:如果曼哈顿计划成功了,他们真的造出了世界上第一枚原子弹,这枚原子弹的爆炸很可能会把整个天空点燃。奥本海默大受触动,并在私下把这一点透露给了亚瑟·康普顿(ArthurCompton),曼哈顿计划的元老之一。根据奥本海默的传记,康普顿惊恐地回答道:
“原子弹真的有可能会让大气层中的氮气,或者海洋中的氢元素爆炸吗?这会是人类的终极灾难。比起冒险让人类彻底告别地球,还不如对纳粹投降呢!”
康普顿告诉奥本海默:“除非能切实可信地证明我们的原子弹不会把空气或是大海炸掉,否则绝不能把这个炸弹造出来。”于是,曼哈顿计划的团队成员们进行了一系列计算,并认为他们的计算结果证实了“小工具”——原子弹在当时的代号——是安全的。工作了继续下去。但是,在5年7月16日,新墨西哥州三位一体试验的那一天,在场的一位科学家还是与同事就“炸弹会不会把大气层点燃,如果会,那它是只会把新墨西哥州炸掉还是毁灭全世界”打了个赌。幸运的是,都没有。
也不能说是因为幸运。因为奥本海默——天才的理论物理学家——以及他的团队是做了功课的,他们明白自己在做些什么。在他的风险评估工作中,奥本海默无意中建立了一个新的学科:生存风险。
三位一体试验的70年后,依然有人在进行着这样的风险评估——而且与先前一样,大众仍不知晓它的存在。在英美两国的多家学术机构,曼哈顿计划的精神后裔们默默无闻地辛勤工作着。他们人数不多,也不再造炸弹了;他们来自各个学科——现在还包括哲学,以及科学的各个领域;他们的目标正是阻止人类毁灭自己。
人类未来中心的安德鲁·斯奈德-比蒂
什么样的东西对未来是重要的?
“我们特别吸引怪人,”安德鲁·斯奈德-比蒂(AndrewSnyder-Beattie)说。”我从早到晚都能收到奇怪的邮件。”什么样的怪人?”那些对物理学自有一套理论的人。”
斯奈德-比蒂是人类未来中心(FutureofHumanInstitute)的项目经理。人类未来中心隶属于牛津大学马丁学院——一个由牛津大学年历史上数量最大的单笔捐款的捐赠人詹姆斯·马丁(JamesMartin)出资设立,致力于解决全人类面临的最重要的问题的学院。人类未来中心的主管是因为推广人工智能的风险而闻名于世的瑞典哲学家尼克·博斯特罗(NickBostrom)。他曾在一篇论文中指出,研究粪金龟和星际迷航的论文比研究人类灭绝的多多了。人类未来中心正准备改变这一点。
人类未来中心坐落于一栋朴实的办公楼的一楼,紧邻着“有效利他主义中心”。大厅里——如果进门的地方算得上大厅的话——有一块多面的白板,上面写满了笔记、图表,还有一篇纪念去世于年的捐赠人詹姆斯·马丁的短文。我最近一次造访他们的办公室的时候,白板上画着的是全办公室都在关心的有奖竞猜:人类在年内灭绝可能性的时间线。他们要求我不要公开发表。(大多数人觉得可能性很小,但也有一个人觉得概率是40%)。
“在智性层面上,我们的核心目标是:找出在绝大多数人眼中对人类的未来真正重要的东西,以及我们能为此做些什么贡献。”一位研究人员说道。他叫安德斯·桑德伯格,是个温和友善的瑞典人,胸前挂着一块奇怪的铁质圆牌。”如果能找到一个让世界变得更好的方法,我们就成功了;或者,光是定义出怎样才算‘变得更好’也算是成功了。”
博斯特罗姆的人类风险坐标系
真正的危险,和你想的也许不一样
曼哈顿计划前整整年,人类便已经开始揣测我们的末世图景。最早的末世故事的主角修建了一座方舟以躲避洪水,但他的年代比诺亚还要早得多;这个新亚述帝国的方舟传说记载在记录在一块公元前17世纪的古美索布达比亚石板上,它认为人类的灭绝是自找的:我们发明的工具动静太大,让众神晚上没法休息,于是他们便降下洪水来毁灭人类。
这个唯一的幸存者名叫阿特拉·哈西斯,名字的意思是“最高智者”。他的故事从属于“末世学”领域:研究世界的末日。今天的我们生活在一个“生存风险”的世界里:我们自己就是自己的神祇,人类制造的噪音——技术——的威胁也愈发严峻。
眼下,联合国正在试图阻止人类制造杀人机器人自相残杀。与曼哈顿计划一样,最近重新启动的大型强子对撞机——位于法国和瑞士地下的粒子加速器——也激起了人们的恐慌,人们担心实验可能会在地球上造出黑洞(和奥本海默的团队一样,LHC团队也就其毁灭世界的可能性进行了多项风险评估。我们不会有事的)。
其他的潜在威胁则更难发现一些。01年,研究致命性更强的变异流感病毒株的科学家被要求在发表时删去他们的部分结果。去年,美国政府停止了对这一领域研究的资金投入,这在很大程度上是因为马丁·里斯(MartinRees)这样的生存风险专家的呼吁——他是剑桥大学生存风险研究中心的创始人,该机构与牛津大学的人类未来中心遥相呼应。“秘密制造氢弹很困难,”里斯评论道,“但生物技术有许多小规模、可用于多种用途的设备;总有一天,会有上百万人有能力误用这项技术。”要问他最大的恐惧是什么?“生态狂热分子,掌握了不久之后就将司空见惯的生物黑客技术,并且相信‘盖亚’正受到过多的人类的威胁。”
在另一方面,大部分人认为会造成生存风险的事物,其实可能并不危险。比尔·盖茨,埃隆·马斯克,斯蒂芬·霍金,还有博斯特罗姆自己都曾就制造超级智能计算机的风险发出过警告。在流行文化中,机器奴役人类的远景在《黑客帝国》和《终结者》系列这样的电影中屡见不鲜。但人类未来中心的研究人员们并不觉得超级电脑是个迫在眉睫的威胁,“工程师们现在所做的机器学习方面的研究,或者其他任何方面的研究,都一点也不吓人,”丹尼尔·迪威(DanielDewey),FHI的另一位研究人员解释道;他是美国人,曾在谷歌工作过的机器超级智能专家。”人们总是觉得,我们工程师都觉得普通人都应该对人工智能的前景感到害怕;但我们并不觉得你们有什么可害怕的。”
而且,如果你担心的是人类”灭绝”,能造成灭绝的灾难的门槛其实很高——甚至可以说高得残忍。就拿全球变暖来说,”如果气候变化的情况比我们的预期更加糟糕,而且形成了会导致气温上升0°C的反馈循环,那才算得上是生存风险。”斯奈德-比蒂解释道。(我们现在面临的温度上升幅度是-4°C之间)
桑德博格和他的圆牌
“没错,”桑德伯格接话道,“人们在气候变化成为常态的世界也能过得下去。很多城市的街道会被淹没,许多人需要搬迁,我们的生活水平会大幅下降,但我们仍然能生存得挺好。”他沉思片刻,又补充道:“我们的未来并不仅止于下个世纪。说不定接下来的几百年都很差劲,然后好日子就来了呢!”
桑德伯格是一位计算神经科学家,他脖子上戴着一块圆牌,上面记录着如何在他死后把他冷冻起来,送到亚利桑那州的一家人体冷冻实验室的指示。“统计学上来说,我更有可能死于某种可预见的事件,所以应该有时间买好去美国的机票,”他苦笑了一下。为自己的身后事早做打算有个有趣的副作用:“你会对生存风险非常敏感,”桑德伯格说。
“如果你的预期寿命很短,未来对你来说并没有什么意义,”他补充道,”但如果你要在液氮冷冻舱里躺很久,未来的事情就显得切身得多了。”
理论问题和伦理问题
从事生存风险研究的科学家们往往认为自己原先的领域过于死板。塞斯·伯姆(SethBaum)来自一个工程师家庭,但发现自己爱好探索钻研的天性并不适合计算机科学领域。“生存风险学的重点是搞清楚我们应该研究哪些问题,”他告诉我,“但对工程师来说,这是别人的工作。”
所以,这位前地理学博士后来到了纽约,并创建了全球灾难风险研究院(GlobalCatastrophicRiskInstitute),一个独立的研究机构。“有许多机构都一直好的白癜风医院在哪里北京治白癜风最好的医院是哪家
转载请注明:http://www.hujingahj.com/aqxw/63.html