时间进入了21世纪,由于大国之间恐怖的核平衡,核阴影似乎已经被人类所日愈忽视。当年罗素、爱因斯坦等人的担忧,也似乎随着时光的流逝而淡漠。
年,第二次类似于罗素—爱因斯坦宣言的事件发生了。
在于阿根廷布宜诺斯艾利斯举行的年人工智能国际联合会议开幕式上,公布了当代著名物理学家霍金和苹果公司创始人沃兹尼亚克共同签署的一封信函。
信中说:“今天人类的关键问题是,是否要开始一个全球人工智能(AI)武器竞赛,还是阻止它的启动?如果有任何重大军事力量,推动了人工智能武器发展,那么,全球军备竞赛几乎是不可避免的”。
科学家们还描述了自主武器落入恐怖分子、独裁者和军阀手中后的末日情景,他们担心手持这些武器的人可能会进行种族灭绝。
在信的最后说:“总之,我们相信AI有巨大的潜能,能够在很多的途径上造福人类——这也应该是这一领域的目标。而开展AI军备竞赛则是个坏主意,应该禁止超出人类控制的攻击性的自治化武器,来防止AI军备竞赛的发生。”
当时,有约名科技领导人签署了这封信件,从规模上看,要远远超出当年罗素—爱因斯坦宣言。在今天基于互联网的各种新媒体的推波助澜之下,这次人工智能国际联合会议的影响,也要远超当年在加拿大偏辟小村帕格沃什会议。
但是,最终的效果,估计也不会比罗素—爱因斯坦宣言和帕格沃什科学与世界会议强出多少。无人化武器装备,仍然被以美国为首的世界各国,纷纷列入规划之中,并投入前所未有的重金进行研究。
就在今天,年的8月22日,特斯拉和SpaceX公司的CEO、科技狂人、美国超级高铁的提出者、绰号钢铁侠的马斯克,又连同数十名人工智能公司的CEO,向联合国发出了一封公开签署的信函——呼吁在AI技术失控之前,禁止将其应用于武器装备。
公开信指出:“那些致命的AI自主式武器,将成为第三次世界大战的主要成因。一旦这个潘多拉魔盒被打开,会很难再关闭。因此,我们恳请联合国组织的缔约各国,找到一种方式,能够让我们全体人类,免受这些危险的伤害。”
其实,马斯克对AI,一直是大体持警惕和恐惧态度的。2年前霍金和沃兹尼亚克联合签署的那封信件上,其实也有马斯克的参与。与FaceBook创始人扎克伯格的乐观态度相比,马斯克等AI公司的CEO们却一直很悲观,他声称:未来,如同电影《终结者》一样,AI武器可以引起和发动第三次世界大战。
在他们的设想中,战争最终会演变为人类与AI机器人武器之间的战争,未来的城市废墟上空,四旋翼等各类无人机会被用来搜寻和消灭符合预定标准的人;地面无人驾驶机器人,会逐幢楼房定点清除残存的人类;海面上和海底,会巡弋着各种无人军舰;太空之中;高速飞行的由AI技术控制的无人卫星在全球四处扫描寻找人类的踪迹。。。。。。
不过,这个事情,怎么看怎么有一丝当年约里奥-居里的味道呢,只是这一次换成了另一边阵营。
马斯克用SpaceX公司给美国军方发射航天器的时候,却也没见他担忧过什么人类和平——除非他公开宣布拒绝再为美国军方的航天发射任务服务,堂主才能略信他三分——要知道,就在今年的5月2日,SpaceX公司才刚刚为美国军方发射了一颗间谍卫星。
所以说,从上一篇历史,可以对照现实——不可否认,确实有一批科学家们是有爱好和平和为人类整体考虑的心的;但一定还有另外一批人,是借此忽悠其他国家放弃人工智能技术及人工智能武器装备的研制。
请让我们们记住当年约里奥-居里的话:“请转告毛泽东同志,你们要反对核武器,自己就应该先拥有核武器”。也许,今天会变成:“你们要反对AI武器,自己就应该先拥有AI技术和AI武器”。
前不久,中国国务院发布了新一代人工智能发展规划,提出将在AI技术的重点前沿领域探索布局、长期支持,力争在理论、方法、工具、系统等方面取得变革性、颠覆性突破,全面增强中国人工智能原始创新能力。规划中还提到要前瞻布局新一代人工智能重大科技项目,到年中国人工智能产业竞争力达到国际领先水平,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。
所以,虽然不是什么著名的科学家,但堂主还是要在文章里呼吁大家一下——小伙伴们,大家一起,赶紧都去研究人工智能吧
也许,如同核武器一样,只有在AI技术和AI武器上再次达到大国之间“恐怖的平衡”,世界才能保持和平,才能最大限度地避免三战之类大规模战争悲剧的发生。
赞赏
人赞赏
长按北京中科医院白癜风症状
转载请注明:http://www.hujingahj.com/aqjj/180.html