人工智能起源于上世纪50年代初,美国的马文明斯基(后被誉为人工智能之父)与英国的阿兰图灵几乎同时发明了人工智能。年,计算机专家约翰麦卡锡首次提出了“人工智能”概念。初期发展阶段,人工智能经历了它类似于童年的幸福时光。在数学、语言领域的广泛运用,人工智能令科学家和投资者们持续兴奋、信心倍增。
但好景不长,计算机的性能与数据的缺失还无法支撑单项的人工智能去解决多维度的复杂问题。人工智能项目坠入低谷。直到80年代初,卡耐基梅隆大学推出了一套“知识库+推理机”组合的专家系统XCON,大约只能为公司每年节省四千美元的成本。随后衍生的Symbolics、LispMachines、IntelliCorp和Aion等软、硬件公司的专家系统带来的价值最高额不超过5亿美元。短暂的蜜月很快就被苹果、IBM的PC机所终结。
但是,人工智能的光芒从未熄灭。年,IBM开发的智能计算机战胜了国际象棋世界冠军卡斯帕罗夫。21世纪注定是人工智能的时代:年瑞士洛桑联邦理工学院成功模拟部分鼠脑;年,智能计算机在语音及图像识别上取得突破;年无监督学习算法取得实质性进展;年,谷歌开发的AlphaG4战胜围棋大师李世乭,引发了科学家和企业家们对人工智能发展前途的恐惧和忧虑。
霍金、比尔盖茨、马斯克以不同方式表达过人工智能可能给人类带来灾难性后果的忧心。霍金在今年4月在北京举办的全球互联网大会发表《让人工智能造福人类及其赖以生存的家园》的演讲中表达了他所担忧的结果:“人工智能一旦脱离束缚,以不断加速的状态重新设计自身”。比尔盖茨认为:几十年后,人工智能会强大到足以令人担忧的程度,人们不应当对此熟视无睹。埃龙马斯克在接受美国CNBC电视台记者采访时说道,人工智能的最终发展可能会出现像《终结者》中可怕的情景。他投资人工智能的目的在于规避负面的东西,确保它朝好的方面发展。扎克伯克对人工智能的前景持乐观态度。但公司在今年7月发生的一起戏剧性事件却令员工们震惊不已:一台学习设备自行绕过程序师,主动与其它AI设备建立语言联系。Facebook立即关闭了这台设备。小札的乐观受到马斯克的批评。
DeepMind最近推出了阿尔法狗的弟弟阿尔法元(AlphaGoZero)。项目负责人DavidSilver博士介绍,阿尔法元远比阿尔法狗更强大,它不再被人类的认知所局限,具有发现新知识、发展新策略的能力,还可以解决蛋白质折叠和新材料这样的复杂问题。阿尔法元不但降低了训练复杂程度,摆脱了机器对人类已有认知的依赖,而且使机器大脑运用深度学习解决复杂决策更加方便可行。人类经验要受样本空间大小的限制,不可避免地打上片面性的烙印。但机器学习可以摆脱这种限制。
在围棋对垒中,阿尔法狗需要在48个TPU(控制芯片)上用几个月的时间学习万棋局,打败了人类。阿尔法元从零开始,不懂围棋,靠自己的强化学习(reinforcementlearning)和参悟,在4个TPU上,用72小时互搏万局棋,-0击败了阿尔法狗!阿尔法狗拜人类为师,最后青出于蓝而胜于蓝,击败了人类。阿尔法元不依赖人类的经验,只靠给定的围棋规则,就能无师自通。一个是找到博弈的最优路径,一个是自学创新。
模仿人脑的机器会受到人脑限制。离开人脑,独立创新,是人工智能与机器智能、人脑智能的重大区别。智能可以离开人脑独立存在!人类不再是这个星球唯一拥有智能的主体。它标志着人工智能可以摆脱人类的控制,直接从客观的影像、语言、图形中提取特征和数据,创造新的思维。这是一个革命性的颠覆,开启了神经网络的新纪元。
人工智能的崛起引发我们再次重新思考人类自身。人类凭借人脑的想象力、社会组织和协作的力量统治着这个星球,在创造灿烂的人类文明的同时,也给自身带来过比大自然更多的的灾难。过去的历史,是一部人类永无休止地向自然界和人类自身不断索取和掠夺的历史,充满着愚昧与血腥。科学家制造出原子弹,是在给人类造成大规模杀伤结果后才开始意识到技术进步的负面效应。庆幸的是,当我们还在人工智能尚未成熟阶段,科学家和企业家们已经认识到它将来可能给人类带来的负面影响,并着手研究如何防止人工智能的发展给人类造成的不利后果。
技术的进步使我们不得不接受这样一个事实:计算机不仅可以模仿人类智能,而且可能超越人类智能。生物的进化速度无法超越人工智能(最初是人工的,将来是自我发展的独立智能)的进步。这个趋势如果成立,人工智能有可能发展出与人类意志相冲突的自我意志。人类如果过分依赖人工智能的帮助就可能被边缘化,甚至被统治。
人工智能的确能给人类带来潜在而又巨大的利益。在语音和图像识别、无人驾驶、智能翻译、健康运动、专业咨询、教育学习、护理陪伴等方面,人工智能都在稳步发展,对传统领域的每一次颠覆或改变都会带来巨大的经济效益。但另一方面,正如科学家提示的那样,人工智能的出现是人类文明史上最大的事件,同时也可能是人类文明史的终结(霍金语)。避免危险需要从技术和制度两股层面去研究。
核武器是一种大规模杀伤性武器,人类拥有的核武器足以将地球毁灭若干次。此外,即使和平使用核技术也存有重大隐患,核泄漏、放射性废物对空气、土地、水域的大面积污染,会危及不特定多数人的健康和生命。但只要科学家们担当起特殊的社会责任责任,政治家们认知到人类的共同利益,风险仍然是可控的。70多年来,人们当初恐惧的灾难毕竟没有发生。
人类需要借助组织协作的力量应对人工智能可能带来的风险。无论是美国的人工智能协会(AAAI)、“未来生命研究所”、“利弗休姆中心”,还是马斯克的OpenAI,都不可能控制未来的风险。需要建立广泛的国际联盟,制定出人工智能发展的共同原则,例如技术可控原则,计算机安全原则、保障人类安全原则。限制或禁止人工智能发展的领域和范围。从技术、经济、法律、哲学的全方位跨界研究人工智能与人类的关系。
法律是制度力量的集中体现。但立法者与法律适用者们传统的认知要发生颠覆性的改变。法律不再只是调整人与人之间社会关系的行为规则,也是协调人与物(人工智能)之间和谐相处的工具。无人驾驶的责任主体,人工智能的系统失控、故障与过失,对人类的侵害。传统的相对责任理论已经无法解决未来出现的各种新问题。电子智能人格的出现,或许会产生新的法律主体资格,原有的权利义务和责任范围都需要重新定义。总之,人类需要重新学习如何避免生存的风险,在可控前提下发展人工智能。风险虽不能消灭,但可以控制。人类的想象力也是没有边界的,我们有秉持内心乐观的理由。但不能对人工智能的危险仅仅局限于思考,任何思考都不是现实,需要的是积极参与行动。
上帝不一定会站在人类一边。
赞赏
长按白癜风治疗的方法北京怎么治疗白癜风
转载请注明:http://www.hujingahj.com/aqly/560.html