虎鲸

观点霍金演讲再谈人工智能无定论尚多


导读

关于人工智能未来会否威胁到人类,甚至替代人类这个问题,在不同的场合,被不同的人讨论着。似乎,位于人工智能应用层的企业高层、投资者更倾向于相信,人类创造了人工智能,人工智能为人类所用,机器永远无法凌驾人类。不过,世界顶尖科专家们则更为严谨……

关于人工智能未来会否威胁到人类,甚至替代人类这个问题,在不同的场合,被不同的人讨论着。似乎,位于人工智能应用层的企业高层、投资者更倾向于相信,人类创造了人工智能,人工智能为人类所用,机器永远无法凌驾人类。不过,世界顶尖科专家们则更为严谨:年1月,霍金与特斯拉CEO埃隆-马斯克等其他人工智能专家签署了一份关于人工智能的公开信,目的是提倡就人工智能对社会所造成的影响做认真的调研。

埃隆·马斯克认为,超人类人工智能可能带来不可估量的利益,但是如果部署不当,则可能给人类带来相反的效果。

而史蒂芬·霍金,这位人类历史上最伟大的科学家之一,则不只一次发表过对人工智能的担忧。最近的一次公开提及是在4月27日举办的全球移动互联网大会(GMIC)上。

霍金在视频演讲中说到:"人工智能一旦脱离束缚,以不断加速的状态重新设计自身。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。"

霍金并非是一个悲观主义者,相反地,他看到了潜在的危险,并提前付诸行动,除了上述提及的公开信之外,年10月,霍金在英国剑桥建立了利弗休姆智能未来中心,这是一个跨学科研究中心,它试图解决一些在人工智能研究快速发展中出现的尚无定论的问题。

无人驾驶难题:小风险大事故?大概率小事故?

霍金说,对人工智能的担忧可以分为短期和长期:

短期的担忧包括:无人驾驶、致命性智能自主武器、人工智能解读大量监控数据引起的隐私担忧、以及如何管理因人工智能取代工作岗位带来的经济影响。

详细一点说,在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。

又比如,致命性智能自主武器是否该被禁止?如果是,那么"自主"该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。

长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智能崛起?

人工智能武器或将引发新一轮军备竞赛

霍金的担忧中最引发广泛讨论的一项是:人工智能武器系统,也就是通常所说的"机器人杀手"。人工智能武器区别于普通武器,具有自主性。他们可以自主锁定目标,并实施任务。今年,《特定常规武器公约》缔约国将对有关人工智能武器系统的一项禁令展开讨论。而在那封霍金和马斯克参与的公开信中,科学家们就认为人工智能武器可能只需要数年就能开发出来,如果任何军事大国推动这种武器的开发,那么全球范围的军备竞赛将无可避免,而且这种武器将会成为未来的AK-47突击步枪。

不过,这个预言会不会提前实现呢?

四月中旬,俄罗斯副总理德米特里·罗戈津通过Twitter公布了一部战斗机器人的相关视频,并介绍了其功能。这个视频让人们感到恐慌,尽管罗戈津声称,只是将其作为宇航员太空旅游的助手,但这部太空机器人的外形实在太像"机器人杀手"了。

跨学科研究是一种可能的前进道路

霍金认为,也许所有人都应该暂停片刻,把研究从提升人工智能能力转移到最大化人工智能的社会效益上面。基于这样的考虑,美国人工智能协会(AAAI)于至年,成立了人工智能长期未来总筹论坛,他们近期在目的导向的中性技术上投入了大量的







































郑州白癜风治疗中心
女性白癜风的发病原因



转载请注明:http://www.hujingahj.com/aqzz/1145.html


当前时间: