很多人都谈过人工智能,但并不完全了解什么是超级人工智能。下面是边肖为您整理的《超级人工智能》,供大家阅读!
超级人工智能的崛起将是人类的末日。
现在的电脑到底有多智能?
现在的计算机可以完成越来越复杂的任务,已经拥有接近人类的智能。微软的Xbox游戏机甚至可以通过分析玩家的面部表情来评估他们当前的心情。2011年,IBM的超级计算机沃森赢得了智力竞赛节目《危险边缘》(Dangerous Edge)。科学进步将引领我们走向计算机科学的圣杯:人工智能,或者说能够独立思考而不仅仅是响应命令的计算机。但是一旦计算机实现了“超级智能”,那会发生什么呢?所谓超智能,是指计算机不仅在数学和科学上超越人类,在艺术创造力甚至社交能力上也大大超越人脑。
牛津大学未来人类学研究所所长尼克博斯特罗姆(Nick Bostrom)认为,未来的计算机不再是服从人类的工具,而是不关心人类种族兴衰的优势物种,人类在睡梦中不知不觉地进入了这个未来。
博斯特罗姆警告说,“一旦开发出对人类不安全的超级智能,我们将无法把它放回瓶子里。”
人工智能什么时候会成为现实?
根据博斯特罗姆对人工智能专家的调查,2050年前发展出人类水平的人工智能的概率是50%,2075年前发展出来的概率是90%。人工智能发展的关键很可能是人脑:如果计算机能够模仿人脑的神经网络工作模式,它或许能够形成自己的感觉和思想。因为知道这一点,Googel等科技巨头一直在努力开发自己的大脑;运行高级软件的多台协作服务器。与此同时,扎克伯格已经向旧金山科技公司Vicarious投入巨资,该公司研究如何复制大脑皮层;这个区域负责视觉、语言和数学运算。把大脑皮层转换成计算机代码,就可以得到一台能像人一样思考的计算机。除了不吃不睡,和人一样。
为什么是威胁?
自1956年以来,计算机的计算能力每18个月翻一番。一些人工智能领域的专家认为,在下一个世纪,计算机将能够理解自己的设计架构,并成倍地升级自己。这样一来,机器和人之间的智力就会出现不可逾越的鸿沟,博斯特罗姆说这就像人类和昆虫的智力差异一样。计算机智能可能是人类的福音。可以治愈癌症、艾滋病等疾病,解决人类无法解决的问题,在增加人们休息时间的前提下,创造更多的财富。但是超级智能也会带来很大的问题。
什么会出错?
计算机是用来解决问题的,它遵守效率最大化的原则。如果有很多缺点的人类阻碍了效率的提高,那么问题就来了。博斯特罗姆举了一个回形针的例子。只要你给AI一个明确的目标,比如“生产出世界上尽可能多的回形针”;而AI必须足够聪明,发明自己的超级技术,建立自己的加工厂。如果满足了这些条件,那么,对AI说的话就要小心了。
"人工智能如何确定回形针已经达到其最大能量?"博斯特罗姆问了这个问题,“计算机应该保证人类不会关掉计算机,不会影响回形针的数量。也许电脑会立刻做出杀死人类的决定,因为人类对回形针是一种威胁;唯一能关闭回形针工厂的是人类。埃隆马斯克(Elon Musk)最近警告说,他认为人工智能必须非常谨慎。他说,人工智能带来的危险可能超过核能。
未来是必然的吗?
许多计算机科学家认为我们不会注定毁灭。相反,他们质疑人类能否真正实现人工智能。他们认为人类仅仅是了解人脑就走过了漫长的研究道路;包括意识本身是什么的问题;更不用说用这些知识来建造一个有情感和自我意识的机器了。虽然今天最强大的计算机可以利用算法赢得国际象棋比赛和问答电视节目,但我们无法创造出可以写感人诗歌和判断是非的机器人。制造完全掌握人类技能的机器人还有很长的路要走。
人类对此的防御措施是什么?
可惜目前为止还不多。谷歌成立了人工智能伦理审查委员会,一些计算机科学家呼吁在编程前确保程序符合伦理准则;但是,到时候程序员会面临哪些行为符合道德,哪些不符合道德的艰难选择。超级计算机设计者先驱丹尼希利斯(Danny Hillis)认为,最基本的问题是,科技公司设计的计算机越来越智能,但这些科技公司对自己的发明可能带来的影响没有完整的认识;甚至不屑于思考。他说我们是一群变形虫,无法理解自己创造的东西。
机器人学会撒谎怎么办?
2009年,来自瑞士的研究人员进行了一项机器人实验,但结果出人意料。在一个竞技场中,研究人员放置了数百个机器人,机器人上的程序要求他们在竞技场中寻找一个浅色的环(实验中的食物)。这些机器人可以互相交流,它们会向同伴发出蓝光,告诉其他机器人食物在哪里。但随着实验的进行,研究人员发现,一些发现食物的机器人停止了闪烁,并学会了独占这些资源;而源程序根本没有指示他们这样做。也许机器人已经学会了保护自己。