人工智能会超越人类智能吗?(人工智能能够超越人类吗)
本篇文章给大家谈谈人工智能会超越人类智能吗?,以及人工智能能够超越人类吗对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。
本文目录一览:
人工智能会超越人类吗
如果把智能定义成某种固定的逻辑运算,那么AI早就超越人类了,像象棋、国际象棋、跳棋、苹果棋这样的简单智力游戏,人都玩儿不过电脑(就是人类的冠军也玩儿不过)。
但
如果广义的谈智能,AI还差得多。比方说,找为兄弟,许给他钱,让他连着学俩月开车,然后给他辆车,在美国开60公里,满世界的走,一年不出车祸就可以拿
到奖金,我相信90%的人都轻易做到;可是对于机器,那就难了,Google Self-Driving Car花了大钱现在也只是勉强做到。
上述的例子只是人类智能最为简单的部分(有人训练过蟑螂,呢能达到开车的效果);人类复杂的抽象认知能力,如联想、推理、语言,才是高级的功能,人脑相关功能的工作机理,人类目前不是很清楚,随便在那个地方有突破都够诺贝尔奖+图灵奖了。
更为令AI沮丧的是,即便AI有了上述的学习、认知能力,离人还很远;还有Empathy(同理心),这点相信大家都不陌生,最近的大片普罗米修斯里的生化人虽然很牛,但是离真人还是有差距的,这个差距就体现在人类的情感方面。
有一番对话,对于AI与人工智能的关系有一定得启示作用:
A:金鱼经过奋斗对鱼缸中的方寸有了很深入的认识,但它能够认知鱼缸外的世界吗?
B:没准可以因为鱼缸是透明的,虽然出不去,但是总归可以看见,因此鱼至少能了解屋里
A:但屋子外的它看不到,就无法认知,也就是说它不知道鱼缸外的世界
B:鱼缸外的世界一定比鱼缸里复杂吗?认识了复杂的,就等于认识了简单的吗?
人工智能会超越人类智能吗
现在不会,人工智能处在人类开发初期,后期如果智能机器人具有人类的感知,和学习思维提高的完全智能,不排除会超越人类自己。
人工智能是否有可能超越人类?
按现在的科技这样发展下去,人工智能是有可能超越人类的。
1956年夏季,在美国达特茅斯学院举行的一次重要会议上,以麦卡赛、明斯基、罗切斯特和申农等为首的科学家共同研究和探讨了用机器模拟智能的一系列问题。
首次提出了“人工智能”这一术语,它标志着人工智能这门新兴学科的正式诞生。此后,人工智能在发展历史上经历了多次高潮和低潮阶段。
在1956年人工智能被提出后,研究者们就大胆地提出乐观的预言,达特茅斯会议的参与者之一赫伯特·西蒙(Herbert Simon)还做出了更具体的预测:10年内计算机将成为国际象棋冠军,并且机器将证明一个重要的数学定理。
西蒙等人过于自信,其预言没有在预测的时间里实现,而且远远没有达到。这些失败给人工智能的声誉造成重大伤害。
1971年,英国剑桥大学数学家詹姆士(James)按照英国政府的旨意,发表了一份关于人工智能的综合报告,声称“人工智能研究就算不是骗局,也是庸人自扰”。
在这个报告的影响下,英国政府削减了人工智能的研究经费,解散了人工智能研究机构。人工智能的研究热情第一次被泼了冷水。
20世纪90年代,以日本第五代机器人研发失败和神经网络一直没有突破为代表,人工智能进入了第二个冬天。
直到21世纪初,深度学习与互联网大数据结合才使人工智能又一次迎来新的春天。在阿尔法围棋等大量突破性成果涌现之后,人类对机器(AI)能否超越人类的问题又重新燃起了热情。狂热的情绪背后甚至产生了人工智能威胁论。
谷歌技术总监、《奇点临近》的作者雷·库兹韦尔(Ray Kurzweil)预言人工智能将超过人类智能。他在书中写道,“由于技术发展呈现指数级增长,机器能模拟大脑的新皮质。
到2029年,机器将达到人类的智能水平;到2045年,人与机器将深度融合,那将标志着奇点时刻的到来。”除此以外,支持人工智能威胁论的代表人物还包括著名物理学家霍金、微软创始人比尔·盖茨、特斯拉CEO马斯克等。
2014年12月2日,霍金在接受BBC采访时表示,运用人工智能技术制造能够独立思考的机器将威胁人类的生存。霍金说:“它自己就动起来了,还能以前所未有的超快速度重新设计自己。人类呢,要受到缓慢的生物进化的限制,根本没有竞争力,会被超越的。”
特斯拉CEO马斯克对待人工智能的态度比较极端,2014年8月,他在推特上推荐尼克·波斯特洛姆的著作《超级智能:路线图、危险性与应对策略》时写道:“我们需要重点关注人工智能,它的潜在危险超过核武器。”
2017年10月,日本著名风险投资人孙正义在世界移动大会2017上表示,他认为机器人将变得比人类更聪明,在大约30年的时间里,AI的智商将有望超过1万点。相比之下,人类的平均智商是100点,天才可能达到200点。
孙正义说:“奇点是人类大脑将被超越的时刻,这是个临界点和交叉点。人工智能和计算机智能将超越人类大脑,这在21世纪肯定会发生。我想说的是,无须更多的辩论,也无须更多怀疑。”
在人工智能威胁论热度日益高涨的情况下,人工智能领域的科学家对人工智能威胁论提出了反对意见。2014年4月,脸书人工智能实验室主任,纽约大学计算机科学教授杨立昆在接受《波普杂志》采访时发表了对人工智能威胁论的看法。
他认为人工智能的研究者在之前很长的一段时间都低估了制造智能机器的难度。人工智能的每一个新浪潮,都会经历这么一段从盲目乐观到不理智最后到沮丧的阶段。
杨立昆提出:很多人觉得人工智能的进展是个指数曲线,其实它是个S形曲线,S形曲线刚开始的时候跟指数曲线很像,但由于发展阻尼和摩擦因子的存在,S形曲线到一定程度会无限逼近而不是超越人类的智商曲线。
未来学家们却假设这些因子是不存在的。他们生来就愿意做出盲目的预测,尤其当他们特别渴望这个预测成真的时候,这可能是为了实现个人抱负。
人工智能会超越人类智能吗?的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于人工智能能够超越人类吗、人工智能会超越人类智能吗?的信息别忘了在本站进行查找喔。