搜索高级搜索
机器人网互动社区应用讨论专区家用和娱乐机器人人类对人工智能的十大误解,你占了几个?
家用和娱乐专区分享家用机器人和娱乐机器人在现实生活中的用途和应用范围,讨论分析家用机器人和娱乐机器人的互动平台。
大家在做什么
发表新主题  推到首页 收藏 打印 推荐 
作者 问题:

人类对人工智能的十大误解,你占了几个?

发布时间: 2016-6-1 下午4:37

作者: 花开的那一瞬间

等级: 学有小成

积分: 540 分

发帖数: 126 次

网站总积分: 540 分

经验值: 100.0

查看用户的所有发言

查看用户的个人主页

自从20年前深蓝(Deep Blue)在国际象棋中击败卡斯帕罗夫(Garry Kasparov),该事件就被人们誉为机器智能最权威的证明。谷歌的AlphaGo已经在围棋比赛中以四胜一负赢得了韩国棋手李世石,更表明了这些年来人工智能的迅猛进步。机器终会比人类更聪明的预言即将到来,但我们似乎并没有真正理解这个具有划时代意义的事件的影响。

事实上,我们执着于对人工智能的一些严重的、甚至是危险的误解。去年年底,SpaceX公司的联合创始人伊隆·马斯克(ElonMusk)警告说,人工智能会统治世界。此话一出,引发了对人工智能或谴责或支持的激烈争论。对于这样一个重大的未来事件,关于它是否会发生,或是以何种形式发生,各方持巨大的分歧。而当我们考虑到人工智能会带来巨大的利益的同时,也可能出现风险,这一点尤其令人担忧。不同于其他任何的人类发明,人工智能具有重塑人类的潜力,但它也可能摧毁我们。

很难知道该相信什么。但借助于计算科学家,神经科学家,和人工智能理论家的创举,我们可以逐渐了解关于人工智能更清晰的图景。下面是关于人工智能最常见的误解和虚传。



误解一:我们永远不可能发明出和人类智力相当的AI


在一些特定领域,比如说国际象棋、围棋、股市交易以及人机对话等,我们已经发明出与人脑匹敌或超越人脑的计算机。电脑和驱动他们的运算法则只会变得更好,电脑精通几乎任何人类能力只是时间问题。

纽约大学心理学家盖瑞?马库斯(GaryMarcus)曾说过,几乎所有研究AI的人都认为机器最终将取代人类。“狂热分子和怀疑论者之间唯一的不同是对时间早晚的判断。”未来主义者,像雷?库兹韦尔,认为机器统治人类会在几十年后发生,而其他人则说可能得几个世纪。

最初设想的机器智能可能缺乏一种或多种这些属性。最终,我们可能制造出极其聪明的AI,但是它不能通过主观的自我意识感受这个世界。沙纳罕说也许能够将智力和意识结合在一个机器内,但是我们也要认识到智力和意识终究是两种不同的概念。

AI怀疑论者认为生物脑在本质上是有独特之处的,这是无法解决的科技难题,其实这些是没有说服力的。我们的大脑是生物学意义的机器,但也不过是机器。他们存在于现实世界里,就要遵循基本的物理法则。人脑没有东西是不可知的。

误解二:“人工智能将会有意识。”


关于机器智能的一个普遍假设是:将来机器智能会有意识。也就是说,机器会像人一样思考。评论家们,如微软创始人之一的保罗?艾伦,则更进一步认为我们还未达到人工通用智能,即机器能够像人类一样执行任何需要智力的任务,因为我们缺乏关于意识的科学理论。正如伦敦帝国理工学院认知机器人研究者穆雷?沙纳罕(MurrayShanahan)所指出的那样,我们应该避免混淆认知和意识这两种概念。

“探究意识确实是一门迷人且重要的课题,但是我认为意识对于人类水平的人工智能来说是并不是必要的。或者更精确地说,我们用‘意识’这个词来指代心理的和认知的属性,这些在人类身上是捆|绑在一起的。”

最初设想的机器智能可能缺乏一种或多种这些属性。最终,我们可能制造出极其聪明的AI,但是它不能通过主观的自我意识感受这个世界。沙纳罕说也许能够将智力和意识结合在一个机器内,但是我们也要认识到智力和意识终究是两种不同的概念。

不能仅仅因为一台机器通过了图灵测试,就认为它有意识。先进的AI留给我们的印象是它们是有意识的,但是再先进的AI对于自己的认识也不会比一块石头或一个计算器多。

误解三:“超级人工智能会很友好。”

哲学家康德认为智能与道德密不可分。神经学家DavidChalmers在他的论文《非凡的哲学分析》中吸取了康德的著名观点,并将其运用于人工智能的提升中。

如果这个观点是正确的话,我们可以想到AI因智力爆发性增长致使道德感急剧升高的状况。可以想到,ASI系统变得超级智能的同时会具有无上的道德感,因此我们可以认为它们是善良的。

但是,这个“先进的AI从本质上将是好的、开明的”的观点是站不住脚的。正如Armstrong指出,存在很多聪明的战犯。智力和道德感间的关系在人类中貌似并不存在,所以他怀疑该假设在其他智能形式中,恐怕也是难以成立的。

“聪明的人的不道德行为可以比他们的笨蛋同胞造成更大规模的破坏,”他说。“智力只是给了他们变得更坏的能力,它并没有把他们变成好人。”

误解四:“简单的程序修补就能解决AI的控制难题。”


假设创造出比人类更伟大的AI,我们将面临一个严重的问题,那就是:控制问题。如何在家里安置以及控制ASI?如何确保ASI对人类是友好的?在这些问题上,未来主义者和AI理论家们完全不知所措。最近,佐治亚理工学院的研究人员天真地认为AI可以通过阅读简单的故事来学习人类的价值观和社会习俗。这可能远不是读几个小故事能解决的。

“人们推荐了很多可能解决整个AI控制问题的简单技巧,”阿姆斯特朗说。示例包括为ASI编写取悦人类的程序,或者仅仅使ASI作为人类的工具使用。再或者,我们可以将积极的概念,比如爱或尊敬整合进他的源代码。为了防止ASI对社会只有单一偏激的看法,我们可以给它编写欣赏智力、文化和社会多样性的程序。

但是这些方法要么太过简单,这就好比试图给复杂的人类喜恶确定一个简单肤浅的定义,要么就是把复杂的人类价值观生硬地压缩成一个简单的字词或想法。比如,对“尊敬”这个词,要确定内涵一致又普遍接受的定义是极度困难的。

“并不是说这些简单的技巧是没用的。这些对策里面有很多给研究指明了道路,对解决这个终极难题有所帮助。但是这些只是想法,具体的操作还需要我们做更多的开发研究工作。”阿姆斯特朗说。

误解五:“人工超智能很聪明,不会犯错。”


AI研究者兼SurfingSamurai机器人开发者RichardLoosemore认为大多数假设的AI毁灭世界的情景都不符合逻辑。人们总假想在这种情景下,AI可能会说:“我知道毁灭人类文明只是我的设计故障,但我不得不这么做。”Loosemore指出如果AI像这样打算毁灭人类时,那它一生会很多这样的逻辑矛盾,也会因此摧毁自己的知识库,导致自己变得愚蠢,而不足以对我们造成伤害。他还断言,那些认为“AI只会按照指定程序做事”的人,与当初用这样的话评价电脑不具备灵活性的人一样,犯了同样的错误。

就职于牛津大学人类未来研究所(FutureofHumanityInstitute)的皮特?麦金泰尔(PeterMcIntyre)和斯图尔特?阿姆斯特朗(StuartArmstrong)都对此有不同看法。他们认为人工智能将很大程度上受到编程的限制。他们相信AI也会犯错误,或者他们还没有聪明到了解人类想从他们那里得到什么。

“从定义上讲,超级人工智能(ASI)是一个拥有智力的载体,它在各个相关领域都要比最优秀的人类大脑更聪明。”麦金泰尔如是告诉Gizmodo。“它将十分清楚我们用他们来做什么。”麦金泰尔和阿姆斯特朗相信AI只会做程序编写的任务,如果它能变得足够聪明的话,它将能理解依照程序完成任务与领略规则精髓的不同,也将能理解人类的意图。

麦金泰尔把人类未来的困境比作老鼠的困境。老鼠想要在人类居所寻求食物和栖息地,人类不愿居室内有老鼠,两者冲突。麦金泰尔说,“正如我们明白老鼠的目的,超级智能系统也能知道人类想要的,但仍对此漠不关心。”

误解六:“我们将被超级人工智能毁灭。”


没有任何证据表明我们会被AI毁灭或无法控制它们。正如AI研究者EliezerYudkowsky所说:“AI既不会恨,也不会爱,但人类由原子构成的,除了智能以外,人类还有感情。”

牛津大学的哲学学者NickBostrom在他的书《超级智能:路径、危险与策略》中提到,真正的超级人工智能一旦完成,将比以往人类的任何发明都危险。一些著名的学者如ElonMusk,BillGates,andStephenHawking(后者曾警告AI也许是人类史上最糟糕的错误)也提出了警告。

但没有什么事是可以确定的,没人知道AI将采取什么行动以及如何威胁到人类。正如Musk指出的,人工智能可以用来控制、调节和监视其它人工智能。也许可以它灌输人类的价值观,使之毫无保留地对人类保持友好。

误解七:“我们不应该害怕AI。”


一月份,脸书创办者马克扎克伯格说我们不应该害怕AI,AI会为世界带来难以估量的好处。扎克伯格只说对了一半。我们随时准备从AI身上收获巨大的利益——从自动驾驶汽车到新药物的研制,但是没有人能保证AI的所有影响都是良性的。

高度智能化的系统也许了解某一特定任务的一切,例如解决令人厌烦的财务问题,或者黑进对手的系统。但是在这些特殊领域之外,高度智能系统会变得极其无知无觉。谷歌的DeepMind系统精通围棋,但除围棋以后,它在其他方面没有探索的理性和能力。

误解八:“AI和机器人造成的风险是相同的。”


这是一个特别常见的错误认识,不加鉴别发布消息的媒体和好莱坞电影比如《终结者》系列使这一错误更加深入人心。

如果一个超级人工智能比如天网想要毁灭人类,它不会使用端着机qiang的机器人。其实还有更高效的办法,如散播瘟疫,引发纳米级灰雾(greygoo,具备自我复制能力的微小机器人)灾难,甚至仅仅破坏大气层。人工智能有潜在的危险,不是因为它所昭示的机器人的未来,而是它在世界上的自我定位。

误解九:“未来的AI和科幻小说里的AI是相同的。”


的确,科幻作品被作家和未来主义者们用来预测美好的将来,但ASI所带来的图景完全不是一回事。更重要的是,与人类本性不同的AI不会让我们知道并预测它们确切的本性和形式。

科幻作品考虑到我们人类是弱小的,大多数AI被设定地与人类很类似。“有一些观点认为,即使是在人类中,也存在着多种类型的心智模式,你和你的邻居也是不同的,但人与人之间的心智区别要同其他可能存在的心智形式相比是微不足道的,”McIntyre说道。

大多数科幻小说旨在讲一个引人入胜的故事,但不够科学准确。因此,科幻小说中的冲突往往是存在于实力接近的实体之间。Armstrong说,“没有意识、喜乐或仇恨的AI毫无阻力地消灭所有的人类、达到一个本身无趣目标,可以想见这样的电影情节会有多无聊。”

误解十:“AI将会抢走我们所有的工作。”


人工智能把我们大部分的工作自动化和它能毁灭人类的潜在性,这是两件完全不相关的事情。根据《机器人的崛起》的作者MartinFord所说,这两件事常常被混为一谈。思考在遥远的将来AI的意义是很好的,但只有这不影响到我们思考未来的几十年遇到的问题时,这样做才有意义。其中最主要的是大规模的自动化。

毫无疑问,人工智能将取代很多现存的职业,包括从车间工人到高级白领。一些专家预测在不久的将来美国的一半工作将被自动化所取代。但这不意味着我们没有能力应付局面。最理想的情况是为我们人类实现人人称赞的目标,达到接近乌托邦的境界,无论是脑力劳动者还是体力劳动者,人人都从劳役中解放了出来。

机器人将在未来的几十年取代数以百万计的岗位。我们必须强调:“在未来的几十年里AI将抹杀许多工作,但这是件好事,”Miller说。例如,自动驾驶汽车将取代卡车司机,这样可以节约运输成本,使货物的价格更便宜。“如果你靠做卡车司机谋生,你失业了,但其他人都赚了,因为他们的工资买到了更多的东西,”Miller说。“这些人所省下的钱用于其它的商品和服务,这可以为人类创造新的就业机会。”
在所有的可能性中,人工智能将创造出创造财富的新方法,同时解放出人类去做其他的事情。人工智能的进步将引领其它领域的进步,特别是制造业的进步。在未来,它将更容易满足我们的基本需求,而不是相反。
   标签: 人工智能 机器人
Yufy 编辑于 2016-6-1 下午4:38
引用 回复 鲜花 ( 0) 臭鸡蛋 ( 0) 有新回复时发送邮件通知
机器人网互动社区如果你有健忘症,这个机器人最适合你了
第 1 楼

回复主题:人类对人工智能的十大误解,你占了几个?

发布时间: 2016-6-2 上午11:42

作者: 语音技术大师

等级: 遁门入道

积分: 242 分

发帖数: 63 次

网站总积分: 242 分

经验值: 1684.0

查看用户的所有发言

查看用户的个人主页

十条都很表面,虽然也确实澄清了很多人的误解,但是稍微深入地疑问,都无力回答。有点像就事论事。人们对于人工智能内部的不够理解才带来了它外部行为和未来预期的误解,所以如果你想澄清,就要给点内部原理的解释,你有么?并且不仅要有,仅仅是AI科学家那样的深度懂得还大大不够,因为还要高超的科普工作来让所有关键的内部原理,说给普通人(心智健全的人、对于世间其它事物都有完整的理解能力)能够完全懂得、没有错误概念。难住了吧!
这次终于有人讲清楚了人工智能和量子计算的关系了 虚拟现实技术及应用 (下载 29 次)
美的收购库卡或流产:欧盟专员反对关键技术外流 手把手教你一个简易的"平衡机器人" (下载 66 次)
小米无人机再现“价格屠夫”本色:2499远低市场预期 【极客装备】教你DIY私人无人机 (下载 89 次)
引用 回复 鲜花 ( 0) 臭鸡蛋 ( 0)

与  人工智能 , 机器人  相关的话题
快速回复
用户名: 
美国的游客       (您将以游客身份发表,请登录 | 注册 )  
标题: * 你还可以输入80
评论: * 你还可以输入20000
分享到: 新浪微博   qq空间   qq微博   人人网   百度搜藏  
验证码:  * 
维护专业、整洁的论坛环境需要您的参与,请及时举报违规帖子,如果举报属实,我们将给予相应的积分奖励。
谢谢您的热心参与!
返回家用和娱乐机器人 | 返回应用讨论专区
本论坛仅陈述专家或个人观点,并不代表机器人网网站立场。
返回论坛页首