您现在的位置是:网站首页>管理管理

《如何创造可信的AI》

铛铛铃2025-09-14管理1人已围观

简介

今天为你解读的书是《如何创造可信的 AI》。

AI 是人工智能(artificial intelligence)的简称。

对于人工智能,你对它的应用有什么期盼或者担忧吗?欢迎在评论区留言分享。

本书的作者是美国盖瑞·马库斯和欧内斯特·戴维斯,两位都是纽约大学的教授,也是人工智能领域的一流专家。马库斯还是两家人工智能公司的首席执行官和创始人。

20112月,IBM 公司研制的超级电脑沃森在电视智力竞猜节目《危险边缘》上,以悬殊的比分战胜了该节目历史上最成功的两位选手,成为新的王者。霎时间,这个新闻成为全美媒体的头条。根据宣传,超级电脑沃森不但技艺惊人,还能用于医疗诊断,会根据病情向医生提供治疗建议。

20163月,谷歌的 Alpha Go 机器与韩国棋王李世石九段进行了一场人机大战,最后 Alpha Go 以四比一获胜。新棋王、中国小将柯洁不服挑战 Alpha Go,结果是连败三局。他曾中盘休息20分钟,回到棋桌潸然泪下,赛后说:“Alpha Go 真的太完美了,它下出了让我感到寒冷、感到绝望的一步棋。”

这样的新闻不禁让人们感叹:人工智能太伟大了,它们已经胜过人类了。在你惊叹的时候,马库斯和戴维斯提醒你,人工智能并不完美,有的时候它甚至是不可信任的。接下来的解读中,我将给出它犯错误的很多例子,这是今天要讲的《如何创造可信的 AI》的主题之一。

当然,作者是 AI 技术的坚信者,他们对当前 AI 技术提出质疑,是希望能改进 AI 技术,这也是本书的另一大主题。

接下来,我将分两个部分来解读这本书:第一,AI 技术会犯什么错误,有哪些局限性;第二,通往未来可信 AI 的路径是什么。

先来讲第一部分,AI 技术会犯什么错误,有哪些局限性。

对于 AI 技术,起初科学家们的态度是乐观的。20世纪五六十年代,明斯基、麦卡锡、西蒙等人工智能领域的大师都预言,AI 问题将在20世纪末之前得到解决。50年之后,人们进入了21世纪,尽管 AI 技术有了很大的进步,但是离解决问题还是很远很远。到了21世纪,大牛换了一批,然而吹的风气照旧。有人声称,到2010年,AI 将超越人类本身的智慧。等到了2010年,又有人称应该严肃认真地考虑近期实现通用人工智能的可能性,自动驾驶汽车将在不久的将来变成事实,IBM 说,沃森将会在医疗行业掀起一场革命,FACEBOOK 启动了 M 计划,要造一个满足主人任何需求的机器人,它既能帮你订餐,又能安排度假。

然而事实却不断地给那些预言家们打脸。2016年,一名特斯拉车主启动了自动巡航系统后,便沉湎在电影《哈利·波特》之中。一辆白色的厢车违反交通规则,企图横穿高速公路掉头,自动巡航系统不能分辨前方的白色物体是什么,一再提醒车主转入人工驾驶,但车主没有意识到系统的提示,汽车一头扎进了厢车的车底。2017年,不少医院停止了与 IBM 的合作,因为沃森给出的一些建议不安全、不正确,甚至结果无法接受。鉴于沃森的遭遇,FACEBOOK M 计划也在2018年叫停。看来虎头蛇尾是 AI 的传统。

一些智者在看到 AI 出现的问题,非常感叹。例如美国前国务卿亨利·基辛格著文称,AI 的危险可能极其巨大,就像印加人面对西班牙文化一样无法理解。甚至有的人会对 AI 产生崇拜和敬畏之心,史蒂芬·霍金则表态,AI 的发展可能是人类文明史上最可怕的事件。

你也许会纳闷,为什么人工智能答题和下棋那么厉害,而在开车、疾病诊断、居家服务上就不行了呢?作者分析道,目前在 AI 成功的例子中,设计初衷都限定在狭隘的专业领域内。例如,沃森在电视比赛中,回答的只是针对性的问题,例如“哪一个小说家引发了一场大战”,答案是《汤姆叔叔的小屋》的作者斯托夫人。沃森能回答这个问题,因为它存储了美国前总统林肯曾当面对斯托夫人说的话:“你就是那位引发了一场大战的小妇人。”埃尔法 go 更是局限在19×19的棋盘内,换一张11×11的小棋盘,它就不知所措了。

这些 AI 是狭义的 AI,不是广义的 AI。广义的 AI 是通用的人工智能,有能力灵活地适应疆域无限的世界。例如,一个图像识别机器人,看到柜面上一把手枪,它的输出一定是武器,而人类,即使是儿童,环境告诉这是一个甜品店,他就会明白那是一颗手枪型的巧克力糖。广义的 AI 能够综合各方面的信息做出判断。因此,开拓可以信赖 AI 的关键,是要在人类心智的内在结构中寻找线索。

说到这里,又有一个问题浮现出来,如果人工智能真的拥有了类似人类的心智,那它们会侵犯人类吗?作者明确地告诉大家,这种现象是不会发生的,至少在看得见的将来不会发生。心理学大师史蒂芬·平克说,人类造出了飞机,比老鹰飞得更高更远,力量也更大,但是你从来不会担心飞机会俯冲下来抓走牛羊。机器人的处境与此完全一样。他说,即使我们真的发明了超出人类智慧的机器人,它们为什么会想要让主人沦为奴隶而征服世界?目标与智慧之间没有直接的联系,聪明并不等同于有欲望。

不过当前的 AI 确实存在不少风险,下面我将从应用者、设计者和 AI 本身三个角度来说说这些风险。

从应用者的角度看,存在过度信任 AI 的风险。前面提到的特斯拉自动巡航系统就是一个例子。美国中部的堪萨斯州还发生过这样一件事,警察用谷歌的翻译系统与一名不懂英文的汽车司机交流,说要检查他的车,见司机没有反应,警察就搜查了他的车。事后,司机向法院控诉说,警察在他不知情的情况下搜了他的车。法院调取了谷歌的翻译记录,判决错在警察,因为那个翻译系统没有准确地将警察的话翻译给司机。这两个例子说明,过度信任是使用 AI 的最大风险。

从设计者角度看,追求完美的愿望会给 AI 的应用带来风险。为了完美,设计者常常会用过于精细的资料来训练机器人,给机器人设置了各种苛刻的条件,一旦情况不符合,无所适从的机器人便胡来了。例如一个停车场的标志,由于被人贴了一些小广告,智能系统将它识别成冰箱,死也不肯朝前行驶。设计者过分控制的欲望也会带来隐患,有的设计者在使用者不知情的情况下,利用软件获取用户信息,或者向用户推送广告。此外,设计目标偏差也会带来风险。据说有公司设计的机器足球赛的机器人,因为设计中过度强调控球,而减少了很多射门良机。

更多的风险来自 AI 技术本身。所有的 AI 设备或软件,都必须经过训练才能使用。训练有两种,一种由设计者训练好再交付用户,像美丽的聊天机器人伊丽莎;另一种是让用户自行训练,以契合用户的不同需求,例如智能扫地机器人在使用前会熟悉室内布置,制定最优巡航路线。几乎所有事先训练好的设备都有很强的针对性,从而导致过度依赖数据,不能适应环境变化,一旦环境出现异常,就会失去控制能力,也就是通常说的鲁棒性差。

另外,相当多的 AI 系统是在社会环境下完成学习训练的,这些系统容易被不良分子利用,造成种族歧视、性别歧视的社会影响。例如在谷歌上用“教授”一词进行搜索,结果出现的大多数是白人男性教授,尽管美国女性教授人数超过50%,有色人种的教授也不少。另外,在社会面训练的时候,用户会有从众心理,例如看到很多人选 C,也就不加思考地选取了 C,于是导致了信息向某个方向的聚集,影响 AI 技术的正确使用。

很多人将规避这些风险寄托在深度学习上,然而深度学习真的能解决这些问题吗?深度学习可以追溯到误差反向传递算法和分层模式识别。误差反向传递算法简称 BP 算法,是20世纪70年代提出的人工神经网络的算法。这种算法首先利用输出信号与理想信号之间的偏差,来调整最后一层神经元的全值,然后再调整前一层神经元的全值,全值调整逐层向输入层发展。因为顺序是从输出端到输入端,因此叫反向。分层模式识别是生理学家大卫·休伯尔和托尔斯滕·维泽发现的一种生理现象,他们发现不同的视觉神经元在图像识别中担任不一样的角色,有的辨识轮廓,有的辨识内容,而识别复杂内容的过程要由多个神经元协调完成。后人将这种多层结构引入了神经网络,还将图像识别中非常有效的卷积算法用来完成计算神经元功能。分层与卷积算法极大地减少了全值修正时间,加快了收敛速度。

深度学习是目前最成功的 AI 技术,IBM 的沃森和谷歌的 Alpha Go 都是用了深度学习算法,当今国内广泛应用的车牌识别、图像识别也都是用了深度学习算法。然而深度学习也有自身的弱点。首先,要得到成功的应用,深度学习系统必须经过大量的学习,也就是说训练样本必须充分。据说 Alpha Go 除了被灌输了人类棋坛几乎所有的棋谱,还自己与自己下了3000万局棋,才奠定了胜利资本。然而在很多实际应用中,很难找到那么多的训练样本,样本一少就会影响系统的工作成效。其次,对于深度学习的系统,我们不清楚网络是怎样产生这个结果的,就是说它的学习过程是不透明的。如果网络识别有误,我们很难找到产生错误的原因。正如一幅漫画说的,你将一大堆数据丢进线性代数里,然后到另一端去等结果,如果结果不对怎么办?那么你搅动一下这堆东西,再等结果,直到正确为止。第三,深度学习的识别能力是脆弱的,它非常容易受骗。MIT 做了一些有趣的实验,他们做了一个三维海龟模型,让识别二维图像的深度学习网络来识别,即使将这只海龟浸入水中,系统依然认为这是一把来复枪。

总之,尽管深度学习的能力很大,但是你还是不能过分相信它。在成功应用的背后,AI 也有两处软肋,一是阅读,二是管家。

2017425日,美国的《纽约时报》刊登了一位名叫舍恩伯格的萨克斯演奏家怀念埃拉·菲茨杰拉德的文章,埃拉·菲茨杰拉德被称为爵士乐第一夫人。文章前面有这样的一段引文:“今天应是埃拉·菲茨杰拉德的百岁诞辰,洛伦·舍恩伯格这位纽约客在1990年为爵士乐第一夫人做萨克斯伴奏,此时已接近他职业生涯的终点,他将他比成一瓶陈年的红酒。”有人将上述文字输入阅读系统,然后再输入下面五个问题:

一、埃拉·菲茨杰拉德1990年是否还健在?

二、1960年她是否健在?

三、1860年她是否健在?

四、洛伦·舍恩伯格与埃拉·菲茨杰拉德是否见过面?

五、洛伦·舍恩伯格是否认为埃拉·菲茨杰拉德是一瓶酒精饮料?

不管是托福还是 GRE,这绝对是一道小学水平的阅读理解题,根据字面就可以正确回答。但是 AI 的阅读软件居然一个也没有答对。为什么这么简单的问题都无法回答呢?作者认为,目前机器阅读主要依靠的是匹配和相似性检索,缺乏分析、归纳与推断的功能。例如,机器能够从字面检索到1990年这几个字,但因字面上体现不出爵士乐第一夫人就是埃拉·菲茨杰拉德,因而无法正确回答第一题。同样的原因,不能将1960年、1860年、百岁诞辰等名与埃拉·菲茨杰拉德产生联系,更不懂得比喻的修辞手法了,因此都不能答对。尽管智能软件很擅长匹配和相似性检索,但是在检索中也常常会出现错误。例如读者问:“第一座桥梁是哪年建成的?”由于数据库里收集的是更精确的“第一座石桥”“第一座木桥”和“第一座铁桥”,而检索系统不会比较这些桥的建成年份,因此无法给出正确答案。作者就此实验了一下,谷歌的回答是:“第一座钢铁建筑的桥梁是1779年建成的。”答案显然不对。

第二个例子,AI 机器人做不好管家。尽管亚马逊有 ALEXA,苹果有 SIRI,它们都享有盛名,但离一个管家的要求还很远。为了说明机器人管家应有的性能,作者设计了三个场景。第一个场景是埃隆·马斯克要邀请20名客人举行一个晚间派对,需要机器人管家为派对打点。这个机器人能端着盘子在客人间穿梭行走,盘子里装着客人点的食品与饮料,它需要准确地将食品饮料送到正确的客人面前,还需要将客人用过的餐具取走。由于现场会发生一些意外情况,例如有客人的杯子摔碎了,需要清扫,又比如客人认为这盘食品有问题,需要换一盘等等。对于一个职业管家来说,这些事情非常简单,但是目前还没有哪一家公司能造出胜任这些事的机器人管家来。第二个场景是一位盲人需要一个机器人在他出门的时候为他带路。曾经生活中这种角色多由儿童担任,被称为“盲童”,是一项非常简单的工作,但是对于机器人来说,完成这项任务难度却很大。难度来自意想不到的突然事件,例如一个小孩突然窜出来,前方一条狗突然停下来撒尿,遇见了盲人的朋友,两人希望说几句等等。不可预见的情况实在太多,这些无法预见的情形让机器人带路时束手无策。场景三是福岛的核灾难,派机器人去救援。目前的机器人可以完成进入现场和拍摄任务,但是不能自行决策应对各种可能情况,例如,机器人发现了三名需要救援的受困者,它无法决定应该先救哪一位。这三个场景说明,当前的 AI 技术无法对可能发生的各种事件进行预判,也不能在多种方案中裁决哪一种处理是最合理的。作者认为,要让机器人做好管家,建立认知模型和建立深度理解是关键。

那么通往未来可信的 AI 的路径是什么呢?

第二部分,作者就提出了构建可信任 AI 的一些建议。人工智能与人类的差距在于对这个世界的认知水平,因此作者给出的建议从认知科学出发的。认知科学发端于20世纪50年代,是实验心理学、理论语言学、计算机科学等学科领域交叉形成的一门更为整体的学科。作者给出的第一个建议是,AI 技术想要进一步发展,可以从认知科学得到启示。这些启示可以归纳成三类,来自人类认知基础的启示、来自人类认知手段的启示和来自人类认知模型的启示。

先说人类认知的基础,人类的认知来自遗传。作者认为,人的基因里带有先天的认知和融合能力。现代脑科学认为,与一生下来就会走路的生物不同,人类在出生之际大脑发育是不成熟的,婴儿出生后大脑继续发育,但是这部分发育与他后天的经历无关,而仅仅取决于个体基因。作者比喻说,基因里包含一个又一个 if-then 函数,then 所示的结果早就蕴藏在人的胚胎中了,只等待那个 if-if 来激活。人们强调学习实质是希望激发这些 if,而对于机器学习来说,如果这个激活的 if 引导的不是需要的 then,或者说根本没有这个 if-then 语句,那么激活又有什么用呢?作者遗憾地指出,目前机器学习研究很少关注与生物领域和心理领域的互动。

再来说说人类认知的手段,人类的认知是高度结构化的。人类认知过程至少可以分为两类系统,一类可以称为快系统,这类系统处理不需要经过大脑思考直接就会发生的反应,例如有的人一遇到争辩的场合就会脸红、语速加快、情绪高涨;另一类可以称为慢系统,需要经过思考,从分析和推断中产生应对方案,例如在争辩中是针锋相对,还是先抑后扬,或者旁敲侧击。在人类的认知过程中,这两类系统几乎是同时工作的,但也会分别进行,是根据实际需要调节的。除了高度结构化的认知系统,人类在认知过程中还会对人或事的演化进行跟踪。例如,在判断一辆车的安全性时,人类通过对车辆既往行驶过程的认知,知道这辆车后门曾经被撞过,一年前还换了变速器,但是 AI 在识别这辆车时,可能只看到当前新漆过的外貌和听到平稳行驶的声音。对历史的了解可以加强认知的正确性,这也是人工智能在学习中需要加强的。此外,人类在认知过程会自觉地采用抽象、归纳等思想方法,通过抽象和归纳可以加深对事物的认识。人类在认知过程中广泛使用语言,而人工智能的学习更多的是文字或数据,在通常情况下,语言可以比文字表达更多和更复杂的信息。

最后是来自人类认知模型的启示,人类的认知模型通常是因果模型,而人工智能模型多数是依赖相关关系的。人类对于事物的认识常常是依赖环境的,而人工智能对于事物的认识常常是固定的。例如字母 B 形状的符号,当它夹在字母 A C 之间时,人们知道这是字母 B,但是当加在1214之间时,那么应该是13。然而,人工智能识别常常是不顾上下文的。

总之,人工智能的认知模型目前还是单一的、固化的、数据型的。一个普通的人,尽管在某个方面不如人工智能,但是在综合能力上,他会胜过人工智能,因为人具有常识。人工智能的进一步发展非常需要吸取人类认知规律的指导。常识是人类思维的出发点,尽管常说“金鸡报晓”,但是常识告诉大家,即使公鸡不叫太阳也会准时升起。尽管披萨饼和硬币都是圆的,披萨饼可以做的像硬币那么大,叫小馅儿饼,但是硬币绝对不会铸得像九寸的披萨饼那么大,这也是人们的常识。

作者的第二个建议就是应该让人工智能了解人类的常识,变深度学习为深度理解。让人工智能的机器人拥有人类的常识,是很多机器人公司长期的追求,他们也花了很多精力,设计了不少方法。例如,有公司用爬虫技术在网上爬取人类的常识,当爬虫软件读到像纽约、巴黎和柏林这样的城市,这个短语马上会记住纽约是城市,巴黎是城市,柏林是城市,并录入数据库。但是这样的数据库会很庞杂,一来检索困难,二来爬虫抽取的信息总存在不足,例如有人问“巴黎春天在哪里”,机器会误认为是巴黎的春天,在茫然了一会儿之后会输出法国。也有公司采用众包的方法搜集人类的常识,这种做法与维基百科差不多,任何读者可以在网上输入信息,数据库照单全收,即使出现矛盾也不管,因为有矛盾很正常,人与人之间对同一事物的认识本来就未必一样。这种做法的不足之处主要在于,一般读者提供的常识无法用计算机语言准确的表述。既然众包不行,那么让训练有素的计算机业内人士来完成吧,很多专家都尝试过这种方法,至今还有一个进行中的项目叫 CYC,已经历时30年,目前还没有公开使用,不少专家并不看好这个项目。

作者认为,上述让计算机掌握常识的方法是不可取的,他们提出用建立一些常识表征的框架来代替具体的内容。书中提出了三个平行的框架,第一个框架是以时间进展为线索,任何事件都与时间相关记录,先做什么再做什么,如倒酒,先开瓶盖再倒酒叫顺序,而对于救火,先救室内被困的活人,再救困在树上的小猫,这叫缓急。现在已经制定了一套形式逻辑系统,可以用计算机能懂的语言,将情景与随着时间的变化发展描述出来。正像记叙文中有详写与略写一样,计算机也能做到在某些时间节点上进行特别的描述。第二个框架是以空间和事物的形状为线索,现代计算机图形学已经能够通过光线处理,将一个复杂环境中的各个物体准确地描述和区分,因而一些静态的物体比较容易处理,困难的是一些可变的物体,例如网兜,计算机描述一个空网兜,反映网兜上线结的结构和线结间断线的长,给出有几个网眼都毫无困难,但是要表征一个装了三个辣椒的网兜,表现一个放不下的大西瓜,因为不确定性太大,计算机就无能为力了。第三个框架是以因果关系为线索,广义地说,因果关系包含世界上随着时间变化的一切知识,这些知识可以是通用的,也可以是特定的。因果关系是有时间顺序的,应用的时候可以从因推断出果,也可以从果反过来断定因,例如按下开关键,电视就开了,如果你发现电视机打开了,那么可以断定一定有人按下了开关键。很多时候,一个结果是多种原因造成的,有时候一个原因也会造成不止一个结果,需要综合考虑。推理也是常识的一部分,人工智能很擅长推理,不过人工智能容易陷入无穷推理的怪圈,例如根据常识,狗的妈妈是狗,而莱西是条狗,人工智能立即推断莱西的妈妈是条狗,然后容易继续推断莱希的妈妈的妈妈是条狗,这样一直下去,所有的结论都是对的,却是没有意义的。而机器在做这种推断的时候,消耗了不少的资源。

总而言之,基于深入理解的人工智能,需要从表征人类常识开始,可以采用时间、空间和因果关系的框架,并融入物理、化学等基本知识,在这些基础上开发推理技术,以处理在应用中发现框架架构中不完整的地方。

AI 可以做很多事,而且正在发挥越来越大的作用,但是大家还是要多一个心眼,千万不要太相信 AI。作者的愿景是建立可信的 AI,它应跳出大数据与深度学习这个框架,让出厂的产品就预装带有价值观、常识和对世界的深度理解。

对于未来的 AI 技术,你有哪些期待呢?欢迎在评论区留言分享。

《如何创造可信的 AI》这本书就为你解读到这里。



"感谢喜欢,赞赏支持是对我的鼓励。"

微信收款码   微信收款码

很赞哦! (0)

上一篇: 《生命3.0》

下一篇: 《数据的真相》

发表评论

本栏推荐