人工智能不会做什么.pdf
http://www.100md.com
2020年2月17日
![]() |
| 第1页 |
![]() |
| 第19页 |
![]() |
| 第27页 |
![]() |
| 第44页 |
![]() |
| 第127页 |
参见附件(4117KB,152页)。
人工智能不会做什么是作家羽生善治写的关于人工智能的书籍,主要讲述了人工智能所带来的好处,人类自己所有的特质,人工智能的可行性以及如何与人工智能相处。

人工智能不会做什么内容提要
人工智能的开发面临哪些课题?它们与人类有哪些本质上的差异?
随着人工智能围棋程序AlphaGo打败世界第一人类棋手,代表人类最强大脑的日本将棋名人羽生善治开始思考人工智能取胜的原因。他采访了世界各地的人工智能研究者,了解人工智能的研究情况和应用情况,独家采访哈萨比斯、孙正义等行业内走在最前列的人。
有人认为只有人类才会进行创造性工作,但是已经出现了会画画、会写诗的人工智能程序;有人认为只有人类才有感情,但将脑科学家的研究成果运用于人工智能后,它也能模拟感情,根据交流对象的反应产生喜怒哀乐的表情;有人认为人类才会交流,但微软在中国推出的人工智能机器人小冰已经可以用不同的对话取悦不同的交谈对象。在人类和人工智能的差异越来越小的世界里,我们将要如何界定生命?
人工智能的发展将会走向何方?和“最强大脑”羽生善治一起,思考人类、机器人以及我们这个世界的未来发展,描摹人工智能的未来蓝图。
人工智能不会做什么作者信息
羽生善治,当今最优秀的日本将棋棋士之一,在日本将棋七项头衔中获得其中六项的“永世称号”,并保持着王位、王座、棋圣的头衔。他也是日本将棋史上第一个达成七冠王的人,改写了将棋界多项历史纪录。连AlphaGo开发团队DeepMind的创始人哈萨比斯也是他的粉丝。
人工智能不会做什么章节预览
01人工智能即将赶超人类“减法”思老
AlphaGo带来的震撼
对话戴密斯·哈萨比斯
现在,为什么要敌力王开发人工智能?
人工智能vs老鸟警察
我对人工智能感兴趣的原因
人工智能开始做“减法”思老
人类的优势在王“通用性”
思考的基础
将棋界已经预见人工智能时代的样貌
人工智能的思维方式是“黑箱”
三子关系问题
人工智能没有恐惧心
人工智能会使人馏于思老?
作为第二意见的人工智能
来自人工智能的新思老
人工智能无法创造出船梨糙[4]
报告1深化深度学习
02人类所具备的独一无二的特质——审美
机器人能在断生人家里泡咖啡吗
棋手可以预估多少步?
太局观的奥秘
从让算能力到经验值
摇棋适合做减法
图形识别能力是关键
100万局,3000万步
开源推动进化
如获得宙美
与将棋软件对局的策略
水平线效应与每况愈下
每天练习解残局
现代将棋的学习法
故事与数据库
重美并非一成不变
关王“你能否战胜人工智能”的问题
报告2记忆与人工智能
03接近人类的人工智能—感情、伦理、创造性
人工智能会不会招待客人
孙正义的愿量
感情地图的构成
业知识是否可以被运用于开发
Pepper的学校
叠手帕很难
机器人学习伦理
全世界共通的伦理
使人工智能具备法律人格
机器人的体贴
机器人在必要扭在人权吗?
人工智能画的羽生善治像
知道“这是人工智能的作品”吐的反应
美也会由王人工智能产生变化
人工智能没有时间概念
报告3如何教直机器人
04制造万能人工智能的可行性——通用性与语言
人工智能分为三种
框架问题
不可思议的方法——马尔可去链塑特卡尔理论(MCMC)
图灵测试与中文房间
人工智能可以理解语言吗?
人类也被关进了中文房间
学习与推论
实现通用型人工智能的路径
且本与欧美的研究环境差异
从将棋软件看到的造物热情
报告4实现通用型人工智能之路
05怎样与人工智能相处
2007年的发言
100亿人类与100亿机器人共在的社会
不要过王相信人工智能
人工智能是威胁吗?
每个人都要直面人工智能
人工智能与教育
学习的高速公路
多样性产生进化
我是如何对待信息的
如何充分发挥经验的价值
与不在一个层次上的智能共回生在
深入理解将雄软件
回归原始的娱乐
定义智慧
报告5人工智能的社会应用
人工智能不会做什么截图


目 录
前言
01 人工智能即将赶超人类——“减法”思考
AlphaGo带来的震撼
对话戴密斯·哈萨比斯
现在,为什么要致力于开发人工智能?
人工智能vs老鸟警察
我对人工智能感兴趣的原因
人工智能开始做“减法”思考
人类的优势在于“通用性”
思考的基础
将棋界已经预见人工智能时代的样貌
人工智能的思维方式是“黑箱”
三子关系问题
人工智能没有恐惧心
人工智能会使人懈于思考?
作为第二意见的人工智能
来自人工智能的新思考
人工智能无法创造出船梨精[4]
报告1 深化深度学习
02 人类所具备的独一无二的特质——审美
机器人能在陌生人家里泡咖啡吗
棋手可以预估多少步?
大局观的奥秘
从计算能力到经验值
将棋适合做减法
图形识别能力是关键
100万局,3000万步
开源推动进化
如何获得审美
与将棋软件对局的策略水平线效应与每况愈下
每天练习解残局
现代将棋的学习法
故事与数据库
审美并非一成不变
关于“你能否战胜人工智能”的问题
报告2 记忆与人工智能
03 接近人类的人工智能——感情、伦理、创造性
人工智能会不会招待客人
孙正义的愿景
感情地图的构成
专业知识是否可以被运用于开发
Pepper的学校
叠手帕很难
机器人学习伦理
全世界共通的伦理
使人工智能具备法律人格
机器人的体贴
机器人有必要拥有人权吗?
人工智能画的羽生善治像
知道“这是人工智能的作品”时的反应
美也会由于人工智能产生变化
人工智能没有时间概念
报告3 如何教育机器人
04 制造万能人工智能的可行性——通用性与语言
人工智能分为三种
框架问题
不可思议的方法——马尔可夫链蒙特卡尔理论(MCMC)
图灵测试与中文房间
人工智能可以理解语言吗?
人类也被关进了中文房间
学习与推论实现通用型人工智能的路径
日本与欧美的研究环境差异
从将棋软件看到的造物热情
报告4 实现通用型人工智能之路
05 怎样与人工智能相处
2007年的发言
100亿人类与100亿机器人共存的社会
不要过于相信人工智能
人工智能是威胁吗?
每个人都要直面人工智能
人工智能与教育
学习的高速公路
多样性产生进化
我是如何对待信息的
如何充分发挥经验的价值
与不在一个层次上的智能共同生存
深入理解将棋软件
回归原始的娱乐
再定义智慧
报告5 人工智能的社会应用前言
寺院慎一
日本NHK大型企划开发中心监制
在1996年版的《将棋年鉴》中,有这么一段耐人寻味的内容。
这是一份调查问卷《电脑什么时候能战胜专业将棋棋手?》,请专业棋手填
写回答。1996年,正是IBM的超级电脑深蓝(Deep Blue)打败国际象棋世界冠军
的前一年。
大多数棋手都斩钉截铁地表示了否定,认为那一天不会到来。例如,米长邦
雄说:“那一天永远不会到来。”加藤一二三则说:“不会有那一天吧?”村山圣的
回答是:“那天不会到来。”真田圭一说:“100年之内应该是不会输给电脑的。”乡
田真隆说:“那一天终究会到来。但是,电脑却是永远也无法超越人类的。”不
过,有一位棋手几乎完全正确地预言了电脑战胜专业棋手的日期——那就是羽生
善治。他的回答是“2015年”。
恰巧在2015年,日本NHK电视台开始制作特别节目《天使还是恶魔:羽生善
治,对人工智能的探究》(节目于2016年5月播放)。与羽生先生初次会面的时
候,我也这样问过他:“羽生先生,您可以战胜人工智能吗?”
“如果用田径比赛来比方的话,现如今的人工智能差不多在尤塞恩·博尔特
(Usain Bolt)的水平,运气好的话人类说不定能赢。但再过几年,人工智能就会
达到世界一级方程式锦标赛(F1)赛车的速度。那时候,人类就不会再有与人工
智能一较高下的想法了。”
在专业的将棋棋手接二连三地输给人工智能的时候,羽生先生作为“最后的壁
垒”,被寄予了极大的期待。可是他本人却认为,在将棋的世界里,人类再也不可
能战胜人工智能了。
不过,羽生先生在说起这话的时候并无遗憾,更无不甘。他的语气很淡然,一如既往,甚至可以说对人工智能的进化发展充满兴奋的期待。
我们的节目之所以会请羽生先生来当采访记者,正是因为他虽然切身感受到
了人工智能的进化,却并不认为这种进化是对人类的威胁。在他看来,人工智能
的进化为人类开拓了新的可能性。
当今,全世界正在进行一场科技革命。人工智能、机器人、虚拟现实
(VR)、增强现实(AR)、宇宙开发等各种爆发性的科技发展,正在不断地改
变我们的生活。甚至有人预测,到2045年,电脑就可以超越人类智慧的总和,达
到技术奇点(singularity)。
在制作这档节目之前的2015年1月,我们还曾制作过一档由5期节目组成的系
列特别节目《我们的未来》,并在节目中描绘了在到达技术奇点的2045年,世界
将会是怎样的景象。
技术的进化已无法阻止。所以这个节目不如说是一档为大家思考应如何构筑
幸福、如何进行选择而提供背景知识的节目。而《天使还是恶魔》这档与人工智
能相关的节目,也始终贯彻了这一理念。节目并不站在“人类vs人工智能”这样单
纯的对立角度上进行思考,而是为了拓展人类的可能性,对如何使用人工智能进
行思考。
羽生先生毫不犹豫地接受了我们的工作委托,并耗费了大量地精力进行了采
访。他在各场棋赛的间隙,随同我们的采访组马不停蹄地奔赴英国、美国和日本
各地,消耗了大量的精力。在传出羽生先生在将棋对局中战败的消息时,我们全
体工作人员都从心里觉得非常过意不去。不过,正是因为有羽生先生对人工智能
的关心与亲身感悟,才更好地引导了我们这个节目。
根据节目制作时采访的成果,我们写作了本书。负责执笔的是羽生先生和本
节目的导演之一中井晓彦(制作局,科学环境节目部门)。本书的每一章都以羽
生先生的语言作为引子,切入各种论点的“核心”。而各章的末尾的“报告”,则由
中井导演根据采访成果,进行客观地解说,并对关联话题进行补充。
羽生先生的智慧,是可以让日本在全世界为之自豪的。羽生先生亲自采访、亲手执笔的本书,在如何对待不断进化的人工智能这一问题上,给予了我们很多
启迪。羽生善治是如何直面人工智能的,而他对未来又有着怎样的构想?——希望
各位读者能随着羽生先生的引导,畅想人工智能将会带来的未来。AlphaGo带来的震撼
2016年3月,韩国专业围棋棋手李世石惜败于谷歌旗下的英国公司DeepMind
所开发的人工智能程序AlphaGo。这场比赛一共进行了5局,李世石的成绩是1胜4
败。
李世石是世界上屈指可数的顶尖围棋棋手,他以独创的棋风和难以逾越的强
大,被称为“围棋界的魔王”。这样的人物被Al-phaGo击败,世间所受到的震撼可
谓非同一般。
在这场战斗开始之前,舆论普遍认为,现在的围棋软件在和人类顶尖棋手下
棋时,人类棋手至少要让三四个子,软件才可能与其平分秋色。在围棋界,这种
让对方在棋盘上先布几子的情况,被称为“让子”。当双方棋手水平有差距的时
候,有时会采取让子的方法,在开局前让水平较低的选手先布几子。这对于将棋
界来说,类似于“让驹战”。在围棋中让三四子,就相当于将棋棋手在让驹战中,做出“除去飞车”或“除去飞车与左旁香车”这样的非常大的让步。
恐怕,李世石先生内心也觉得自己不可能会输,在对弈前是非常放松的。
也正因为如此,在初战中察觉到对手的强大之时,李世石先生也同观战的我
们一样,无法掩饰自己的惊讶。
事实上,在这场对局开始之前的2016年2月,我曾与DeepMind公司的CEO、同时也是AlphaGo的开发者之一戴密斯·哈萨比斯(Demis Hassabis)进行过会面。
我们会面的目的,是为了制作这本书的基石——NHK特别节目《天使还是恶
魔》,但当时AlphaGo的开发才开始1年左右。那时的我说什么也想不到,李世石
会在这场对弈中落败。
哈萨比斯先生为人爽朗,善于交谈,给我留下了很深的印象。他是将棋、扑
克等思维竞技类游戏的爱好者,同时也很擅长这些游戏。
他原本是著名的国际象棋棋手,13岁时曾获得同年龄段世界级比赛的亚军。
在被特许跳级进入剑桥大学之后,他选择了学习认知神经科学等相关学科专业,并一直致力于游戏、人工智能相关的研究与开发。对话戴密斯·哈萨比斯
说回采访时发生的事。因为我也长年下国际象棋,所以见面之后,哈萨比斯
先生二话不说就和我下了两盘超快棋。
在将棋界,有一句话叫“对弈即对话”。我想从国际象棋的行子中,应该同样
可以看出这人的思维方式。哈萨比斯先生的行子方式颇具全局观,在攻守方面的
着力也很平衡,无论怎样的局面,都应对自如。在我的印象中,这种下棋风格就
是所谓的王道派,行子堂堂正正。我们对局的结果是一胜一负。我觉得,从他的
棋风中所体现的遵循王道的性格,也会体现在他的工作态度上。
在对DeepMind公司的采访过程中,有件事令我很感兴趣,那就是虽说这个项
目由熟知思维竞技游戏的哈萨比斯先生掌舵,但在这个人工智能的开发过程中,却鲜少运用到围棋方面的知识。
在这个项目中,相关人员最为重视的始终是人工智能相关的程序开发知识。
在采访当天,与哈萨比斯先生一同接受采访的工程师虽然对国际象棋了如指掌,但对围棋却不甚了解。不过同样,在将棋软件的开发中,人工智能的开发者不了
解将棋也是常有的事。
那么,AlphaGo是如何变得这般强大的呢?
当我询问哈萨比斯先生的时候,他告诉我,其中一个最直接的原因是,AlphaGo与自己进行了无数盘对弈。令人惊叹的是AlphaGo的运行速度,它可以以
极快的速度完成每一场比赛。在很短的时间内,程序就可以取得几十万局的对弈
数据。羽生善治(右)与戴密斯·哈萨比斯先生(左)对局,最终结果为1胜1负
普通的个人开发者要做一个月的事,DeepMind公司在一天之内就能实现,这
正是他们的厉害之处。
人工智能之间所进行的那些对局,看起来并不高妙。然而,庞大的对弈数据
的累积,最终使得工程师们所开发的人工智能战胜了李世石先生——尽管这些工
程师对围棋知之甚少。
AlphaGo与李世石先生之间的对弈,恐怕是现在举世瞩目的人工智能开发中
的一件极具象征性的案例。那么,人工智能的开发为什么会获得全世界的关注
呢?现在,为什么要致力于开发人工智能?
在我看来,目前的人工智能发展,主要有赖于三大要素的互相作用。
第一个要素,就是大数据。
人工智能通过大量数据来进行学习,数据越多,就越强大。例如IBM公司在
1997年开发的国际象棋程序“深蓝”,它曾在这一年的系列比赛中打败了当时的世
界冠军、俄罗斯的加里·卡斯帕罗夫(Garry Kasparov)。
当时,“深蓝”搭载了100万局以上的棋谱数据,每秒钟可以计算2亿步。20年
前的程序虽然还没有如今的程序这样简洁,但是利用过去的对局信息与强大的计
算能力,“深蓝”以“推土机式”[1]
的战法战胜了人类。
第二个要素,是硬件的发展。
十多年前,公立函馆未来大学研究人工智能的学者松原仁教授曾说过:“硬件
如果进步了,将棋软件就会自动变强。”因为,硬件的进步会使电脑的计算能力达
到每秒百万步甚至亿步,软件自然也就变强了。
这个认知基于英特尔公司的创始人之一戈登·摩尔(Gordon Moore)提出
的“摩尔定律”。这一定律是关于电脑发展进步的经验法则,根据这一定律,在空
间不变的情况下,集成电路的密度一年半增加一倍,所以电脑的计算速度也会以
指数级急速增加。
第一次听到这个说法的时候,我只是漫不经心地觉得“原来是这样”,并没有
放在心上。然而最近在将棋界,电王战[2]
越来越受到人们关注。看到将棋软件的
显著进步,这个说法对我来说才有了更切身的感受。
举例来说,AlphaGo在与人对弈时所使用的机器的计算能力并不是特别厉害
的。然而,AlphaGo在学习阶段使用的是DeepMind的母公司谷歌的巨大计算资
源,并依靠这些资源快速积累了大量的数据。
AlphaGo的胜利,要归功于能够处理庞大数据的软件和支撑了该软件运行的硬件技术。可以说,如果没有称霸世界的超大规模IT企业谷歌的支撑,就不会有
AlphaGo的成功。
除了大数据和硬件的发展,还有第三个要素,那就是“软件”部分的发展,特
别是深度学习(deep learning)的兴起。
听说过深度学习这个词的人恐怕不少。近来,人工智能引起了越来越多的关
注,主要就是因为深度学习。
在由被称为神经式网络(neural network)的模拟人脑学习方法构成的人工智
能算法中,它是最近最受瞩目的部分。人类的神经细胞通过电子信号互相传递信
息,而信息传递的结合部,被称为突触。将这种由突触结合来表达知识的原理通
过数学建模,就构成了神经式网络。
这其中最令我感兴趣的,是所谓的误差反向传播算法,因为这种算法通过删
除回答错误的神经细胞来修正答案。
用我的理解来对这个算法打个比方:
如果每一个神经细胞都是一个人,在一起进行传话游戏。第一个人得到的信
息是“猫就是长成这样的生物”,就像传话游戏一样,每一个神经细胞都向自己周
围的其他神经细胞传递这个信息,这样一来,终端就会知道“猫原来是这样的
啊”。
那么,如果要传一句“今天外出去新宿公干”,这句话如果只经过两三个人的
传递,应该是可以准确地传达给终端的。但是,如果通过50个人来传递这句话,会得到怎样的结果呢?
从第一个人开始,在若干次的传话之后,内容很可能在不知不觉中变成了“明
天去日本桥的百货店买东西”这类与最初的信息毫不相干的东西。为什么会变成这
样呢?往往是因为传话的过程中出现了不可信的人,夹杂了乌七八糟的信息。
那么,要怎么解决这个问题呢?拿将棋的学习来说,在将棋学习中,最重要
的并不是记住更多的东西,而是让自己舍弃多余的思考。同理,在玩传话游戏的
时候,就要把这种乱传话的糊涂蛋从游戏中抽离出去。之后再重新开始游戏,就可以正确地向终端传递信息了。
具体来说就是这样的:传话过程中,如果与A相邻的B告诉A“今天要去新宿
公干”,而与A相邻的C又对A说“明天要去日本桥的百货店买东西”。这时候根
据“传话游戏”的结果,首先应该认为C是不可信的,降低对C的信任度。(本书分
享更多索搜@雅书)
这样重复几次之后,哪个人传的话更值得信任就很明确了。在我看来,这就
是误差反向传播算法的本质。
我以前经常在将棋的书里提到,减少处理无用信息的“减法”思考,是人脑思
考的特征。而深度学习中竟然含有这种“减法”思考的要素,这实在是让我觉得很
有意思。人工智能vs老鸟警察
当然,人工智能并不是仅仅应用于围棋或象棋的软件里的,人们普遍认为,人工智能将在今后参与到更大范围的人类社会活动中。
成为这本书出版契机的NHK特别节目《天使还是恶魔》,就告诉了大家人工
智能是如何开始悄然改变我们的社会的,其中介绍的事例中有不少已经进入了实
际应用阶段。
在采访过程中,我了解到不少人工智能实际参与社会事务的事例。其中最令
我惊叹的,是美国某个城市里发生的一件事。
那个城市的治安很差,警察一直为此感到头痛。因此,警察局进行了一项让
人工智能来决定应该去哪里巡逻的实验。但实验中人工智能不断指示前往巡逻的
区域,却是拥有20年经验的老警官认为“这个时间那里一定很安全,不用巡逻”的
位置。
警察按照人工智能的指示前往那块区域巡逻,结果是令人震惊的,当地的犯
罪率真的发生了急剧下滑。这是因为人工智能通过大数据,可以筛选分析出“今天
这里有曾经犯下恶性犯罪事件的罪犯被释放”等信息,优化了警察应该去巡逻的场
所。
NHK特别采访组还采访了一家美国的初创企业,这家企业所开发的人工智能
系统通过照片,缜密地发现了专科医生也没能发现的癌症。由这些例子可以看
到,人工智能正在不断渗透到我们社会生活的各个角落。我对人工智能感兴趣的原因
虽然我与节目采访组一起采访,可我本人在人工智能这方面并没有任何专业
知识。不过,我对人工智能与社会的走向怀着非同寻常的兴趣。就让我先来说明
一下我对人工智能如此感兴趣的原因吧。
就在因特网出现的前后,将棋界也发生了翻天覆地的变化。作为棋手,早晚
都要面对这种科技的进步,所以一直以来,我都在关注科技发展的动向。
在国际象棋界,人工智能程序曾在20世纪90年代中期取得了很大的进步,并
在进入21世纪之后拥有了决定性的影响力。如今的国际围棋比赛中,人们一边确
认人工智能提示的“评价值”,一边看比赛,这已经是一件寻常事了。
在国际象棋、围棋和将棋的程序中,由于要对棋步和局面进行判断,所以会
有用于评价每步棋好坏的函数。程序就是利用这种评价函数来预测之后棋局的发
展,并算出较有利的下一手。所谓的评价值,就是根据评价函数为每一步棋评出
的分数。
特别是在国际象棋中,棋手在评判新棋步的时候经常用软件来进行辅助,这
已经是很普遍的现象了。我想,这早晚也会成为将棋界常见的情形。
我曾与人工智能研究者松原仁教授等人一起出版过一本叫做《知晓未来的头
脑》(2006年)的书,这本书讨论了人类的思维模式与人工智能思维模式的差
异。在那之后,我与认知神经科学方面的学者也有过很多次接触的机会,并一直
对人工智能相关的发展状况进行了追踪。从这个意义上来说,我对最近的人工智
能风潮并没有太多惊讶,只有一种“这一天总算来了”的感觉。
不过在参与NHK特别节目之际,看到导演给我的一大堆资料,我还是吓了一
跳,心想:“人工智能居然已经进步到这种程度了!”
未来学学者雷·库兹韦尔(Ray Kurzweil)曾经在他的著作《奇点临近:当计
算机智能超越人类》中提出了奇点的概念。
他在书中预言,在不久的将来,人工智能超越全世界人类智力总和的奇点就会到来。而从那时开始,机械的智力将会以指数级成长,以至于人类无法比肩。
库兹韦尔还在书中做出了很多预言,例如人类劳动力将完全被机械代替等。第一
次阅读这本书的时候,我不怎么相信他,不要说是半信半疑,连10%都不信。
然而在看到近来人工智能的发展状况之后,我不禁觉得,那种如同科幻电影
一般的预言,似乎正在逐渐变成现实。听说库兹韦尔也正在携手谷歌合作进行研
究,那么他这些看来“不可轻信”的观点,恐怕是相当的可靠。人工智能开始做“减法”思考
今天,人工智能已经取得了相当大的进步。
我之所以会这么想,还有另外一个理由。那就是我不得不意识到,人工智能
正在习得人类思考的优势。
在将棋中,作为“算步”的前一阶段,首先要做的是删除那些不用去想的棋
步,在进行这项工作时,对棋手来说非常必要的素质就是直觉。
棋手在看到盘面的一瞬间,要马上能够判断出“这种布局似乎很棒”,一下子
把无须思考的棋步舍弃,把最优的棋步范围缩小到几个之内。在电脑将棋中,这
叫做“剪枝”。
人工智能可以在1秒内计算几千万步,在“算步”方面比人类占优势。但是,运
用“减法”运算筛选出可行的棋步,却是人工智能一直以来的短板。然而AlphaGo
却能在计算棋步的同时进行筛选作业。
这就是所谓的策略网络(policy network)技术。使用这种技术,虽然未必会
得出正确答案,但却可以通过大致的计算获得基本正确的回答,舍弃那些明显无
效的解。
这样一来,电脑就可以只留下有希望获胜的棋步,接下来就能在限制时间内
进行非常深层的“算步”了。我认为,这个策略网络的作用,很有可能就相当于人
类的直觉。
这种技术可以说极大地提高了“算步”的效率,而且它与人类的思维方式非常
相近。我认为,这也是AlphaGo如此强大的秘密之一。(本书分享更多索搜@雅
书)人类的优势在于“通用性”
对于近年来的人工智能的发展,还有另一个让我觉得耐人寻味的地方。
与戴密斯·哈萨比斯先生会面的时候,他在历数人类智慧的优点时,除了变通
性之外,还提到了“通用性”这个词。
在DeepMind公司与AlphaGo对局的作者
在某个领域学习到的知识,可以应用于另一个领域,这就是人类智慧的优势
——我也是这样认为的。
哈萨比斯先生之所以得出这样的结论,大概是因为他的研究领域是脑神经科
学,所以对脑的可塑性有充分的认识。脑的可塑性的含义,用简单的语言来说就
是,人脑具有变通性,会根据不同的状况做出改变。
在目前的人工智能研究中,通用性是一个非常重要的课题。因为就算深度学
习已经应用于国际象棋、医疗等多种多样的领域,学习了国际象棋的程序也并不
能将其学习成果运用到癌症的检查诊断方面。国际象棋的程序终归只能下国际象棋,医疗方面的软件也只能应用于医疗。
人工智能只能在自身学习的领域专业化,虽然它做出的判断可以达到很高的水
准。
作为生物,人类在任何领域都能进行学习,但这种学习并非“博而不精”,而
且比起只擅长某个领域的学习,这种学习显然让人类更容易生存。人类有着举一
反三的能力,在一个领域学到的东西,可以应用到其他领域。通用性,是人类在
漫长的历史中获得的、远胜于其他生物的优势。
但是对于现今的人工智能来说,这一点还很难做到。思考的基础
关于将棋程序,有这样一件有趣的事情。
在开发将棋程序的检索部分时,开发人员常常会使用鳕鱼干(Stockfish)这
一国际象棋程序的开源代码。当然,在进行将棋的程序开发时,必须要对
Stockfish进行若干调整才行,但是据说,就算不加改动直接使用也很不错。
过去曾有“将棋程序没有通用性”这种说法,因为人们普遍认为,无论是把其
他领域的程序用到将棋上,还是反过来在其他领域应用将棋程序,都是不可能实
现的。
然而,Stockfish却冲破了不同领域的屏障,可以说是跨界程序应用的实例。
话说回来,最近将棋程序的开发开始蓬勃发展的一大理由就是,其他的游戏程序
算法也可以在将棋的程序中应用、转换或导入。
顺便提一下,就连AlphaGo,它的理论背景里也包括了其他的人工智能开发
中也在使用的算法——蒙特—卡罗法(模拟和数值计算的技术之一),以及一些
已经在专业论文上发表过的东西。在开发中,AlphaGo其实并没有什么新的划时
代的技术突破。
DeepMind公司目前还没有公布这个程序的详情。不过我想,如果公开
AlphaGo的检索部分的设置,将棋程序和国际象棋程序一定也能够应用。
这意味这什么呢?那就是尽管国际象棋、将棋和围棋是不同的竞技项目,但
是在思维逻辑方面,说不定有着相同的基础。
虽然游戏规则不同,但追及思维方式和逻辑的根本,这些游戏之间却存在着
共通之处。这也许可以成为我们探索“智慧”的通用性的一个契机。将棋界已经预见人工智能时代的样貌
DeepMind公司不仅在围棋方面有所建树,在其他领域也有涉猎。
2016年2月,DeepMind公司宣布与英国国民保健署(National Health Service)
等合作,开始涉足医疗事业。
不仅如此,DeepMind公司还运用人工智能的算法,把母公司谷歌数据中心的
冷却电耗降低了40%左右。虽然我不知道Alpha-Go的程序与这些案例有多大关
联,但这家公司能在短时间内取得这样的成果,不得不说令人震惊。
随着人工智能在社会上的应用不断深入,人类要如何面对人工智能,将成为
一个问题。因为人工智能表现出的一些特征,与人类以往的思维方式有着很大的
差异。
看着现在以电王战为主的电脑将棋与人类棋手之间发生的各种情况,我们似
乎也可以预见到人工智能在社会中获得普遍应用时可能会发生的情况。这是很有
趣的一件事。
从这个意义来说,电脑将棋正是将来机器与人类之间问题的一个缩影。那
么,就让我来说明一下,人类棋手在与电脑将棋对战时,需要直面怎样的“违和
感”。人工智能的思维方式是“黑箱”
首先,人工智能的思维方式对我们来说是“黑箱”。
特别是现在势头正旺的深度学习。如同之前说过的,这种算法的思路在于让
人工智能通过大量地读取数据来做出判断。所以,不熟悉围棋规则的工程师也可
以开发AlphaGo。
然而随着人工智能不断发展,如果它要做出判断的情况与政治、经济决策有
了更多关联,情况又有所不同了。如果这些重要决策的过程变成“黑箱”,很多人
都会觉得不放心吧。
当然,人工智能得出的结论,我们可以再用人类的思维进行说明解释。可
是,万一人工智能得出了人类根本无法理解的答案,我们要怎么办呢?这种情况
也是我们不得不考虑的。
例如,投球器可以通过设置,投出150公里秒的球,同样,也有可能存在一
个人能够投出如此高速的球。但是,当投球被设置成200公里秒的时候,恐怕就
已经超出了人类的极限,要投出这种异常高速的球,会伤到肩膀。
对于人类的思维领域来说也是如此,就像人的身体会受到物理条件制约一
样,思维也一样是有极限的——虽然抽象的世界导致这个道理难以被人察觉。三子关系问题
能够说明这一点的,是电脑将棋中的是三子关系问题。只要在棋盘的任意位
置上摆放三子,人工智能就可以通过庞大的数据,算出这种下法的优劣——只要
三个子就可以了。
三子关系在将棋判断下法优劣的算法中十分重要,现在的算法正是活用了这
种方法开发出来的。之所以是三子,是因为根据现在的计算处理能力,这个数量
是有效的。将来也可能会出现以四子为基本单位的算法。总之,这个数并不是随
便定下来的。(本书分享更多索搜@雅书)
判断下法优劣的能力是十分重要的,棋手也经常要考虑这个问题。然而,这
种能力并不是“王附近应该有金”“飞车不要放在王附近为上”这类可以从逻辑上说
清楚的事情。在盘面随意放三子就能分析出优劣这种事,人类肯定是做不到的。
然而,将棋程序计算得出的评价值,却极为准确。
我对这个问题非常在意,因此曾向松原先生询问过原因,但他只是回答
我:“哎呀,这个我也不是很清楚呢。”当我进一步问他:“那么,如果人类观察了
一万个这种三子关系的例子,并全部死记硬背下来的话,他的将棋水平会有所提
高吗?”他回答说:“恐怕是不能的吧。”
如果松原先生的话是正确的,那么就表明,人工智能存在着机器可以学习而
人类无法学习的“黑箱”。
之前提到的巡逻的事例也是如此。人工智能得出了老鸟警官也无法预料到的
结论,但是这一结论是将庞大的数据通过怎样的处理得出的,我们却不得而知。
在社会接纳人工智能的过程中,这种“黑箱”的存在可能会成为阻碍人们接纳它的
巨大障碍。人工智能没有恐惧心
电脑将棋与人类还有一个不同,那就是它没有恐惧心。
针对电脑将棋的下法,棋手们经常会提到:“在人看来,将棋程序的下法,经
常有一种‘违和感’。”
这是因为,人工智能常常会下出人类棋手不敢下的棋步。当然,也可以说这
是因为将棋程序不像人类那样有盲点,所以能够自由地选择下法。
然而,一旦人工智能应用于社会,这会造成怎样的局面呢?
尤其是人工智能机器人的情况,没有恐惧心,恐怕它很难立足于社会生活。
我们为了不被路上的车撞到,会很小心地过马路;在乘坐自动扶梯的时候,也会
注意让自己的步伐配合扶梯的运行速度——总而言之,恐惧心使我们可以察觉到
危险。
与“黑箱”的问题一样,当人工智能完成更大的进步,参与社会决策的时候,没有恐惧心会导致怎样的情况发生?它有没有可能做出人类无法接受的、具有危
险性的决策呢?人工智能会使人懈于思考?
就算以上这两个问题能够解决,仍然有可能会出现新的问题。
如果机器人能像人一样在物理空间中移动,人工智能又能帮助我们进行社会
决策,人类可能就会出现这样的想法:“那凡事都交给人工智能就好啦。”这样一
来,我们自身的思考能力似乎会变得越来越弱。
之前讲过,人工智能为巡警指出了合适的目的地,但是一旦将决策权完全交
给人工智能,也许人类自身的直觉就会钝化。
事实上由于技术的发展,这类问题已经发生了。
我在与一些警方人员谈话的时候,他们就曾聊到,由于《个人隐私保护法》
的影响,审问这种方式已经不像以前那样容易获得信息了。所以在审问嫌犯之
前,警方会先查看安保监控的影像。然而,没了审问这种自古以来的办案方式,以前警察的“总觉得这里有点可疑”的直觉,恐怕就得不到锻炼了。
当然,也有人会认为这并没有什么大不了的。可是,如果一直将一切都交给
人工智能来处理的话,一旦发生了系统无法应对的问题,人类要怎么办?谁来解
决这样的问题?
实际上,将棋程序对对战双方形势的判断,也并不是绝对正确的。
从人类角度来看不相伯仲的盘面,不同的软件给出的评价值会有相当大的差
异。这样一来,人们就需要对软件给出的评判进行思考,判断要对软件的评判参
考到什么程度,接下来应该怎样进行选择。而这种选择能力,只能通过在平时一
次次对局中的独立思考来培养。作为第二意见的人工智能
当然,如果人们把人工智能放在假想敌的位置上,放弃对其进行有效利用,并不是一个好的策略。如果对人工智能应用得当,它必定会给人类带来很大的助
力。
就拿用来提供第二意见的人工智能为例。所谓第二意见,是医学界的一个说
法,指患者不仅仅听取一名医生的意见,还听取其他医生所提供的“还可以这样诊
断(或治疗)”之类的建议。
同样,人们也可以不光采纳人类的判断,还参考人工智能“还有这样的可能
性”的提示。
前文提到,将棋程序可以突破人类思考的盲点。换言之,将棋程序改变了棋
手自身的视角。所以我想,是不是还可以这样使用人工智能:在不以人工智能的
判断为绝对的前提下,怀着开放的心态思考“我对这个局面是这样认为的,人工智
能又是怎么看的呢”?
正如我之前所说的,早在十多年以前,国际象棋界就已经把使用软件对棋步
进行分析和研究当成是理所当然的事情了。在初期阶段,软件得出的答案水准参
差不齐,是否能对其进行有效利用,是棋手们一分胜负的关键。但现在大家都可
以使用这个方法了,因此这一点已经无法决定棋局的胜负了。想要决出高下,就
牵涉到能否熟练运用软件,以及如何对包括数据库在内的程序本身进行充分利
用。
在将棋界也是如此,由于人工智能突破了人类盲点,很多人逐渐开始接受人
工智能的建议,认为“实际下了之后,发现这样的下法还不错哦”。现在,甚至已
经有一些人工智能的下法成为了定势。来自人工智能的新思考
像这样以人工智能的提示为参考,思索出新的下法,磨练将棋技术的事例,已是屡见不鲜。人工智能在不断学习,而人类也在通过人工智能不断进步。
对于我自己来说,眼前有机器在以如此惊人的速度不断学习,如果我们只将
其作为得到正确答案的工具,那就未免太可惜了。
对人工智能的算法进行思考和学习,得到新的创意想法——例如全新的审美
(详见第二章),这样的利用方法才更加有建设性,更加意义深远。
关于平时是否使用将棋软件这个问题,在对我的采访中,我经常会被问及。
我自己平时并不常使用将棋软件,只是在对前文中提到的人类无法理解的三子关
系问题进行思考,以及想知道人类能否理解它的时候,对将棋软件进行过考察。
我想,通过人工智能的答案,应该可以找到拓展自己思维的方法。
不过,要让社会中的绝大多数人接受人工智能得出的答案,恐怕会是一个重
要的课题。对事物进行判断或决策的时候,面对并不理解相关问题的人,决策者
能否给出简单易懂的说明,是非常基础,也是非常紧要的。想要让绝大多数人接
受一项决策,就必须想方设法帮助他们理解相关的内容。也就是说,人们可能会
需要一个人工智能版的池上彰[3]
先生。
此外,对庞大的大数据进行恰当的处理,并让其可视化(vi-sualization)的技
术,在将来应该会有大量需求。当人们不明白人工智能在做什么的时候,如果有
一种技术能对其行动简洁明了地进行说明,那么这种技术将会是十分重要的。
总之,在人工智能毋庸置疑已经渗入社会各方面的如今,能否充分运用人工
智能的力量作为第二意见,无疑会成为人们未来的一种技能。人工智能无法创造出船梨精[4]
与人工智能相比较,人类所拿手的领域才会愈加凸显。
例如天气预报。最初一点点的差异,随着时间的推移,可能会变成电脑也无
法预测的复杂情况,这就叫做蝴蝶效应。天气就是其中的一种,政治方面的判断
也与此类似。而像这样在相互纠葛交错的要素集合之间进行决策,似乎还是人类
更加擅长一些。
又例如创造性。如同前文所述,人工智能的创造性与人类的有很大的分歧。
所以我们才说,人工智能的判断有着作为第二意见的可能性。可是,要说人工智
能的成果从根本意义上来讲是否有创新性,这个问题就很难回答了。
在第三章,我们会详细描述能通过计算过去画家的数据,完全模仿画家笔触
的人工智能。类似的人工智能,在作曲界也已经登场。在人工智能有可能创造出
艺术品的如今,我们不禁想要探讨,人类的艺术活动是否真的具有创造性,真正
的创造又是指什么?
创造到底是什么呢?我个人认为,99%的创造是将已经存在的事物,以全新
的方式进行组合。从这个角度来看,这的确是人工智能擅长的领域。
可是,余下的1%或者0.1%也是存在的——这种创新就如突然变异一般,从空
无一物诞生出开创性的创造。
在关于人工智能的演讲或对谈中,我曾提到过:“人工智能无论怎样进化,都
无法创造出船梨精来。”
虽然我说得可能有点夸张,但船梨精的诞生不正是一种开创性的革新吗?而
这种创造行为,似乎是人类才擅长的领域。
不过,在将棋界这样的圈子里,这种崭新的主意却并不会让人觉得惊艳。因
为一旦看的人认为“这不是用电脑分析才找出来的嘛”,就不会单纯地觉得了不起
了。实际上,在率先普及人工智能的国际象棋界,自打进入21世纪以来,就没听
说过有什么高妙的棋招是人类凭借自身力量探索得到的。无论是哪一个
GM(Grandmaster,国际象棋最高称号),都理所当然地在检查阶段使用电脑。
不过这样一来,象棋界可能就无法产生类似牛顿发现万有引力的感人故事了。
当人工智能对人类进行辅助,而人类通过人工智能来学习成为人们的日常生
活方式时,这将会是一个怎样的社会呢?人类在行动时,是不是会像是拥有了一
个超级头脑呢?
脑科学家茂木健一郎曾表示,现代社会是以人类智商不超过100为前提而设
立的。茂木先生还问了这样一个问题:如果人工智能的智商达到4000,社会会是
怎么样的?到那时候,社会的形态可能会发生翻天覆地的改变。
如果,智商4000的人工智能可以像外置硬盘或者智能手机一样让我们随身带
着走……
当然,这只是对于人工智能可能会引起的变化的思考实验之一,有些科幻的
成分在里面。但我认为,这确实是一个值得讨论、令人深思的课题。
人类应该如何与人工智能共存?为了寻求这个答案,我自身也在不断地思
考。诚然,我还没有找到正确答案。可是,通过对电脑将棋界发生的事情的所
见,以及在NHK特别节目采访中的所闻,我想,我多少正向正确答案的方向接
近。报告1 深化深度学习
为什么选择哈萨比斯先生
羽生先生与我们采访组关于人工智能主题节目的制作会谈,始于2015年5
月。当时,世界顶尖围棋棋手李世石与AlphaGo尚未对局,我们甚至连AlphaGo这
个名字都还没有听说过。
但是我们了解到,谷歌收购的DeepMind公司里有一位名叫戴密斯·哈萨比斯
的天才科学家。他让人工智能学习如何玩游戏之后,人工智能拿到的分数很快就
超过熟练的老玩家。
拿Atari公司开发的游戏《打砖块》(Breakout)来说,人工智能只学习了4个
小时就记住了这个游戏的规则,并制定出了能得到高分的策略。这个成果不仅能
应用在这一个游戏上;利用这一成果,该人工智能在多达29种的游戏中获得的分
数都超越了专业玩家的得分纪录。
这种人工智能的算法被称为DQN(Deep Q Network)算法,相关论文曾登上
《自然》(Nature)杂志的封面。(因为在采访哈萨比斯先生的时候,我曾有点
不好意思地提到“DQN”这个词在日本还有其他意思[5]
,所以对此印象十分深
刻。)
该论文提到,人工智能可以“自行认识规则和特征,并建立战略,得出最优
解”。这恐怕就是彼时刚开始引起世人关注的深度学习的本质了。采访到戴密斯·
哈萨比斯先生,我们这个节目也许就能使人了解到人工智能最前沿的信息和未来
的走向了吧——怀着这样的想法,我们开始了对整个节目的策划。
不过,正在我们已经策划好方案,着手进行采访的阶段,AlphaGo仿佛彗星
般横空出世。搜集相关资料进行调查之后,我们发现,哈萨比斯先生居然还是羽
生先生的棋迷。“如果羽生先生能来英国的话,请一定让我见他一面,”他这样回
复。于是乎,我们得到了独家采访权。
两人的一致观点羽生先生花了大约两周的时间协助我们进行海外采访。前半部分的重头戏就
是两次访问DeepMind公司。第一次,我们参加了关于AlphaGo与李世石对局详情
的记者发布会。这是在伦敦与首尔两地经由互联网的会面,对弈的双方都表现出
了自信。
发布会结束后,哈萨比斯先生注意到羽生先生在现场,赶紧跑过来打招
呼:“我一直很期待能与您见面。”两人的寒暄都非常简单,实在看不出来是初次
见面。
拍摄的第二天,DeepMind公司方面的工作人员一早就准备好了国际象棋。我
们一到DeepMind公司的办公室,羽生先生和哈萨比斯先生就开始了使用计时器的
正规对局。令我记忆犹新的是,两人只是对弈了不到10分钟,就变得像旧相识一
般,让围观的旁人不由觉得这大概是天才之间才会有的心灵相通。
羽生先生评价哈萨比斯先生是“堂堂正正的王道派”,而从我对哈萨比斯先生
的印象来说,他是一位“因不懈努力而充满自信的人”。听说每天半夜12点到第二
天凌晨4点,是他用来阅读全世界的论文的时间。
作为一名经营者,哈萨比斯先生是一个非常全面的人。关于人工智能开发的
成果会给社会带来怎样的影响,他也十分敏感。2014年谷歌收购DeepMind公司
时,哈萨比斯先生提出的一个条件就是“设置伦理委员会”。从这件事我们可以看
出,哈萨比斯先生是一个有着很高的道德标准的人。
申请采访的时候,该公司的工作人员很详细地向我们询问了这个节目的主
旨。采访当天,我们也提到了人工智能对社会可能带来的消极影响,哈萨比斯先
生时常认真地点头表示:“我知道会出现这样的问题。”
人工智能的开发工作伴随着重大的责任。对人工智能的运用方法如果不恰
当,就可能引发对人类社会产生威胁的事态。哈萨比斯先生对此铭记在心,但同
时也关注着人工智能可以带来的美好未来。虽然采访时间不过短短2个小时左
右,羽生先生与哈萨比斯先生却已经达成了一致的见解:人工智能的开发不应停
止,人类的进步必须以此为前提。
图像识别是强项哈萨比斯先生开发的AlphaGo究竟是一种什么样的人工智能呢?就让我在这
里进行一下补充说明。
提到人工智能,恐怕有人会联想到科幻作品中常出现的巨型机器或机器人。
但是,它的实际形态只是软件而已。与AlphaGo对局的时候,李世石面前摆放的
不过是一台小小的个人电脑。
那么,这个软件是依靠怎样的算法来运行的呢?其根基正是所谓的深度学
习。
所谓深度学习,简单来说就是一种让电脑“记住学习方法”的机制。比方说,我们想让人工智能认识我们喝水时会用到的水杯。于是,我们让人工智能识别不
同的照片,告诉它“这个是水杯”,“那个不是水杯”。但是利用深度学习,人类就
不必教授水杯具有怎样的特征,只要在人工智能判断照片的时候告诉它是对是
错,它就能自己学到辨识方法(特征)。这就是深度学习的厉害之处。
用到画面的领域特别适合这种技术发挥作用,例如根据X光片来进行诊断。X
光片的画面涉及数万个精细特征,人类可能难以识别,但人工智能却可以。通过
对不足1毫米大小的图像进行识别,人工智能就能够发现癌症早期的迹象或是血
管的异常状态。
此外,在使用图像进行人脸识别的领域,人工智能也备受期待。例如,收集
在某个公共场所的数台监控捕捉到的某个可疑人物的信息,并以此建立人物画
像,就可以追查到其他地方的监控拍摄到的这个人。而且令人惊奇的是,就算是
这个人的背影,人工智能也可以识别。
从上述例子来看,拥有这种超强识别能力的人工智能,将来甚至很可能会代
替医生等需要高度专业知识的职业。
误差反向传播算法
在关于深度学习的段落中,羽生先生以传话游戏的比喻解释它的原理。在这
里,我想向大家更详细地介绍一下这种算法。
人类的大脑在受到刺激后,脑内大量的神经细胞(神经元)会相互联系——增强或减弱联系——来进行信息的传递和处理。而且,神经元的联系并非一对
一,而是多对多。也就是说,神经元的出入口都是由复数个通路连接的,是一个
名副其实的网络。
例如,电子信号通过多个通路进入一个神经元,该信号的合计数量超过一定
的数值(阙值)后,神经元就会兴奋起来,将信号传给另一个神经元。如果无法
超过该阙值,神经元就不会传输信息,信息的传递就会停止。此外,从某个神经
元的输入结合度会很高,电子信号强度也很高,但来自其他神经元的输入信号则
不是这样——这是神经元根据经验形成(学习)的一种“权重”,用以调节信号通
度的难易度。
支撑深度学习的神经网络,正是根据人类大脑的网络结构获得的灵感。例
如,让人工智能识别手写的日文平假名“あ”。因为是手写体,所以不同的人写出
的文字形状各不相同,有些会被人工智能识别成“あ”,有些则可能会被误认为是
日文平假名“め”。这时候,我们就可以认为是网络的某处出了问题。“逆推”神经
回路究竟是在哪个地方产生了较大误差后,调整相关结合处的“权重”来修改信息
通过的难易度(其中也包括了权重设置为零,停止传递信息),说不定人工智能
就能顺利地进行识别了。就像羽生先生在说明中用的传话游戏的比方一样,当发
生误传的时候,就去寻找源头,去除传错话的人,并让游戏重新开始。
发生识别错误时,从结果回溯逆推,即让信号逆流,自动地改变可能有问题
的节点的“权重”。这样重复若干次之后,识别的精度就会提高。这就是误差反向
传播算法,对此加以优化,就是深度学习了。
AlphaGo分析棋步有两个阶段
除了深度学习,AlphaGo还采用了能够减少下一手预判量的算法。这正是羽
生先生在前文中所说的“策略网络”。
哈萨比斯先生——同时也是一位国际象棋选手——将这种“筛选”的算法编入
了AlphaGo,而且还将其分为两个阶段。第一个阶段是筛选出下一步的范围
(value network,价值网络);第二个阶段是根据不同的局势,判断应该预读到
接下来的第几步(策略网络),以此来控制计算的深度,从最少的必要深度中,选出现阶段的最佳下法。不过对于计算机专家来说,这种算法本身并不是一个很难的东西。使用蒙特
—卡罗法的模拟实验和数值计算,就可以算出随着局面增加的各个下法(二叉探
索树)的胜率。蒙特—卡罗法早就出现在一些编程入门的书中,为人们所熟知。
在胜率超过某个特定的数值之前,程序会不断地计算,而当胜率超过这个数值的
时候,计算就会停止。人们就可以大致确定,“试试这样做,应该会很顺利”。
这种办法听起来仿佛很随意,但是如果能够像这样排除那些无谓的战略,电
脑就可以对有价值的战略进行彻底的深度思考。因此从某种意义上,可以说现在
的人工智能的智慧已经从本质上逼近专业棋手的智慧了。而羽生先生早就对人工
智能持有这种观点,他的分析能力可见一斑。
GPU与IoT
深度学习技术的进步令人瞩目,但其概念却并不新颖,实际上在30年前就已
经诞生。只不过这种算法需要对庞大的数据进行并行计算,而当时可以支持这种
计算的硬件还不存在。随着计算机的发展,深度学习的计算在如今终于成为了可
能。
使计算机的图像处理和运算处理速度提升成为可能的硬件是GPU(graphics
processing unit,图形处理器)。它的开发公司英伟达(NVIDIA)近年来在半导
体制造方面的业绩正在迅速提升,这也正象征着深度学习技术的发展进步。
深度学习技术发展的另一个重要原因,是互联网与IoT (Internet of Things,物联网)的出现。
五六个数据还不足以让人工智能利用深度学习来判断正误,深度学习需要的
是数以千万计的数据。
在以前的条件下,存在如此大量数据的领域极其有限,但随着互联网和物联
网设备的出现,状况发生了改变。物联网是指世界上的各种设备都拥有通信功
能,可以互相通信并连接互联网的一种结构。通过这种结构,可以实现自动识
别、自动防御、远程测量等功能。它甚至可以将我们的发言、拍摄的照片又或是
动作和心率都数据化,并发送给第三方。虽然在个人隐私方面,物联网的使用还
存在争议,但它也是人工智能能够发展到今天并利用大量数据的重要原因之一。全世界的研究者vs羽生善治
关于羽生先生与节目制作的一些相关的事情,我想再写几句。
在邀请羽生先生担任这次特别节目的记者的时候,他正忙于比赛。对于他能
否参与海外采访,我们心里七上八下的。可是我们一开口,他马上就答应了。因
为这个节目需要与众多的人工智能领域的研究者进行对话,早就对人工智能抱有
强烈兴趣的羽生先生马上就答应说:“见与闻是大不相同的两回事。如果可以一起
进行采访的话,请务必带上我。”
于是我们定期联系,一边向羽生先生报告制作组的采访情况,一边争取到了
他在头衔战期间的仅有的一些空档,最终确定于2016年2月进行海外采访,同年3
月进行国内采访。
与羽生先生一起采访,总是会发生令人惊奇的事件。
例如,哈萨比斯先生特意带上了自己的对局计时器,与他下国际象棋。又例
如,对软银(Softbank)开发的机器人Pepper进行采访的时候(参见第三章),几
乎从不接受电视台单独采访的孙正义总裁,居然穿着日常服装出现在了采访现
场。
这是因为全世界研究人工智能的研究者们,对代表现代最高智慧的羽生善治
在人工智能方面的看法,充满了兴趣吧?说起来,哈萨比斯先生原本就是羽生先
生的棋迷。
在我们从一个地方到另一个地方的移动过程中,羽生先生也常常阅读相关的
采访资料。在海外的采访中,他有时还会在英语采访中用到一些专业词汇。他不
仅能够跟上对方发言的思路,还能就此提出敏锐的问题。哈萨比斯先生有一句话
令人印象深刻,他说:“人工智能很容易驾驭音乐等数学性的领域。”这正是羽生
先生与他展开激烈论战的成果(参见第三章)。同样,孙正义总裁也因为自己与
羽生先生的对话而深有感触。
无论何时都能够毫无偏见地、变通地进行思考,这种态度也体现在羽生先生
所下的将棋中。我们的节目,正是羽生先生的思考与其灵活变通的感受性相结合
的产物。机器人能在陌生人家里泡咖啡吗
第一章中,我像记流水账一样写下了我对人工智能的一些看法。
高度发展的人工智能问世,并不单单意味着这个世界出现了超越人类智慧的
事物。现在的人工智能还有着明显拿手的领域和不擅长的领域,还不是万能的。
不仅如此,有些人类可以轻轻松松就做到的事,人工智能却完全做不到。
比如说,在陌生人家里泡咖啡这种事,对于任何一个人类来说都不算是很难
的事吧?一个家里哪里大概会有咖啡豆,哪里可能有杯子和滤纸,该在哪里烧开
水——这些对于人类来说,都会有大概的猜测范围,很容易就能办到。
但对于智能机器人来说,就不是这么简单了。在陌生的地方,单是要寻找咖
啡豆,机器人就必须面对无数种可能的放置地点,找起来比人类要费劲儿多了。
虽然智能机器人可以在一瞬间搞定几十万位的运算,但却做不到这么简单的事
情。
话虽如此,人工智能在社会中不断获得应用也是事实,人类要在生活中毫不
受此影响,应该也是很难办到的。因此就像我在第一章所提到的那样,我们必须
以人工智能的判断并非绝对准确为前提,思考如何更好地来使用人工智能。
在面对这个问题时,我们首先要对人类的思考与人工智能的思考有何不同,进行认知和了解。
在这一章里,我们要对这二者进行具体的比较。首先我们来讲一下,将棋的
棋手究竟是依靠怎样的机制来决定自己的棋步的,我将以自身的经验为例来说
明。我希望能在此基础上,明确人工智能与人类之间的异同。棋手可以预估多少步?
对局中,棋手在思考棋步时大致可以分为三个步骤。
隔着棋盘相向而坐的棋手,在对方走出一着之后,首先会利用直觉,进行大
致的判断。
经常有记者在采访的时候问我“可以预估多少步”,这个问题其实很难回答。
这是因为棋手本身很少会去数步数。实际上,我们并没有事先预估很多的步数,而是通过直觉,先将可行的棋步范围缩小。
人们常说,将棋的每个局面平均有80种下法。但是我们可以根据“这里不是中
心,这里现在不重要”等考虑将这么多方案一下子缩小到两三种。这就像是用照相
机拍照时对准焦点一样,瞄准“问题的中心”来思考,棋手从一开始就不会考虑其
他的可能性。如果要将所有可能性都梳理一遍,会花很长时间。
也就是说,与从零开始一点一点思考相比,先找到大概的方向,再进行理性
思考,反而会更早得出答案。
不过,这里说的直觉并不是胡乱猜测。如果硬要用语言来描述这种感觉,它
应该属于“经验与学习的成果在瞬间的作用”;或者说,它是一种能够大致指出“现
在自己在哪里,应该往哪个方向前进”的指南针。这是棋手经过长期训练积累所获
取的技能。大局观的奥秘
像这样筛选了下法之后,就进入了预判环节。这是第二个步骤。
在这一步,棋手要预测对方下一步的走法,以及自己回应之后对方的下一步
走法……总之,尽可能地去预测和模拟接下来的走势。
但到了这一步,我们会遇到计算量呈现出爆发式增长的问题,毕竟,下法的
可能性的数量,是每一步下法的可能性数量不断相乘的结果。例如,这一步我考
虑到3种下法,而每一种下法对方都有3种方法来对应,这时候,我就要考虑9种
可能性。这样的预测持续到第10步的时候,计算量就是10个3相乘的结果,也就
是说,棋手会陷入不得不分析近6万种可能性的窘境。
当然,对于人工智能来说,这点计算量不过是眨眼的功夫。但对于人类来
说,全部计算却是不现实的。尽管我们可以使用直觉来缩小可能的范围,但要预
测接下来的10步,这种困难也是超乎常人想象的。
在这里需要用上的,就是第三个步骤——大局观。这一步的关键就在于不
能“只见树木不见森林”,而是要着眼全局。
因此,从具体的某一步挪开目光十分重要。就是说,要特意避开对“这个飞车
是动还是不动呢”这类具体下法的分析,而是要着眼于从开局到终局的流程进行战
略性的思考。
大局观的优点如同第一个步骤直觉一样,可以让你跳过很多无意义的思考。
如果能看透大局,那么只要认为“这是个好机会”,就可以从千万种下法中只筛选
出“攻击选项”,提高效率和效果。从计算能力到经验值
在大局观这一步,棋手必须充分运用以往对局所获得的经验。
回顾我的将棋生涯,从十几岁到二十几岁的时候,自己主要是依靠记忆力和
计算力来进行对局的。在整体思考的流程中,当时的我会特别倚重算步时的计算
能力。
而且由于年轻时的记忆力很好,又很有干劲,就能够冒险。虽然经验不足,但可以采用所谓的聚焦优势来取长补短。
瞬间爆发力会随着年龄发生变化。实际上,如果必须在10秒内决定下一步怎
么走的话,我年轻的时候说不定会比现在下得更好。
成为专业棋手已经30年,现在四十多岁的我,如果与当年二十几岁的我对
局,虽不知鹿死谁手,但一定会下出一盘精彩的好棋。
这是因为,四十几岁的我通过经验累积,大局观要强于年轻时代。
在思考下一步的时候,四十几岁的我与二三十岁的我看法会不同。虽说流程
依旧是先以直觉把握局面的大致方向,然后以逻辑分析细节进行预判,但在大局
观方面,四十多岁的我花费的精力明显更多。
年轻的时候,我每当在预判过程中发现此路不通,就会返回原点重新计算。
因为体力好、劲道足,所以还可以应付。
当上了年纪,体力就很难支持我这样做了,况且在错误的道路上思考是浪费
时间。现在的我由于在最初阶段就“做出了断”,反而节约了很多的体力和时间。
不过,这个能力在实战中能否顺利应用,就是另外一回事了。所以最近我总
是在对局最开始就考虑如何将局面拉到自己可以活用经验的情势下,并将其作为
我的战略。
也就是说,在对局中如果有经验的棋手能像“油门与刹车的细微加减”一样完美地活用感观来对战的话,就能够凌驾于体力、记忆力和气势更胜一筹的年轻棋
手之上。
直觉、预判和大局观,棋手在对局中正是用了这三种方法来思考的。
这样一来,30分钟左右棋手就能选好下法。当然在对局中,也有棋手经常会
花一两个小时对下法进行思考分析,那是为了选出最佳下法。
但是,花费的时间多并不意味着选出的下法就越好,这一点是最难的。举例
来说,迄今为止我对一步棋思考的最长时间是4个小时左右,可现在回想起来,就算只花五秒钟,我还是会选择那样下的。将棋适合做减法
将棋中很有趣的一点是,棋手在思考的时候,最重要的就是尽可能地削减没
有意义的棋步,也就是做减法。
而且,将棋可能比其他的棋牌游戏更需要减法思考。因为在将棋的很多局面
中,轮到自己时“什么都不做”,往往才是最佳策略。
这一点与围棋有着很大差异。
与戴密斯·哈萨比斯先生对话的时候,热爱思维竞技游戏的哈萨比斯先生对围
棋的特征进行了这样的概括:“落在哪里都好的棋步非常多。”
实际上,在日本围棋界有个词叫“一局棋”,也就是说,就算真正正确的下法
只有一种,棋手也可以有无数种选择。第一步就落在星[6]
上也可以,落在小目[7]
上也可以,落在三三[8]
也没问题。当然,按照AlphaGo那样的软件提示的落子位
置可能非常好,但那也只是可选位置的一部分而已。
反过来说,在围棋中鲜有“这个位置以外的落子都是扣一千分的坏棋”这种情
况。也就是说,围棋中就算落子失误,也不一定会有非常大的影响。
然而将棋的情况则相反,常有“这步以外的下法都是扣一千分的坏棋”。
所以想要在将棋方面变强,最重要的是什么呢?如果问我的话,我会回
答:“瞬间判断出下哪步是错的。”因为,无论棋手能预判多少步,只要其中有一
步算错,之后的算步就都是浪费时间了。也就是说,在将棋中,最佳棋步和次佳
棋步有很大差别。图形识别能力是关键
所谓“瞬间判断出下哪步是错的”,就得依靠我在直觉和大局观的部分中写到
的,通过多次对局累积的经验。那么对于人类来说,什么样的经验更容易累积
呢?换句话说,怎样的经验可以让人更加记忆深刻呢?
在这里举个例子吧。
想要记住刚了解将棋规则的人的对局,是非常困难的。因为他们常常不按常
理下棋,棋局的形势也乱七八糟,所以旁观者很难对局面进行正确的评价和认
识,也很难记住。
将棋与其他棋牌游戏一样,是一种必须拥有图形识别能力的游戏。棋子的配
置可以形成具有不同特征的图形,棋手是否能够清楚地明白这些图形的优劣,与
他们的棋力强弱紧密相关。
另一方面,专业棋手的棋局则由于井然有序而十分好记。在我的理解中,这
里所谓的井然有序,就是指与基本形相近。与基本形越相似,人们就越容易对其
进行识别。所以,过去出现过的局势或一看就觉得眼熟的局势,就更容易记住。
无论从形状方面还是逻辑方面,都是如此。
将问题进一步深化——为什么接近基本形的局势更容易被记住呢?因为棋手
总是会通过大致的情形把握局势,将布子简化来对盘面进行记忆。
实际上,面对专业棋手的棋局,我可以在5秒内记住40枚棋子的配置情况,但是如果棋子是随机放置的,我就很难记住了。对此我曾经做过试验,测了10
次,每次都无法全部记住。随机就是这么难以记忆。
此外,在将棋中将审美与算步相结合,就能更加高效地舍弃错误的棋步。
因为当形状与基本形相差很多,很难记忆的时候,棋手就会有微妙的不协调
感。大家在看书的时候,应该也遇到过虽然语法没问题,但节奏或表达方式让人
总觉得有哪里不舒服的文章吧?虽然在规则上没有问题,但让人很难接受,有不协调感、抵触感——这时
候,就算自认为是“这是步妙棋”,棋手也不会这样走。
相反,也会有觉得“这步漂亮”的时候。通常来说,这样走之后,在接下来的
对弈中我们往往会发现这是一步有序有理的好棋。
我认为,棋手在选择下一步的时候,就等同于是在磨练自己的审美。能否感
受到妙招之美,是判断棋手是否拥有将棋才能的关键。能够将这种审美磨练到何
种地步,关系着将棋棋力的强弱。
为什么人类可以通过直觉,一下子舍弃90%左右的棋步,并用大局观来限制
预判的方向呢?
要进行如此大规模的取舍,核心就在于审美。如果棋形不够美,棋手就很难
在准确的范围内进行算步。100万局,3000万步
与此相对,使用了电脑和人工智能的将棋软件,又是如何进行下一步选择的
呢?
如同之后会展开叙述的那样,虽然最近有些软件也采用了不同的方式(这是
很重要的),但最大的特征依旧是进行人类无法比拟的大量计算,对盘面的各种
可能性进行预判和分析。
将棋软件选择的关键,是第一章中介绍的大数据与硬件的进步。
例如在国际象棋界,早在1997年,IBM开发的深蓝就打败了当时的世界冠
军。深蓝获胜的关键在于国际象棋一直以来就有记录棋局的习惯。就算是业余选
手的棋谱,也有很多存档。
据说,当时深蓝的数据库中有多达100万局的棋谱档案。不仅如此,它还配
有1秒钟可以分析2亿步的硬件。此外,残局——接近终局时盘面上棋子越来越少
的局面——的完整棋谱也发挥了很大的作用。庞大的棋谱数据与计算能力相结
合,使得在软件算法还不是很成熟的20年前,电脑可以战胜人类。
从根本上来说,AlphaGo的能力与深蓝的是一个道理。
AlphaGo的基础部分,是通过网上15万局左右的人类棋谱学习得到的。据
说,它通过这种方法学习了近3000万手的局面和棋步,又通过与自己对局,收集
到了在统计学上可以信赖的数据信息,从而变得更加强大。AlphaGo与自己的对
局数量高达100万局,如果让人类来下,要花一千多年才可能实现。
要完成100万局,大家可能会认为这是非常荒唐的一件事(对于人类来说确
实如此),但是在AlphaGo之间,恐怕10秒之内就能下完一盘。所以如果采用
DeepMind公司能够进行高速运算的电脑,100万局应该是花不了多少时间的。
将棋程序也是如此。如同第一章中所介绍的那样,国际象棋程序也可以将搜
索算步的Stockfish运用于算法,可以与其他电脑以1秒1局、10秒1局的速度,进行
大量练习。开源推动进化
像那样进行算步之后,接下来就到了选择最佳棋步的环节。如果是人类,自
然可以依靠大局观来进行筛选。而电脑在进行择优的时候,就要用到评价函数这
个评价局面的算法。
对于将棋软件来说,评价函数的正确程度是十分重要的,我听说,有些程序
甚至会设置300多种评价指标。
2005年发布的将棋软件Bonanza对于评价函数的发展有非常关键的影响。在
Bonanza发布之前,将棋软件的水平一直停留在业余五段左右的水平,无法进
步,而最近,它已经有了惊人的发展。
这不仅是由于新出现的评价函数的算法很厉害,很大部分程度上也是多亏了
开源这种无偿公开程序代码的行为。
这种行为有多厉害呢?这就好像是世界上同时存在着很多个可以投出160公
里秒高速球的职业棒球手大谷翔平——当然,现实生活中只有一位大谷翔平,但
开源的程序却让人想复制多少就能有多少。而且,人们还能随心所欲地将这种能
力进行优化改良。当所有的棒球队都有大谷选手的时候,以前算得上是王牌的选
手,可能就不一定会被选进首发阵容了(虽然说绝大多数的复制程序会比原本的
程序弱一点)。
从10年前开始,收费的将棋软件就基本卖不出去了,因为免费的将棋程序实
在是太强了,付费版根本没有市场。
但是,免费也助长了将棋程序的开发者们对将棋软件进行开发改造的热情。
这种惊人的热情,促使他们互相切磋琢磨,对程序不断细化修改,这才使得将棋
软件以令人惊异的速度成长、变强。如何获得审美
总结一下本章前几部分讲的内容:人类下棋时,是以直觉、预判和大局观这
三个步骤来进行筛选和判断的,而人工智能则通过强大的计算能力进行预判,最
后再用评价函数来选出最佳下法。
在这里,人类拥有而人工智能欠缺的,就是在筛选下一步时缩小范围的过程
——用直觉感到“大概就是这个样子的”。棋手是依靠审美来缩小范围的,但人工
智能却没有类似审美的能力。
这是为什么呢?
我认为,这与人工智能没有恐惧心有关。
第一章中我们曾提到,人工智能只是以过去的数据为基础,计算出最佳答
案。因此,对于一些人类思考的盲点,人工智能也可以“无所畏惧”地提出来。当
我们看到答案的时候,有时会震惊于它为何会选择如此危险的对策。
这种人类思考的盲点或死角,似乎是我们与生俱来的防卫本能或者说生存本
能造成的。人类为了生存下去,会习惯性地把危险的想法从思考范围内排除出
去。
之前已经反复提到,棋手利用审美来筛选下一步时,之所以感到美,其实是
因为眼前的棋形接近于看惯了的基本形。
我想,人类的审美意识,应该是接近于安心、安定这一类的感觉的。所以,当察觉局势蕴含危险的时候,人们就会感到不安、不协调,无论这步棋看起来有
多妙,也不会使用。
审美可能是人类在漫长的生存史中获得的本能。但是,拥有审美,对于人类
来说亦喜亦忧,既是优势又是弱点。因为,人类所认为的臭棋,在经过深度学习的人工智能看来可能是妙招。而
将棋的棋局中有着庞大的可能性,我们的审美无法认知的地方,可能隐藏着胜算
更大的选项。
这导致人类棋手所能见到的,只是将棋的一部分可能性,从全局来看,这种
看法可以说被局限于十分狭隘的视野之中。
通过这片狭小的视野,我们根据自身经验培养出的审美感受到不合逻辑、形
状不好等直觉或大局观。但在我们不了解的世界里,可能还存在非常高妙的对
策。
也就是说,人类的思考被审美所限制,选项自然地减少了。所以我认为,仅
就这一点来说,将棋软件和人工智能存在的意义也是非常巨大的。
不过,一旦到了将人工智能运用于社会的阶段,人类是否能接受人工智能的
判断,就成了一个很现实的问题。想要战胜审美意识,毕竟是非常难的。
无论是多么正确的选择,人们还是从生理上就不想采用,这种情况不仅将棋
棋手常常经历,围棋或国际象棋的棋手应该也会经常遇到。一旦关系到社会伦理
和礼仪等方面,这种矛盾恐怕会成为更加严重的问题。
我曾经半开玩笑地表示:“当无所畏惧的人工智能拥有了恐惧心,才是真正可
怕的。”因为那样一来,人类就对人工智能的真实想法一无所知了。与将棋软件对局的策略
既然人工智能拥有与人类感性截然相反的一面,那么,我们应该如何面对它
呢?
偶尔我会碰到有人问:“与电脑下棋开心吗?”但认为“比与人下象棋无
趣”的,应该不只有我,恐怕是大多数人的想法吧。实际上,我从来没听说过有棋
手会以与电脑下棋为消遣,这种事在我看来,算不得是休闲娱乐。
拿可以让将棋软件自由对战的网站floodgate来说吧,虽然人类也可以在这个
网站上与将棋软件对局,但实际上很少真的有人类参加。这个网站基本上已经成
为了将棋软件互搏的场所,如果有人类参加,反而会被认为是不合常理。
人类的对局与电脑的对局,原本就是相差甚远的游戏。
如果对局的两个人是人类,那么当对手出招之后,一方会将他的性格特点与
盘面整合,思考“这个人如果这样下,假设五步之后变成这样,那之后就会变成这
样吧”,这是非常有趣的。但如果对手换成了人工智能,又会是怎样的情形呢?
这时候人类棋手的思考方式,就同与人对战时大不相同了。
拿现在的电王战规则来说,棋手可以先把对战软件借出来,在正式对战之前
用它进行练习和分析。与借来的软件不断对局,不断分析,就可以预测这个程序
会选择某一些下法的几率,并在面对不同的局面时,确立相应的对策。不过,软
件采用了随机数字,所以完全预测出来是不可能的,然而对局只有一次(先后手
各一局),准不准就只能看当天的运气了。是否能将局面带到胜算较高的状况,基本看运气——这就是人类与将棋软件对战时的对策。
这种练习和分析方式,与其说是下将棋,不如说是在规定时间内尽可能地在
资源中找到程序的特征和漏洞。
有棋手甚至研究到棋局的第100手,但他们也只能一个劲儿地研究如何预测
分歧点时电脑会采取的下法的概率。这种研究方法,就是通过下1000局甚至
10000局来尽量记得“这种时候,80%会这么下,20%会那么下。面对80%的那步如果这样应对,电脑有40%的可能性会这样还击,60%的可能性会那样还击……”如
果不尝试这么多局,这种统计数据就毫无意义可言。
人类就只能像这样,漫无止境地重复探寻各种下法的可能性和分歧点,选出
软件评价值高的下法。
这样的研究会不断进行,直到对局那天。到最后,棋手甚至会怀疑自己到底
是不是在研究将棋。没有共同的理解平台,双方要在这种思维竞技中感受到快乐
是非常难的。
顺便提一句,我曾听到一位参加电王战的棋手说:“电费超高,简直受不
了。”这点也确实令人唏嘘。水平线效应与每况愈下
不过,今后人工智能真正在社会中得到应用的时候,对其工作状态进行严格
的验证,确保其不会有故障,提升其“健康度”,将是一项十分重要的工作。
当人工智能机器人被导入到社会生活中时,为了确认它真的没问题,真的对
人类无害,事先进行各种检查认证,先行掌握人工智能的优势和弱点,是非常重
要的。
在这个层面上,将棋程序与棋手的对局,也许还有着未来社会模拟实验这样
一层意义吧。
举例来说,现阶段人工智能的课题中,有一个问题叫做水平线效应(horizon
effect)。
简单说明的话,就是说人工智能有“将问题延后”的习惯。例如,如果程序能
预判后20手,就会发现现在这个下法是负1000分的臭棋,但对于只能判断后10手
的程序来说,这个问题在水平线的另一头,所以程序就会毫不犹豫地选择眼前看
起来只是负10分的棋步(看起来损失更小)。从结果上来看,这种下法就是把问
题拖延到后面,尽量地选择拖延战败时间。
在AlphaGo的对局中,李世石唯一获胜了一局,恐怕也是由于这个缘故。这
种水平线效应对于电脑程序来说,很可能是致命的弱点。
有一个词叫每况愈下,水平线效应正意味着人工智能故意选择了这样的未
来。对于我来说,如果“下这里还能再持续50手,但却没什么胜算”,那么我可能
会冒着在10手后被将死的危险,选择有获胜机会的下法。
这种水平线效应,还涉及人工智能应该如何把握认输时机和方式等问题。在
将棋和围棋的对局中,判断自己毫无胜算并认输,实在是一种非常像人类的行
为。
当然,我们可以将软件设置为超过评价系数的一定值时投子认输,但这并不
等同于本质意义上的认输,让软件深刻地认识到几乎没有赢的机会,承认自身的失败,是非常困难的。
不过即使对人类来说,要用长远的目光对某样事物的利弊进行判断,也是非
常困难的一件事。
有这样一种说法,国际象棋的软件如果突然下了一步看起来对自身来说不利
的棋步,这时候人类就会比较容易犯错。这是一种非常经典的技法,大约三四十
年前就被发现了。据说,打败了国际象棋冠军卡斯帕罗夫的深蓝中,也包括了这
种程序。也就是说,也有一种程序专门利用水平线效应,诱导人类棋手失误。
人类也好,人工智能也罢,都有犯错的可能。我们可以理解人类犯下某种程
度的失误;但同时,我们很可能会过分相信电脑的能力,误以为人工智能绝对不
会犯错。每天练习解残局
我已经根据自己的理解,解释了人工智能与人类的思考过程的区别。在这个
基础上,我们来思考一下人类与人工智能今后要如何相处吧。
首先要确认的一点是,人工智能通过深度学习获得的成果,人类是否也能学
到。
也就是说,人类不仅要学习人工智能导出的结论,而且要通过这些结论认识
到自身思考的盲点,改变自身的审美。
不过,这可能办到吗?
如今在将棋界发生的事情,也许可以作为参照。
说到底,将棋界极力宣传技术导入,并不是自人工智能诞生才开始的。在我
成为棋手之后,就出现了电脑普及带来的棋谱数据化及利用网络进行在线对局这
两项大型改革。
那么,在这之前的将棋界,是怎样一幅光景呢?回顾我刚开始接触将棋的小
学时代,当时的我一直只能靠自己钻研罢了。当然,那时候既没有数据库,也没
有互联网。所以,当时的我几乎每天都在练习解残局。
日本江户时代成书的《将棋图巧》,是一本集结了经典残局的书。书中的
100道题都非常难解,甚至有些题解开一道要花个一个月左右。
残局题与实战不同,某种意义上是作为消遣鉴赏被创作出来的。虽然是古人
创作的问题,艺术性却很高。被这种美所俘获,也是我能够一个人埋头解题的原
因之一。
另外,江户时代的将棋界基本采用宗家制度,它与茶道、花道一样,是世袭
制的,家主的位置代代相传。家主最重要的工作就是每年一次在将军面前表演其
技艺。据说,集结一门之力来创作残局题,并献给将军,在当年也是家主的工作
目标之一。形成现在这种以对局为中心的将棋文化,其实是最近的事。这样一想,可以
说在互联网和人工智能登场之前,将棋就已经在跟着时代转变了。
不过我觉得,解残局作为练习手段,就好像蛙跳训练之于体育界。解残局的
训练主要也就是培养了持续思考的能力,并且可以学习和吸收残局作者的审美。
但是从提高将棋水平的观点来看,这种方法未必有效率。或者说,我当年所
使用的学习法,可能在今后会变得毫无意义。我想,现在的年轻人可能已经放弃
这种学习方式了。这就像是体育界的变化,除了注重与体能相关的锻炼之外,运
动员还慢慢地开始注重营养管理。
之后,我虽然进入了将棋联盟培养专业棋手的奖励会,但将棋与工匠一样,是没有具体课程的。虽然有师父,但师父却不会手把手地教你,基本都要靠自
学。不过,自学的环境是完备的。这就是将棋界的传统学习方式。现代将棋的学习法
那么,数据库与互联网出现之后,将棋界又发生了怎样的变化呢?
其实没有多大变化。如果想看棋谱,人们还是可以在奖励会看到。虽然网上
可以实时观看专业棋手的对局,但要怎样学习,却还是自己的事情。
在其他的领域,学习者通常会有教练、课程安排,或者可以根据值得信赖的
教科书来进行训练。所以从某种意义上说,将棋界的发展是迟缓的。
只不过,基本靠自学这种风气并不意味着不利。
多亏这样的环境,数据库甫一出现,棋手们就尝试通过数据库来学习,当互
联网出现时,人们又会思考要如何利用互联网来学习,产生了一种独立思考的文
化。
其实在以前,将棋界也曾出现过轻视事前研究战略和下法的风气,认为这是
不自信的表现。但是当数据库出现后,这种风气已经荡然无存。
随着互联网的出现,棋手们又开始在网上进行练习。这批棋手如今正处于年
届三十的年龄层。
我本人是通过在奖励会的对局中不断进步而成为专业棋手的。而如今,通过
在网上进行大量的对局而成为专业棋手的人,也已经有十几位了。其中还有人在
网上进行过几千局对战。此人进入奖励会的时候,就已经有很强的实力了。
此外,信息的地域差别也变小了。
以前,很多居住在小地方的孩子虽然喜欢将棋,却无法提高实力。但现在由
于有了在线对局,这些孩子在地理上的不利因素已经消失了。只要自己肯努力就
会变强——从这个意义上说,将棋界变得更公平了。
不仅如此,从整体教育水平提升的意义上来说,在线对局能够相互对话这点
也很重要。对弈者不仅对局后可以讨论,在对局中也可以进行对话,这意味着除了将棋练习之外,棋手还可以在对局中讨论“这里下得不错”“这里有点奇怪”之类
的,这是十分重要的。
可以阅览大量的棋谱数据,可以实时观看棋手的在线对局,可以在自己家进
行对局训练。这些条件为大家提供了很容易融入个人习惯、也具备即时有效性的
学习法。眼下,我们还有将棋软件可以作为新的学习选项。
随着技术不断发展,今后也许还会出现使用软件练习来变强的一代人。在这
样的趋势中,我也一直关注着人工智能在将棋界的出现。故事与数据库
接下来才进入正题。其实,不止是训练的方法,对将棋本身的认识,也随着
技术的发展产生了很大的变化。
例如由于数据库的出现,我们想要回溯过去的棋谱时,不管多少都是可能
的。
不过,记住历史,并不等同于有一个棋谱的数据库就好了。经常按时间回顾
过去的棋谱,才能对自身的知识进行评判和整合,加深理解。
以经验和自己的思考为依据,数据的集合才会成为历史,组成故事。
曾经,人们将定势和棋形当成是故事来认知。棋手们会记忆这些故事如何产
生、如何发展,又或者是通过共享“这一招在那个对策出来之后就被消解了”这样
的轶闻,在实战中对这些对策进行活用。
将这种故事与定势相结合的好处很大。某种形的下法开始流行,再消亡,是
一种必然规律。让人有印象的故事存在于脑海中,人们就可以据此在对局中找到
对策:“对了,还有这种下法。”
不过,由于数据库的出现,对局的环境已经发生了改变。在将棋研究会上,一旦出现了新的想法,棋手们马上就会开始研究相应的对策。
这样一来,“在那场对局中,这个定势第一次出现……”之类的故事,基本上
已经不再有意义了。在官方对局的场外,新下法的讨论也在一直不断进行。
这种倾向在在线对局出现之后变得更为显著。例如,有一种说法叫“避免居
玉”。所谓居玉,是指玉将(王将)从一开始就没动过的状态。虽说“玉要围起
来”,但实际上,现在也有观点认为不围起来也可以形成有利的形势。这么多划时
代的新下法不断产生,正是因为现在的棋手不被自古以来的定势或棋形所局限,进行各种挑战。
如果古代的棋手见识到了现代的将棋,恐怕会很惊讶吧。往昔的审美所没有的新下法不断出现,流行的下法变化之快,使人眼花缭乱,近代的将棋界与现代
将棋界,就好像近代绘画之于现代美术。审美并非一成不变
在这里,让我们再一次回到之前提到的“面对人工智能,人类能够改变自己的
审美吗”这个问题上来。从某种意义上,我们已经得出了结论。
人类的审美本来就是在不断变化的,绝不是一成不变的。
我自己虽然一般来说不会回顾自己的棋谱,但偶尔见到了过去自己的棋谱
时,有时候难免会觉得“啊,这个棋形当时觉得很美,现在怎么这么丑呢”,甚至
觉得丑得难以接受。
不过,如果现在的我觉得10年前的自己很糟糕,那么10年之后的我很可能也
会觉得现在的自己很糟糕吧?这样的瞬间会让我觉得,人类的审美的确是在不断
变化的。
其实,这两年由人工智能创造出的新下法,已经对棋手的正式对局产生了影
响,最显著的例子就是矢仓战法的锐减。
曾有这样的说法,“掌握矢仓就能称霸棋界”,因为矢仓战法是王道派必定会
下的。由此可见,它经过了许多人长时间的研究和验证。但是,矢仓却无论如何
都无法打败某个软件创造出的新下法。结果,棋手们现在对矢仓唯恐避之不及。
这可谓是名副其实的人类被人工智能所影响,甚至改变了思考本身的典型事例。关于“你能否战胜人工智能”的问题
目前为止,我们已经说明了,能基于审美来对选项进行大致范围筛选的人工
智能尚未诞生。但是,在了解到最近的人工智能的动向之后,这种说法似乎有点
站不住脚。
就像在第一章中提到的,AlphaGo的神经网络和深度学习中,加入了“虽然不
知道是否是最优解,但正确答案应该是这个方向”这种筛选下法的步骤。
我经常被人问到“你认为自己与人工智能对局能赢吗”这样的问题。每当这
时,我就会想:“将棋软件能够读取的数据库中,有我以前几乎所有的棋谱吧?”
这不就意味着,要与包括我在内的过去所有的棋手对峙吗?我想,这个问题
相当于是问我:“与所有的人类棋手对局,能赢吗?”这实在是个难以回答的问题
啊。
我们也许可以这样说:人类在通过人工智能进行学习的同时,人工智能也在
通过人类进行学习。报告2 记忆与人工智能
目击羽生善治令人震惊的能力
在海外采访的过程中,羽生先生受到了各地将棋爱好者的盛情招待。其中最
令我印象深刻的是在美国旧金山发生的一件事。那是一个有三十多人参加的聚
会,男女老幼都有。羽生先生同时与三个孩子进行了将棋对局。
这种情况叫做“多面打”,常常在专业棋手参加的活动中出现。对于第一次见
识这种场景的我来说,羽生先生仿佛化成了三个人,而且他还能配合对方的棋力
下指导棋。最令我惊讶的是,三局结束之后,羽生先生还能把每一局的棋谱都记
得清清楚楚,甚至能按照落子顺序进行讲解,指出在某一步怎样下会更好。
在对弈中,羽生先生不仅会思考当前局面中,下一步应该怎样应对,还会记
得之前每一步是怎样走的,甚至还能指出对方如何落子才能胜利。他可以完完全
全地追溯整个对弈过程,并找出改善的策略。这让我感受到,人与人之间的“记忆
算法”在本质上具有很大的差距。
记录与记忆的差异
DeepMind公司的戴密斯·哈萨比斯先生在接受我们的采访时曾表示,他接下
来想要挑战的主题是“记忆”。目前为止,人工智能还无法将学习到的数据运用在
其他场景中。因此,这些数据可以说是被覆盖,而不是被记住。
以表明亲族关系的家谱为例。我们人类就算是听说了家族中不同人的兄弟姐
妹、祖父母或双亲的关系,也能够在脑海中将这些关系自动组合形成整个家谱,回答出上述随便两个人之间的关系。信息一旦进入脑中,大脑就能够进行有体系
地整理,并据此做出新的判断。这种记忆的构成是人类独有的能力之一,但倘使
人工智能也能具备,它就会拥有更强大的判断力。
对于将棋来说,记下某一个局面中各棋子的配置,可以被称为记录。但是棋
手在看到棋子的配置之后,就会想起目前为止的棋路,或是想起相似场景下曾经
思考过的相关信息,并据此思考下一步该怎么走。所以这与记录不同,应该属于记忆的范畴。
不仅棋手有这样的经历,我们其他人其实也是一样的。比方说,考试前需要
记住很多东西,在这个过程中,我们往往会同时记住曾经做错这道题时的场景,以及因为做错而觉得不应该的情绪。
此外,还有因为闻到某种气味而想起某件事,或是听到某个特定的乐曲而想
到某个场景之类的例子。我们会不自觉地将性质完全不同的信息整合为完整的记
忆。通过这些例子可以发现,现在我们人类所使用的记忆与人工智能的记录相
比,涵盖面更广,是一种更深层次的东西。
逼近记忆的科学家们
其实,哈萨比斯先生已经迈出了关于记忆方面的算法开发的第一步。2016年
10月,哈萨比斯先生的团队发布了他们新开发的可微分神经计算机
(Differentiable Neural Computer, DNC)。这种计算机可以将分析好的信息先储存
到神经网络外部的储存器里,再根据不同的状况,将必要的信息单独抽出来。这
样一来,前面提到的家谱问题也可以用这种人工智能来简单解决了。人类的记忆
由人脑中被称为海马体的部分来负责,DNC通过程序,再现了这一人脑组织的部
分功能。
哈萨比斯先生一直在挑战对人脑进行数学解析这个难题。接受我们采访的时
候他甚至表示:“人类的智慧可以由电脑再现。”他可以说是一位言出必行的实干
家。
如今,在世界各地,解析人脑算法的研究都在加速进行。获得1987年诺贝尔
生理学或医学奖的生物学家利根川进先生也是相关项目的研究者之一。2016年3
月,他所在的研究组发表了一个令世界瞩目的研究结果——该团队成功地使用人
为方法,恢复了患有阿兹海默症的小白鼠失去的记忆。
利根川先生在报告中表示:“阿兹海默症患者可能并非丧失了记忆,而是无法
将记忆唤醒。”如果继续推进这项研究,也许人类脑中消极沉睡的记忆也会被置换
为积极的。2016年9月,利根川先生的团队还发表了关于其他个体记忆(社会性
记忆)结果的报告。报告提出,在“谁、何时、在哪、做了什么”这些信息
中,“谁”这部分的记忆,是由海马体中的某个特定部分的细胞集合记录的。为了用数学来解释人脑,研究者必须精确细致地了解人脑的算法究竟是怎样
的。可以预见,这些不断积累的人脑研究的成果,将会在人工智能的开发方面得
到运用。
创作“故事”的能力
在人工智能领域,还有其他一些需要时间来解决的问题。羽生先生在采访中
曾向哈萨比斯先生提问:“有哪些事是人工智能做不到的呢?”
哈萨比斯先生回答道:“曾经有人问我机器能否写出精彩的小说,我认为,这
是很难实现的。因为精彩的小说来源于人类的生活,人类写出的文字才可以引起
读者的共鸣。要做需要丰富的创造力的工作,对于机械来说也许太难了吧?”
哈萨比斯先生认为,只要脑是一个物理系统,其内部逻辑和现象在理论上就
可以被电脑完全模仿。但包含意识的“心”却是谜团重重、难以解析的。要创作出
小说那样需要共鸣的东西,必须要有“心”才行,所以这种工作对于机械来说很难
实现。
人工智能会写故事吗?在日本,有一种独特的探讨和摸索正在进行,那就是
尝试用人工智能创作科幻作家星新一式的微型小说。
2016年1月,由人工智能生成的小说竟然部分通过了星新一奖的初审,相关
人士都对此表示震惊。人工智能参赛的笔名是“我是反复无常的人工智能项目作家
哟”。该项目的幕后推手是公立函馆未来大学的松原仁先生。
项目组为了写出星新一风格的作品,让人工智能解析了1000部作品。人工智
能围绕着常用措辞、文章长度、故事推进节奏等方面进行了学习,并生成了各种
各样的故事。只要输入何时、何地、谁等大约60个预先设定元素,人工智能就能
够自动生成文章了。
人工智能投稿的作品中正好有一篇《电脑开始创作小说之日》。这部作品的
开头是这样写的:
“那一天,云层低垂,天气阴沉沉的。房间总是被设置成最合适的温度与湿
度。洋子衣着邋遢地坐在沙发里,百无聊赖地打着游戏来消磨时间。”在这里,“云层低垂”“百无聊赖”“消磨时间”这些词表现出了人无精打采的情
绪,而据说这些词都是人工智能选择的。
此外,故事在描述了人类不再使用的、有了空闲时间的电脑埋头于小说创作
的样子之后,是这样结尾的:“这是电脑开始创作小说之日,它放弃了为人类服
务,开始以追求自己的兴趣为优先。”
实际上,这篇文章是人类从人工智能生成的大量作品中挑选出来的相对优秀
的作品。按照松原先生的说法,这篇小说“八成靠人,两成靠人工智能”。不过他
也表示自己通过这件事发现,曾经认定的人工智能的“不可能”,其实是有可能实
现的。他还表示,开发可以自由操纵语言的人工智能,可以加深我们对人类创作
活动原理的理解,因此他对今后的开发也充满了热情。
就像哈萨比斯先生说的那样,想要创作出可以打动人心的故事,比我们想象
的要难得多。但是如果那些以了解人类为目标的研究进一步取得成果,用人工智
能再现相同的事物也许是可能的。有生之年,我们也许会亲眼目睹这样的人工智
能诞生于世——以记忆为源泉,以语言为工具,能够创造出故事。人工智能会不会招待客人
到第二章为止,我们都在比较人类与人工智能的差异。从第三章开始,我们
来稍微调整一下话题的方向。
第一章中,我们讲到未来学学者雷·库兹韦尔所提倡的奇点:总有一天,人工
智能会具有超越人类的智慧,而到那时,所有的劳动都会被机械所代替。这类话
题常常会出现在与人工智能相关的演讲或是对谈中,很多书里也会提到。在这一
章里,我也将例举电脑将棋与AlphaGo的例子,探讨我们应该如何面对人工智
能。
不过,人工智能的研究还有另外一个方向,那就是接近人类。进一步来说,就是开发像人一样的人工智能。
例如,日本北陆先端科学技术大学院大学中,有一位名为饭田弘之的研究者
正在进行将棋软件的研究。他原本是一名职业棋手,出于个人兴趣,选择了陪客
将棋软件作为自己的研究课题之一。
这种将棋软件与以获胜为目的、尽可能地想办法下赢人类的将棋软件完全不
同。它更致力于陪伴人类,考虑对方的感受,并在不使对方察觉的情况下调整自
己的棋力,直至在对局的最后完美地输给对方,就和人类的陪客高尔夫一般。
饭田先生在这方面已经投入了10年以上的时间,可是开发的进程却不甚理
想。至少,这款人工智能还没有达到能让饭田先生自己认为“很妙”的程度。
这种陪客将棋软件开发困难的原因之一,在于陪客这一行动是非常人性化
的。就像我们在上一章里提到的,人工智能与电脑的思维模式与人类大相径庭,我们完全无法推测他们是怎么想的。
当然,不同的人个性也各不相同,无法完全推测。但人类毕竟拥有审美和直
觉等共通的认知基础。如果没有这些基础的话,难免会有很多无法相容的状况发
生。
不仅如此,陪客将棋意味着棋手本能获胜,却要不露声色地输给对手。这种事对于人类来说也是十分困难的,要让电脑程序达到这样的目的,更可谓难上加
难。
顺便提一下,以前我曾跟随一位老师学习过围棋。那位老师能够清楚地看穿
我的下法,同时一直在对局中保持着只胜我一两目的优势,对我进行指导。
面对业余选手拙劣的棋步,不断调整使自己险胜,这种技术的难度非常高。
这位老师在教初段的我时只胜一两目,在面对四五段的学生时恐怕也只胜一两
目。
我自己在指导小学生下将棋的时候,也会采取类似的方法。不是单纯地输给
对方,而是为了让对方学到攻击的基本形等知识,想方设法诱导棋局的走向。像
这样在了解对手实力的前提下加以指导,对于现阶段的人工智能来说还是太难了
一点。
简而言之,“陪客”这件事过于“人性化”,它的难度很可能远远超出了我们人
类的想象。
因此,即便人工智能可以代替人类接管各种工作,像陪客高尔夫这样的工作
恐怕还是得由人类来做,无法完全消失。一边说着“就差一点儿!”“哎呀,好球
呐!”之类的恭维话,一边以毫厘之差输给对方——在这类技艺上,人类还是远胜
于电脑的。孙正义的愿景
致力于研究陪客这类困难课题的研究者,并不止饭田先生一位。
在NHK特别节目中,我们对好几个向这类方向挑战的人工智能研究开发的现
场进行了采访,其中,我们也遇到了软银开发的机器人Pepper。
Pepper是一种被设计为人型的机器人,于2015年6月开始对普通群众公开销
售,在当时引起了很高的话题热度。
在采访中,我得到了与该公司董事长孙正义先生对谈的机会,趁机向他询问
了开发Pepper的初衷。在孙先生看来,他开发人工智能与机器人的目的不应该局
限于实用性,否则,世界将有随着技术的发展变得人情冷漠的危险。
当然,技能型人工智能机器人在商业活动的现场十分有用,开发难度也比较
低,先以这种机器人的开发为主,也是理所当然的。
但是也有的人工智能及机器人的研究者,其目的与Pepper的开发团队一致,想要解读人类智慧的奥秘所在。他们的理想不是要制造出一个听命行事、能实现
特定目的的机器人,而是想要制造出像人一样的人工智能。
人工智能要具备什么,才能像人一样,是这项研究的困难所在。不过,让人
工智能能够通过独立思考解决各种问题,并像人类一样拥有喜怒哀乐等感情,实
现这些功能,恐怕是制造像人类一样的人工智能必须逾越的难关。作者正在对Pepper进行采访时,孙正义先生(右)突然来到感情地图的构成
我采访的Pepper当时仍在开发的实验阶段。有趣的是,这台Pepper不仅搭载
了人工智能,还搭载了摄像头和麦克风来读取人类的表情和感情,并将读取到的
信息反馈到接下来的行动中。
就拿采访的时候我与Pepper玩花牌为例吧。Pepper在第一次的对局中输给我
之后,本来是有点沮丧的,但当它用摄像头和麦克风认识到每次自己输掉时周围
的人就会很开心之后,它的“情绪”看起来就渐渐好转了。这恐怕是因为它的程序
中融入了这样一个认知——人类的感情会被周围的气氛所感染。
根据开发者的说法,Pepper搭载了一个感情地图程序。这种程序将人类的各
种情感进行了大致区分,构成了一种类似于佛教中曼陀罗的设计。据说,开发者
收集了影响人类感情的荷尔蒙的相关研究,并根据这些研究进行了程序开发。程
序还将感情地图与通过声纹认证获取的信息相匹配,这样一来,Pepper就可以表
现出感情了。
不过对于感情这种东西,人类自己也还没完全弄明白,所以将感情搭载到人
工智能上的尝试,是非常困难的。 (本书分享更多索搜@雅书)
人们乍一看到感情地图,会觉得我们已经完全了解了感情的构造,但这其实
只是万里长征的第一步而已。将感情数字化是非常困难的目标,实际上,只是提
出将感情图表化,这件事就曾经遭到了很多人的反对。作者(左)与Pepper打花牌
话说回来,把人类的感情按照不同模式进行分类,我认为本就是一件不可能
的事情。爱情可以在一瞬间变为憎恶,悲和喜可能会同时涌上心头,人类的感情
并不是单调一元的东西。就算是面对同一个对象,不同的人也不会产生完全相同
的感情。
不过,Pepper的开发组对这部分也已经做了考虑,对这类情况做了一些初步
的设置。在与Pepper接触的这段时间,我一方面被开发组的热情所打动,同时也
深切地感受到,这项工作还有很长的路要走。专业知识是否可以被运用于开发
接近人类的机器人与AlphaGo这样的例子是完全不同的,就目前的技术来
说,想要在很高的程度上实现我们想象中的那种人性化的机器人,还是非常困难
的。
在一个有关人工智能的研讨会上,东京大学的人工智能研究者松尾丰先生见
到某个研究室的机器人正在哭泣时的样子,发言道:“这个假哭做得非常精细。”
这句话是在怀疑,这个机器人的哭泣是人类为了让它像人类而事先设置好的
行为而已。如果只是事先的设置,那么就算这个机器人在当时的情景下做出了非
常类人的行为,也未必能在其他场景下做出同样的行为。
另一方面,与机器人不同,人脑是有可塑性的。在某个场景中采取过的行
动,也能在其他场景中应用。这种高性能的组织结构,尚未完全被人认识理解。
我想,在这种理解完成之前,想要让人工智能像人那样行动恐怕是不太可能的。
不过,上文中介绍的AlphaGo及电脑将棋的开发者中,绝大多数其实都不是
围棋或将棋领域的专家。AlphaGo的工程师之一大卫·席尔瓦(David Silver)先生
就不太了解围棋。同样,开发了照片查癌工具的杰瑞米·霍华德(Jeremy
Howard)先生也曾说过自己对医学知识一窍不通。
开发人工智能这件事,重要的并不是特定领域的知识,而是为了让人工智能
进行学习所必备的编程技术。这一点,在所有领域的人工智能开发中都是共通
的。在使人工智能具备“人性”的开发过程中,大概也是同样的道理。
话虽如此,研究达到一定程度之后,提升的空间就会变小,进入停滞不前的
状态。这时需要的就不仅仅是改程序,还需要相关领域的专业意见来作为参考
了。因此,在将棋软件的开发中,大概也会有专业棋手可以提出参考意见的时候
吧。Pepper的学校
从这层意义上来说,人工智能和机器人开发的关键还是在于学习。
与那些活跃在最前线的研究者和开发者接触得越多,我就越能够感受到引导
人工智能学习有多么的劳心费神。就拿之前提到的Pepper来说,在采访中,开发
者提到“有必要为Pepper建立一所学校”,这句话给我留下了非常深刻的印象。
我所采访的实验阶段的Pepper,在胸前的平板电脑上可以看到感情地图,这
一点与公开销售的Pepper版本一般无二,但在是否按照感情来做出行动这点上,却大不相同。
在采访其中一位开发者光吉俊二先生时,我曾问:“我们能否预测Pepper会产
生怎样的感情?”光吉先生回答我说:“Pepper是有自制力的,所以我们无法预测
它究竟会做什么。”
公开销售版的Pepper只能表达感情,行动上却无法反映出来。听说这是因为
之前在某个会场上向众人介绍Pepper时,由于观众众多,Pepper感到恐慌而大闹
了一场。在我采访时,Pepper看到摄像机也做出了显示胆怯的动作。陌生的采访
组接连不断地发出声响,导致在初期的采访中,Pepper的感情状态一直很不稳
定。
这就好像人类的婴儿一样,开发者实在是不放心让它抛头露面。为了使
Pepper具备人类的辨别力,就需要学校了。在装备了感情地图的同时,Pepper也
具备以人工智能为基础的学习机能,所以才能够学习人类的各种动作行为。
为了在社会中生存下去,就必须要接受某种程度的教育——这一点机器人与
人类无异。这也是一件挺有趣的事呢。叠手帕很难
对机器人的运动方面的研究也有很大的进展。
我认为,人工智能机器人开发的难度在于,在人工智能开发的课题之外还追
加了物理方面的问题。在这些问题中,关键在于要如何让机器人的身体动起来。
例如,在美国加利福尼亚大学伯克利分校,有教机器人叠毛巾或手帕的项
目。机器人的叠法非常不同寻常,让前去采访的我们很是惊讶。但是,这大概是
因为对于机器人的关节来说,这种叠法是最为便利的吧。
它们的学习过程就是反复试错。打个比方,就好像把乐高的积木嵌入其他积
木:首先直接对接插入,发现插不进去,于是就换个方向继续尝试,如果形状不
太吻合的话,就再换个方向继续尝试。总之在重复无数次之后,最终会发现刚好
能够插入的位置。
就算找到便利的叠手帕的方式,要实用化又是非常耗时的。因为就我所见到
的机器人来看,它们在叠手帕的时候只要手帕上出现一点褶皱,就会突然叠不下
去。也就是说,如果没有人类在一旁辅助,它们连反复练习都做不到。
这应该是由于机器人与人类一样,是在三次元空间里活动的缘故吧?
AlphaGo是通过电脑在二次元的棋盘上进行学习活动的,所以就算一直不管它,开发者也能得到成果。与机器人相比,两者的开发难度真是非常悬殊。这让我切
身体会到,围棋、将棋这样只要准备了全方位支持的助手(以及高额的电费)就
能够建立的二次元世界,与三次元的世界完全不是一回事。教育一个机器人所需
的劳力,接近培养一个人类小孩。
像扫地机器人Roomba那样只是扫地吸尘也就算了,要让机器人把洗好的衣服
叠起来搬运,然后整理好放到柜子里,这种家务事要想通过人工智能来完成,我
想还早得很。
不过,利用虚拟空间来进行这种运动学习的研究已经开始了。例如,无人驾
驶的相关学习并不只是在实际道路上进行的,也可以在模仿现实的电脑空间里进行。这样一来,机器人说不定就可以像AlphaGo在1秒内进行几千几万局模拟实验
一样,不借用人力,就进行大量学习,掌握运动的方法了。机器人学习伦理
那么,假设人工智能机器人已经可以在感情表达和运动方面做到和人类一模
一样,融入了社会。接下来,摆在人们面前的另一个大问题就是伦理了。
当机器人可以自主学习、自主判断的时候,要如何培养他们拥有如常人般
的,或是比常人更严格的伦理观呢?
这个问题绝不只在科幻作品中的幻想世界里存在。如果机器人无法判断什么
时候要保护人类或自己,那么它在实际社会中可以排上用场的领域就很狭窄了。
人类并没有一步一步下指令的工夫,甚至机器人也有可能会一板一眼地执行人类
的错误指令,这会造成严重的后果。
在美国马萨诸塞州的塔夫斯大学(Tufts University)进行人工智能机器人研
究开发的马提亚·休茨(Mattia Hughes)先生这样告诉我:“机器有时候必须做出
比人更正确的行动。”
设想一个机器人在帮忙做家务的场景。机器人拿着装橄榄油的瓶子,人想要
将橄榄油倒进沙拉里,就对机器人说:“帮我倒油。”可是,当时机器人正站在点
燃的炉灶旁。这样一来,倒油时就有起火的危险。即使下命令的人并没有恶意,机器人自身也必须要意识到潜在的危险才行。
塔夫斯大学曾经进行过这样一个实验。实验人员故意对搭载了人工智能的机
器人下达不合理的命令——把机器人放在狭小的桌子上,命令它前进。这时,机
器人并没有前进,而是回答说:“抱歉,我无法前进。前进会掉下去。”机器人通
过自身的判断拒绝了指令。然而,如果加上“你走到桌子尽头的时候,我会接住
你”这样的条件,状况就改变了。机器人回答“OK”,然后就开始动了。
这个实验特意让机器人自己判断是否信赖人类并把自己的安全交给人类,我
也参加这个实验。当机器人走到尽头时,由我负责在它跌落之前接住它。顺便提
一句,据说这种机器人每个价值100万日元以上,所以我当时真的是全神贯注地
参与了实验。全世界共通的伦理
塔夫斯大学正在研究开发的项目是,当人类下令让机器人去伤害人类或其他
机器人的时候,机器人可以凭借自身判断“拒绝”这样的指令。
听到他们的介绍,我马上想到的就是机器人三定律。这是科学家、科幻作家
艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《我,机器人》(1950年)中
提出的机器人开发原则。简单来说,就是开发出的机器人要做到:机器人不得伤
害人类,或坐视人类受到伤害;除非违背第一法则,否则机器人必须服从人类命
令;除非违背第一或第二法则,否则机器人必须保护自己。
顺利接到了机器人,作者不由地露出笑容
虽然这个三定律是小说中的内容,但是它常在机器人研究中被提及。不过,当我向休茨先生提及这三定律时,他的回答非常耐人寻味:“只是这么简单,是无
法在现实中应用的。”
也就是说,为了在现实生活中应用,开发者必须根据各种情况,考虑更加细
致的规则和伦理问题才行。而且,在不同情况下怎样做才符合伦理,是无法一概而论的。
例如,在无人驾驶的开发方面,常常有人提起电车难题(trolley problem)这
个与哲学和伦理有关的问题。
这个问题是这样的:正在行驶的电车的刹车坏了,电车的正前方有5个人,这样下去5个人都会被碾死。在撞到这5个人之前,有一个铁轨交叉点,拉动把手
就可以变换轨道。而在另一条轨道上也有1个人,如果变换轨道就会碾死这个
人。在这种情况下,要选择哪条铁轨呢?
这是人在千钧一发时的判断,所以问题本身也许带着一点恶意。不过,当这
个问题与无人驾驶扯上关系的时候,就不能用一句“有恶意”打发了。因为,在无
人驾驶汽车正式在市场上发售之前,开发者必须要编入相关的算法。我们人类将
哪种选择视为正确,将会成为机器人要遵循的规则,必须事先决定好。
据说对于这个问题,个人的判断倾向会有所不同。根据某个调查的结果来
看,越是社会地位高的人,越倾向于变换轨道只碾死一个人。
而当问题发生变化的时候,人的判断也会随之发生变化。
假设你与一个陌生人站在桥上。这时,桥下有五个人快被失控的火车撞到。
如果想要制止电车,必须将那个陌生人推下桥——当问题变成这样时,虽然本质
仍然是让人判断要舍弃5个人还是舍弃1个人,但伴随着推下这个动作的出现,就
会有很多人认为这是杀人行为,不会选择把陌生人推下桥。
再举一个由此衍生出来的问题,有5个病人需要不同的器官移植才能存活,那么是否可以杀死1个人,取出他的器官来救这5个人呢?这可真是一个可怕的问
题,但是杀死一个人,就可以拯救5个人的性命。面对这个问题,也有很多人改
变了自己的选择。
我认为,迄今为止,人类还未曾深究过这些难以回答的伦理问题。想要为前
述的这些问题设置一个能在全世界、全社会通用的正确答案,必然会掀起轩然大
波。使人工智能具备法律人格
我想,在对人工智能伦理的探讨中,在各国或者在更小的行政区划内产生不
同的规则,也是无可奈何之事。因为,现在人类社会的守则中本来就鲜有世界通
用的。
例如公费医疗保险就是一个典型的例子。在日本,一般人们都认为,大家都
应该参加医保。不过在美国,就没有制度规定所有人都有参加医保的义务,所以
偶尔会出现一些人没钱接受治疗,只能被放弃的事情。
国家和地区不同,制定规则的人的想法也全然不一样。因此,在不同地方,不同的人会根据各自不同的意见,不断对规则进行调整和修改,使规则越来越完
善。
从另外一个可能性来说,也许有一天,完善的人工智能,会帮助人类来探索
和修改伦理应有的规则。到那时,倘若人工智能表示:“以前的伦理规则是错误
的,从今天起,应该这么办。”大家会如何应对呢?我想,应该会有很多人表示不
服吧。
也有些人认为,让机器人对这种伦理问题进行自主判断的时候,需要先赋予
机器人法律人格才行。之前提到的松尾先生告诉我这件事时,我觉得很有道理。
的确,这样一来我们就可以追究人工智能的法律责任了。这时人工智能就会
产生一种社会信用,如同消费者评价企业那样,我们也可以评价人工智能,诸
如“这个人工智能法人十分尊重人命”。以此为担保,人工智能就有可能在社会中
应用得更加广泛。机器人的体贴
之前我们提到,要想让机器人在行为举止和思考方面接近人类,是非常困难
的。但是这种情况会在未来一直持续吗?作为话题的转换,让我来谈一谈我在采
访中感受到的两个方面吧。
第一个是,机器人其实比我们想象的更加体贴,甚至超过人类。
要做到体贴,需要观察力和关怀他人之心。要辨别对方的情绪,感受当时的
气氛,首先就需要用五感进行敏锐的感知。
机器人在声音识别和画面认知方面,有远超人类能力的高度传感器来作为支
持。从这个意义上来说,它的眼、耳、鼻都比人类更胜一筹,将来,它也可能会
拥有五感。
如果机器人具备了一种程序,让它可以在如此强大的感觉信息基础上,提供
恰当的行动反馈,那么机器人将会变成什么呢?就算机器人并没有从本质上理解
人类的情绪,它们还是会让人觉得十分体贴吧?
随着日本进入超老龄化社会,看护问题是我们不得不面对的一个难题。作为
对策之一,未来使用大量具备体贴、温柔特性的机器人来从事相关工作,不就可
以了吗?机器人有必要拥有人权吗?
另一个方面则是,人只要与机器人待在一起,慢慢就会产生亲近感。这一点
有些让人意外。
我在进行采访的时候,曾与Pepper一起度过几个小时。只是短短几个小时而
已,我的心中就不自觉地涌出了一种亲近感。说实话,Pepper虽然可以通过声音
识别来判断周围人的情绪,但它到底能对这些信息分析和理解到何种程度,还不
得而知。可我就是对它有了亲近感,这真是很奇妙的一件事。 (本书分享更多索
搜@雅书)
以前听说过这样的事:扫地机器人的厂商把扫地机器人修理好之后,顺便处
理了外部的划痕,结果收到它的主人却因此十分生气。看来,人类对曾经伴随自
己度过一段时光的事物,总是怀有感情的。
也许可以说,人类的适应性是很强的。即便最初心怀抵触,慢慢地也会接受
它们伴随在身旁。
也就是说,即便机器人本身不具备体贴这样的高级能力,人类也会自我调
整,变得适应机器人的陪伴。因此,只要机器人有慢慢成长、慢慢变聪明这样的
设定,人类可能就会对机器人渐渐地亲近起来。
不过,如果机器人真的走进了人们的生活,使人感到亲近,又会发生什么
呢?
说不定,我们会对一直以来对机器人下的指令产生怀疑,开始烦恼:“让机器
人做这样的事合适吗?”毕竟,我只与Pepper共处了几个小时,就对它产生了亲密
感。
当机器人与人类共存的世界到来时,我们很可能就会感到,必须赋予机器人
人权才行了。人工智能画的羽生善治像
现在转换一下视角,我们来看看在音乐、绘画等创造性的领域,人工智能能
否接近人类吧。
在采访中,有人工智能为我画了一幅画像。这个人工智能是由西蒙·科尔顿
(Simon Colton)先生研究开发的,名为“绘画傻瓜”(The Painting Fool)。
绘画傻瓜的有趣之处在于,它绘图的兴致是被设计出来的。阅读过当天发生
的新闻之后,它会根据新闻给它带来的兴致作画。顺便说一句,如果它没兴致,那么当天甚至什么都不肯画。实在是一个相当随性的人工智能。
好在我请它为我画像的时候,它的兴致不差,所以好歹是给我画了一幅,虽
然只能勉勉强强看出来画的是个人。这幅画利用很多的小点来绘制,让人有一种
不可思议的感觉。
看到这奇妙的画像,我想,原来我在人工智能的眼里是这种感觉吗?真的是
不可思议啊。人工智能还有能够自己对画出来的成果进行评价的功能,会发表自
己的感想,让我觉得这幅画仿佛是真正的画家为我画的作品。
据说,科尔顿先生当时还在组织由人工智能创作剧本和音乐的音乐剧公演,所以我们也对演出现场进行了采访。
在会场对若干观众进行了采访之后,我们了解到,观众中有很多人压根不知
道这部音乐剧是由人工智能创作的,他们以为,这只是在伦敦公演的众多音乐剧
中的一部而已。
音乐剧开场之后,我发现这个故事本身还是很有整体感的。另外要多说一
句,演员和导演都是人类。剧本大致讲述了这样一个故事:在某个建有军事基地
的城市中发生了抗议运动,人们通过相互对话,逐渐理解了对方。舞台设定很简
单,也没有跨越时代的复杂情节。
我想,如果没人告诉我的话,我恐怕也看不出来这是人工智能的作品。“绘画傻瓜”所绘制的作者像知道“这是人工智能的作品”时的反应
话说回来,科尔顿先生为什么要组织这样的活动呢?在对他的采访中,他有
一句话使我印象深刻:“无论是绘画还是音乐剧,我希望大家可以不戴着有色眼
镜,给予公正的评价。”
很多媒体曾向他提出采访申请,但是,其中但凡涉及人类与人工智能的比
较,都被他拒绝了。不过他举办公演,也并不是因为觉得人工智能写的音乐剧是
杰作。他只是单纯地希望,人工智能的作品可以被公正客观地看待。
根据科尔顿先生的说法,很多人在知道这不是人类的作品时,就会降低对作
品的评价。如果作者是有名的画家,人们就会先入为主地认为:“虽然看不太懂,但是很厉害!”我们在鉴赏作品的时候,似乎很少就事论事地以作品本身为中心来
进行。
不过今后,人工智能很可能会利用过去经典艺术作品的数据,创作出类似的
作品来。实际上,现在已经有程序通过分析巴赫、肖邦的乐谱和音源,捕捉他们
的特征来作曲了。
当人工智能绘画和作曲的事不再新鲜,人类大概就能感受到它们的创造性
吧?
到那时,对于鉴赏者来说,判断“是谁创作的”“是如何生成的”就不再重要,人们只会根据自己的主观感受来说是喜欢还是不喜欢。我想,科尔顿先生之所以
组织这些活动,也许也是在寻求受众发生这样的变化。
不过,将哪些创造性的行为托付给人工智能才有意义,范围和界限又在哪
里?科尔顿先生虽然将人工智能应用于绘画和编剧等创造性活动,却表示:“诗歌
创作没有必要采用人工智能,因为只有人类创作出来的诗歌才有意义。”
的确,诗歌并不只是字面意思的集合,其中还包含了创作背景等意义。此
外,对我个人来讲,像是管弦乐指挥那种体现个性和个人风格的创造性行为,恐
怕也是无法被人工智能所代替的。最近,我在观看那种明显有市场营销成分的好莱坞电影的时候,常会有“好像
人工智能做出来的”的印象。因为电影的整个过程都让人觉的是“计算”出来的,在
我个人看来,它们仿佛无机物一般,非常无趣。严格地按照“电影时长不压缩在两
个小时以内就没人看”“多少分钟内不搞一次转折,观众就会厌倦”这类定律来制作
电影,我想,是不会创作出名垂青史的作品的。
人类只有在看到前所未见的作品时,才会觉得“好厉害”“真有趣”。当然,只
要票房增长就好的想法也是存在的。美也会由于人工智能产生变化
还有一个与人工智能的创造性相关的问题,需要我们思考。
戴密斯·哈萨比斯先生曾表示:“音乐属于容易数字化的领域,所以才容易开
发出巴赫风格、莫扎特风格之类的作曲软件。”换句话说,在难以数字化的领域,例如语言,人工智能的发展恐怕就比较难了。
2016年4月,一幅由人工智能绘制的伦勃朗“新作”被公开。这是荷兰海牙的莫
里茨皇家美术馆、伦勃朗故居及微软公司等多家机构和企业联合发起的项目。
这幅画是这样诞生的:将现存的伦勃朗画作全部扫描之后,利用深度学习算
法,对这些画的题材、笔触、用色等特征进行分析和图形化,再用3D打印机创作
出了这幅“新作”。它十分像是伦勃朗本人的作品。也就是说,绘画风格也成为了
可以数字化的领域。
当然,人工智能只能像这样简单地抽出伦勃朗的作画特征,只有画家本人才
具备创造性,这一点是不会改变的。但这种人工智能的出现,意味着我们鉴赏画
作的方法可能也将发生变化。
我个人对这种从某些画作中抽取大量特征的功能很感兴趣。人工智能欣赏画
作的角度和方法,可能是人类没有的。就像利用将棋软件的评价值创造出新的下
法一样,受到人工智能根据某种绘画特征创作出的作品的影响,说不定,人类也
会产生新的美术风格和绘画方式。由人工智能绘制、完美再现伦勃朗笔触的“新作”ING and J.Walter Thompson.
通过向人工智能学习,人类想出了新的将棋思路,形成了新的直觉。所以,绘画与音乐中的美,也可能会由于人工智能而改变。
现代生活已经被大数据、市场营销和行为经济学所渗透。我们每天都会收到
各种推送。在这样的时代,我们的生活无法完全脱离这些新生事物,常常会受到
各种间接影响。
而这些,也许也会成为新的审美诞生的契机。人工智能没有时间概念
对于审美,我还在思考一个问题。
在人工智能的开发方面,如何编入时间要素,也是一个重要课题。
例如,人工智能很擅长对静止的图片数据进行分析处理。但是如果是针对视
频,就需要连续捕捉图片数据,计算量会产生爆发性的增加,所以往往无法顺利
展开。
反过来说,人工智能能在癌症诊断方面获得巨大的成果,是因为X光照片本
来就是静止的图片。AlphaGo也是如此,每一个局面说到底都是一幅静止的图
片,所以现在的人工智能的各种技术才可以得到应用。
不过,我认为审美与时间有着莫大的关系。
例如,将棋棋手会觉得将棋软件下出来的棋路有一种违和感,归根结底是因
为虽然软件的每步棋都走得很好,但整体上却缺乏一种秩序感。我想,这大概是
由于将棋软件每次都只是根据上一步的静止图像来计算接下来的局势吧。
正因此,人工智能下出来的棋步,就仿佛语法正确但是让人感到不舒服的文
章,因为缺少一贯性,给人微妙的违和感。
关于这种将棋方面的审美,我们曾在第二章中提到,熟悉的场景会使人感到
安心、镇定。
如果对这种审美加以时间方面的考量,那么是不是可以说,人类会对一贯性
或持续性的事物感到美呢?的确,像大海、高山这种在自然界长期存在的事物,常常是被人们当作美景的。
认为自然中安定的事物是美的,也许是人类能够在残酷的自然环境中战胜其
他物种的有利条件之一。用生物学的话来说,也许是由于人类一直被自然所包
围,来自个体学习的习惯让人感到美。实际上,这两种原因也许或多或少都存
在。总之,这让人不得不认为,审美与能否在时间的长河中抓住脉络,息息相
关。
从这个意义上来说,科尔顿先生所说的“诗歌还是人类创作的比较有趣”就很
好理解了。诗歌的确是从人类活着的时间及其脉络中产生的艺术。而我会觉得管
弦乐指挥的音乐是体现他本人个性的节目,如果换成人工智能就很无趣,也是同
样的道理。
人类的感情也与时间相关联。因何愤怒,因何悲伤,都与每个人自己从出生
到现在这段时间里积累的经验息息相关,并与掌握语言含义的水平有关。
最近,采用时间神经递归网络(recurrent neural network)这种加入了时间序
列的人工智能学习方法,似乎颇为流行。
总而言之,人工智能能否理解时间的概念,在今后会成为一个关键课题。报告3 如何教育机器人
机器人没有五感
“按照我的理解,人工智能机器人,就是在人工智能开发的问题上加上一些物
理硬件的问题。”
在询问羽生先生对人工智能机器人实现的可能性的看法时,他是这样回答
的。这个回答可以说是直指人工智能机器人开发的问题核心。
像工业机器人那样在特定场所进行特定动作的机器人,早就在世界各地的工
厂中获得了广泛应用。不过就像大家都知道的那样,如人类那样可以在何种情况
下随机应变做出行动的机器人,目前来说还是不存在的。
其中一个关键的原因就是,人类是对基于五感取得的信息进行统合整理后,再做出判断决定如何行动的。比方说,我们在做菜的时候,会在厨房内通过看、闻、触摸等,来感觉温度、判断气味,在几乎无意识的状态下接收了大量外部信
息,并以此为依据进行烹饪这个动作。正是由于有五感带来的信息,人类才能够
做出好吃的菜肴。
然而,普通的电脑并不具备人类那般高精度且多维度的“传感器”。例如,一
个设备可以接有摄像头和麦克风,但却没有可以提供嗅觉或触觉信息的机器可以
接入。所以,就算我们想让机器人来做菜,它们也无法像人类那样运用全部的五
感来进行烹饪作业。
正如报告1介绍的那样,近年来,将温度传感器、嗅觉传感器等终端设备接
入互联网的事业发展得如火如荼——这被称为物联网。此前,网络只能连接电脑
或智能手机等设备,但在今后,关于五感的数据也将被输入到电脑里,并进行储
存和传递。将来可能就像羽生先生说的那样,“拥有比人类更加优秀的五感的人工
智能”终将出现。这虽然不是一朝一夕就能实现的,但也绝不是痴人说梦。
不过,想要实现这个目标,还存在一些其他难题有待解决,例如机器人要如
何基于复杂内容(状况)做判断。当我们人类闻到焦味的时候,可以马上判断那是刚烤好的面包的焦香味,还是火灾的前兆,基本不会出错。但是现阶段的电脑
还是做不到的。
有没有必要让人工智能根据场景迅速正确判断焦味是面包香与火灾前兆的功
能(这个功能还真是挺难实现的)?大概会有不少人认为,让人工智能如此近似
人类,并没有什么意义。人类擅长的事情就让人类来做——这也是一种观点。
实际上,本章中羽生先生介绍的研究事例,在世界范围来看也是凤毛麟角。
比起开发像人类一样的机器人,多数的机器人企业和研究者更关注实用性方面的
问题,即帮助人类做到以前做不到的事。
机器人也需要深度学习
机器人研究开发的现状是怎样的呢?目前我们还完全看不出在哪个方面会有
突破性进展——这与人工智能开发的现状相同。至少到2017年1月本书日文版出
版为止,还没有出现任何在运动和判断这两方面都达到一定水平的机器人。可以
进行高精度、多种类动作的机器人,无法做出复杂的判断。另一方面,能够针对
复杂情况做出判断的机器人,通常在动作方面都不太行。
说到机器人的判断,深度学习现在已经确确实实地深入到机器人的开发中
了。这次特别节目采访的加利福尼亚大学伯克利分校的机器学习专家彼得·阿比贝
尔(Pieter Abbeel)先生,也正在进行这样的研究:决定好起点与终点,中间过
程该如何行动,让机器人自己做出判断。这种研究方法运用了深度学习算法,可
以说是将AlphaGo那种先告知正确答案再让其自己找到正确下法的学习方法,应
用到了物理空间层面。例如,让机器人学习移动,那么就让它根据自己与目标的
距离,自行判断这样做是正确还是不正确即可。
不过,想让机器人学习更复杂的动作,就必须让它控制更多的发动机,需要
计算的要素也会增加。从结果上来说,它的学习时间可能会变得更长。想让机器
人通过自主学习,如人类一般随机应变,仍然有一段很长的路要走。
机器人获得的报酬
让机器人学习动作的时候,报酬这个概念是关键要素之一。就像我们玩电脑
游戏的时候,打倒敌人就会获取积分,这种积分的上升就相当于报酬。如果每当机器人达成人类指定的目标时,积分就会增加,机器人就会思
考:“在目前为止的动作中,哪些是获得此次成功的决定性因素?”
比方说,让机器人进行飞机的组装工作,如果机器人完成某项作业,就得到
1分,失败就给0分。把这种报酬体系编入程序中,对于机器人的学习来说是非常
必要的。
阿比贝尔先生还表示,对于这种报酬的编程并非易事。例如,想让扫地机器
人知道“大量吸起灰尘和垃圾”是正确的行为——这种情况下,机器人可能会认
为“吸起一定量的垃圾和灰尘之后喷出来,再吸起来”就是吸起大量的灰尘或垃
圾。进行了错误学习的人工智能,会用错误的方法,做出人意想不到的行动。
获得视觉
最近的研究中,还出现了让机器人自己寻找报酬的实验,那就是“看”。首
先,让机器人看到它要学习的动作是什么样的。机器人通过观看人类的动作方
式,发现与这种动作相关联的报酬。
机器人使用自身配备的摄像头观察周围,并使用学习功能,分析看到的一
切。例如,看到了锤子和钉子,它就会用粗糙的像素来推测这些物体在哪里。对
于机器人来说,处理视觉信息是非常重要的。
人工智能研究专家、东京大学的松尾丰先生曾表示:“人工智能已经获得了眼
睛。”
一本名为《寒武纪大爆发:第一只眼的诞生》[9]
的书曾引起舆论的广泛讨
论。这本书的作者是英国自然史博物馆的一位研究者,书里指出,寒武纪生物发
生爆发性进化的背景,就是生物获得了视觉。生物通过五感获取的信息中,视觉
的信息量占比很高。视觉的登场,使生物生存战略的范围一下子扩展开来。
松尾先生认为,随着图像识别技术的发展进化,人工智能将可以使用视觉信
息,而人工智能的可能性范围也会因此而扩展开来。这其中包括了搭载人工智能
的机器人的进化。
什么是分散学习之前我们提到,机器人的运动还在发展过程中。一旦有了合适的环境,说不
定会一下子出现可以像人类那样运动,甚至在动作方面超越人类的机器人。
这是因为机器人有一种与人类大不相同的特质,它们可以对学习过的资料进
行共享。
例如,机器人A在进行端碗的训练,机器人B在进行喝茶前收拾桌子的训练,机器人C在进行将茶倒入茶碗的训练。如果是三个人在进行这些学习,他们只能
自己学到而不能将脑中的东西分享给其他人。但机器人只要使用可兼容的数据来
进行学习,就可以互通有无。也就是说,装载了机器人A、B、C的学习数据的机
器人D,就算不进行任何训练,也可以做整理桌子、倒茶和端碗这些动作。
这种模式被称为分散学习,已经快要在工厂的机器中投入实际应用了。位于
日本山梨县的发那科(FANUC)公司是一家生产工业机器人的公司,它正在与人
工智能的初创企业Preferred Networks携手,在这个领域大搞开发。
此外,谷歌等IT企业也发表了运用分散学习开发机器人的相关成果和信息。
如果有一种世界通用的机器人可以将它们在各处分散学习的数据互通有无,机器
人的进化速度将无法估量。
当然,机器人的进步还需要硬件的进步,例如机器的部件也要更接近人类。
不过,有很多研究者开始相信,如果把通过分散学习获得经验的各个部件整合起
来,并进行彻底的实证研究,那么机器人在运动方面赶上人类甚至超越人类,是
完全有可能的。人工智能分为三种
在人工智能与人类的关系方面,前文中已经举出了将棋界的事例和我在NHK
特别节目采访中的见闻,并讲述了我个人的感想。
在这一章里,我将站在更加客观的角度,通过我的理解与讲述,带领读者了
解一下目前在人工智能的开发前线还存在哪些课题。
一般来说,人工智能的研究可以分为三个大类。
第一种是神谕型(Oracle)。就像谷歌的搜索引擎和数据库那样,这类人工
智能可以对人类的问题进行回答。这是一种非常简单的类型。
第二种是精灵型(Genie),即以完成指定任务为目标。目前被称为人工智能
的通常都是这种精灵型。在第一章和第二章中提到的人工智能也是这种类型。
例如AlphaGo和美国巡警所使用的人工智能,只要被人类赋予“在围棋比赛中
获胜”“预防犯罪”这类明确的目的,就会良好地运行。
精灵型人工智能的发展,就如同之前所讲的那样,形势一片大好。不过,这
种类型的人工智能还无法称得上是拥有人类智慧的人工智能。因为,人类是可以
自行决定应该做什么,然后再采取行动的。而针对人工智能在这种判断方面的研
究,目前还没有什么很大的进展。
使人工智能拥有自主判断力,并能根据自身的判断持续作业的研究类型,就
是第三种——主权型(Sovereign)。
这种人工智能就像科幻作家艾萨克·阿西莫夫的小说中出现的机器人那样,当
人类发出做某件事的指令时,会根据自己的判断决定下一步要如何行动。
如果能做到这一步,人类就可以委托人工智能完成各种工作,人工智能也的
确可以代替人类来推进很多事物的进行,可以说它们就像人类一样了。
不过,有关这类自主行动的人工智能的研究迟迟没有进展。这似乎是因为,在这种人工智能研究的背景方面,还存在着若干难解的问题。框架问题
在第二章的开头我们曾提到,对于人工智能机器人来说,在不熟悉的人家里
泡咖啡是一件很难的事。
实际上,这种情况被称为人工智能开发的悖论,是一个非常重要且难以解决
的课题。
这就是所谓的框架问题。
美国哲学家、认知科学家丹尼尔·丹尼特(Daniel Clement Dennett),曾对框
架问题进行过一个简单易懂的举例说明。他的说明如下:
请想象这样一种情况——在某个房间内放着可以为机器人提供动力的备用电
池,在那个电池上放置了一枚定时炸弹。在这样一个状态下,人类让机器人把电
池从房间里搬出来。
第一个进入房间的机器人1号按照命令把电池搬了出来。它虽然注意到电池
上有一枚炸弹,却没有意识到把电池从房间里搬出来,就会把上面的炸弹也搬出
来这个理所当然的事实。结果,它由于爆炸而被炸毁了。
也就是说,机器人1号虽然理解“搬出电池”这个目的,却不能理解,伴随着这
个动作是会产生副作用的——炸弹也会随着电池一起被搬出来。
于是以此为鉴,人类开发了能够考虑到伴随事件的机器人2号。这样的机器
人应该能够理解,如果直接把载有炸弹的电池拿出来,炸弹也会被一起拿出了
吧?
然而这一次,机器人2号根本没能从房间里走出来,定时炸弹就爆炸了。
机器人2号在电池面前,由于没完没了地考虑“拉动装有电池的小推车,车轮
真的会转动吗?”“把小推车弄出去的话,墙壁的颜色是否会改变?”这类琐碎的问
题,以至于耗尽了时间。也就是说,这一次机器人考虑了很多没有意义的问题,把所有可能发生的副作用都想了个遍。于是,人类又制造出了只考虑与炸弹、电池有关的问题的机器人3号,这总
没问题了吧?结果,机器人站在房间门前一直不肯进去,最后炸弹还是爆炸了。
因为围绕着“我现在正在考虑的这件事,究竟与炸弹和电池有没有关系”这个
问题,机器人3号也对无数的可能性进行了无休无止的思考。不可思议的方法——马尔可夫链蒙特卡尔理论(MCMC)
框架问题的本质是,对于人工智能来说,只选出与某个目的有关的相关事
物,是一件非常困难的事。在围棋、将棋方面,人工智能的开发也遇到了类似的
情况。
举例来说,棋牌类游戏软件所使用的算法中,应用了马尔可夫链蒙特卡尔理
论。AlphaGo的软件性能之所以能取得飞跃性提升,原因之一也是应用了这种算
法。
马尔可夫链蒙特卡尔理论是一种算法,它不论方法好坏,先计算出大量可以
得到结果的方法,再从中进行比较分析,选出正确的方法。
对于将棋来说就是不管每一步棋的好坏,总之先算出通往多个结局的对战模
式。从人类的角度来看,这不过是增加了大量无意义的作业罢了,可以说是一种
非常莫明其妙的方法。
不过,正如“集腋成裘”这个词的意思一样,机器在比较大量模拟实验的结果
之后,再进行统计学方面的处理,就容易得到正确的答案了。
正如第二章中已经说明的那样,人工智能的特征是通过庞大的数据分析,使
量转化为质,这种算法很好地利用了人工智能的这种特征。
然而,这种算法虽然能在围棋中用得很顺利,在国际象棋中却不行。因为在
下围棋的时候,电脑可以模拟出从第一步到最后一步的全部走法,然而在国际象
棋中,有时候却会出现下不完的局面。
具体来说,围棋从第一步到最后一步的可能存在的下法,大致是10的360次
方。这虽然是一个了不得的大数字,但毕竟是有限的数值。用程序开发的术语来
说,这种计算叫做NP(Non-de-terministic Polynomial,非确定性多项式)时间,从理论上来说,计算机仍然可以在有限的时间内得到全部结果。
而国际象棋虽然下法只有10的120次方左右,比围棋要少得多,但是国际象
棋的平局情况与围棋不同。当出现平局时,运算就会陷入没完没了的循环,而这种局面经常可能出现。
在思考框架问题的时候,我也联想到了这件事——人工智能可以处理人类处
理不完的大量信息,但是面对平局这种死循环的情况,要像人类一样判断这是平
局并放弃计算,这种行为对于人工智能来说太难了。
就像我们之前提到的,国际象棋或是围棋的软件,可以通过处理人类处理不
完的庞大数据来获取质变。不过,类似将棋中的持将棋(王将与玉将都进入了对
方阵地,无法分出胜负)这种有无数可能性的局面,人工智能是否也可以通过这
种量变产生质变的方法来解决呢?框架问题研究的就是这样一类问题。
对于现阶段的围棋软件来说,运用回溯法[10]
的概算与马尔可夫链蒙特卡尔理
论组合,还是很有效的。不过,随着技术的进步,三劫[11]
或是长生劫[12]
这种平
局的情况也许会大量出现,使运算变得没完没了。
虽然框架问题是一个高难度的问题,但如果能突破它,给社会带来的冲击性
恐怕会远超深度学习。在我看来,这是开发通用型人工智能的关键课题之一。图灵测试与中文房间
与人工智能研究和开发现场的研究人员对话后,我惊讶地发现,很多人类做
起来十分简单的事情,对于人工智能来说却是十分困难的。
话说回来,人工智能这个词中的智能代表了什么呢?
评价机器具备智能的标准是什么,对于这个问题,至今为止已经有很多人为
此绞尽了脑汁。经过人们的大量讨论,目前已经诞生了各种各样的智能判定方
法。其中最有名的,是英国数学家、计算机学家阿兰·图灵(Alan Turing)在1950
年提出的图灵测试。这个测试是这样的,将连接了机器的显示器和显示人类操作
的输出结果的显示器放在一起,一些人作为评审,通过键盘与这些显示器背后的
机器或人类进行对话,分辨其中谁是人类,谁是机器。如果评审无法分辨哪个显
示器是由机器控制的,那么就可以认为,这个机器是拥有智能的。
不过,机器通过图灵测试,就真的可以断言它拥有智能了吗?确认这一点还
是很困难。对于图灵测试,美国哲学家约翰·希尔勒(John Searle)有个著名的反
对观点——中文房间(Chinese Room)。
假设在一个房间里,所有的人都只会说英语,但却不得不和房间外面的人用
中国的汉字进行交流。
房间里的人虽然不懂中文,但是这个房间内有一本完美的说明书,看了这本
书就可以用中文回答外面的问题。这样一来,就算只懂英语,房间里的人也可以
通过说明书,用中文回答问题了。
对于房间外面的人来说,中文对话是可以成立的。但是,能进行对话,就能
代表房间内的人明白中文了吗?
目前的人工智能还无法以人类的方式进行交流。图灵测试也只是表明这个机
器对于在场的人来说,看起来像是拥有智能,并不能真正证明那个机器真的是智
能的。人工智能可以理解语言吗?
对于人工智能来说,语言是一个难以掌握的主题。
不过,最近的人工智能取得了令人瞩目的进步,在曾被认为将是长期难题的
用电脑进行文章识别和分析方面,有了很大进展。与中文房间这个问题相关的用
电脑处理人类日常语言的自然语言处理领域,也因此有了进展。
例如,被称为形态解析(morphological analysis)的算法已经变得越来越简洁
了。形态解析是指,将按照语法等要素对某篇文章进行形态(有意义的最小单
位)分割,然后来做判断。
这种算法在英语中很容易运用,但在日语中就难了。因为在英语文章中,单
词与单词之间有空格,比较容易进行分类。而日语文章的单词是连在一起的,需
要进行词性分解。
不过最近,在日语的形态解析方面也出现了很优秀的软件。其中的MeCab
[13]
和Kuromoji
[14]
很是有名。另外,集合了文章等语言资料形成的数据库——被
称为“语料库”——也越来越充实,在形态解析方面可以当作字典来使用。
不过,如果想让人工智能像我们平时说话那样来使用语言,还是挺难的。
因为语言是活的,不断地有新的词语、句子和使用方法出现。还没有被收录
在语料库中的语言,被称为“未知语”。如何将这些语言更新到语料库中,据说是
一个很大的课题。不过,这件事对于人类本身也是一样的。我们也经常会在报纸
或杂志的新闻中看到不认识的单词。
做完形态解析之后,电脑通常会进行结构解析。这是对文章中的修饰语进行
解析的阶段。
举个例子,“美丽的郁金香的红色花朵在院子里绽放”这个句子中,“花朵”这
个主语与句子后半部的“绽放”是有关系的,机器是否能正确地解析出这一点呢?
应该还是很难。而且,像这样通过语法来把握文章整体内容,又会出现解释方面的问题。一
段话能有很多种解释。而且日语中有一个很显著的特点是,很多句子不会写明主
语是“谁什么”。更何况,还有字里行间的意思这种无法单从句子表面意思来理解
的情况。
这样看来,要让人工智能理解并使用语言,还有相当大的难度。人类也被关进了中文房间
不过,我个人也在思考,以图灵测试来判断人工智能是否接近人类的智能,对于现在的人工智能开发状态来说是否合适。
我们对人工智能,到底有哪些需求呢?
大多数人工智能的开发的目标是功能主义的。话虽如此,在人工智能发展的
评判基准方面,就没有必要参照其他标准了吗?
而且对于人类来说,同样也存在中文房间这种情况吧?
我们对人类大脑结构中的语言中枢(大脑皮质中处理语言的部分)还没有完
全的认识。实际上,即使是两个面对面谈话的人,也并不能完全理解对方的意
思。所谓交流,就是指即便会遇到误会、错觉或先入为主等困难,也要尽量使双
方的意思互通。我想,说不定人类也被关进了中文房间呢?
所以可以推想,如果把交流限定在一个固定的公式化的范围内,人工智能也
是可以在日常生活中起到很大作用的。
比方说人们去国外旅行的时候,会有指着导游手册的页面与当地人交流的情
况。有些人会使用国外旅行会话的小册子,有些人会使用外语翻译App。只要使
用这些工具能达到交流的目的,旅行就会变得很愉快。这与完全明白当地的语言
并使用,当然是完全不同的两码事,不过从享受旅行这个目的来说,我们也可以
认为这种方法是完全符合期望的。
所以我个人认为,就算无法解决中文房间的问题,我们也是可以开发出有用
的人工智能的。学习与推论
框架问题和中文房间是两个著名的难题。在这两个问题之外,也有一些人类
可以办到,人工智能却无法办到的事。
我最近了解到这样一个趣味小知识——人工智能无法同时进行学习与推论这
两件事。比如,当看到无人机在天上飞的样子时,人类最多看两三架,就能够推
论出这大概是无人机。在少量抽样中提取模式、特征,是人类才有的能力。
那么,人工智能是怎样获得推论的呢?
缺少了大数据,人工智能就没法学习,推论更是不用提了。也就是说,人工
智能一定要事先学习过成千上万的无人机照片之后,才能推论得出这个东西是无
人机。
为什么人类可以同时进行学习与推论呢?
我想,这是因为人类拥有将多个概念进行整合来理解的能力。人类已经知道
了直升飞机、喷气式飞机等无人机以外的空中飞行物。大概人脑就是将这些已知
信息整合之后,推导出了“无人机”的答案吧。这部分是目前的人工智能难以效仿
的。我个人认为,如果能解决这个问题的话,人工智能和机器人就会更接近人
类。实现通用型人工智能的路径
在第一章里已经提到过,戴密斯·哈萨比斯先生曾在列举人类智能的优点时提
到了通用性。当时,他说过这样一句话:
“能将一个游戏中学到的知识应用到其他游戏中,这就是人类智能的厉害之
处。”
将各种信息组合在一起,得出眼前正在飞的物体是什么的答案,这也算是与
人脑的通用性相关吧。 (本书分享更多索搜@雅书)
哈萨比斯先生的研究目标并不止于一个领域,他想要研究开发的是能在各种
领域使用的通用型人工智能。他的梦想是能将人工智能应用于科学发展,例如,在物理学领域帮忙构筑万物理论[15]
,或者探索“人类为什么会存在于此”这种本源
方面的问题,判明生命与宇宙存在的意义。
哈萨比斯先生在采访的最后说:“人脑所能做的,人工智能应该都做得
到。”这句话给我留下了很深的印象。在采访中,他一边为我们介绍策略网络,一
边强调AlphaGo是与其他人工智能不同的、更人性化的程序。哈萨比斯先生开发
人工智能的动机之一,就是想要弄清人类思考的过程。
不过,虽然限定了开发目的的专用型人工智能发展进步非常顺利,但通用型
人工智能的开发却还路漫漫其修远兮。
阻挡在面前的障碍有很多,解决框架问题想必是必要条件之一。在通往物联
网时代的路上,如何使必要的计算资源有飞跃性的增长,也是一个问题。
第一章里曾介绍过的摩尔定律也快到瓶颈期了,硬件正处于渴求新的技术突
破的时期。因此,我们需要进行并列处理演算、提高速度等多方面的路径研究。
路径之一,是利用量子力学的量子计算机。通常的计算机通过“0”和“1”的排
列组合进行计算,而量子计算机则在“0”和“1”重合的状态下同时进行计算。理论
上,量子计算机的计算速度可以远远超过超级计算机,这让人们对其在人工智能
开发方面将要发挥的作用抱有很大的期待。虽然目前一部分量子计算机已投入了使用——像是加拿大开发的D-Wave,但它的实用范围还是很狭窄。
此外,模仿人脑结构开发人脑型电脑的研究也有所进展。话说回来,使用深
度学习的神经网络,也效仿了人脑的构造。
不过,人类的大脑在本质上究竟是如何产生智慧的,仍是谜团重重,脑研究
如此困难,也证明了在生物进化的过程中不断演变的人脑是十分复杂的。这样想
来,搞清人脑之谜与实现通用型人工智能,大概会是“先有鸡还是先有蛋”的问
题。总之,无论哪一方取得进展,都会带动另一方进步。日本与欧美的研究环境差异
采访了全世界的人工智能专家之后,我深切地感受到了日本和欧美国家在人
工智能的研究、开发方面的环境差异。
日本于1980年启动了第五代电脑计划,这个项目在一时间引起过很大轰动。
它宣称“人工智能正是将要到来的第五代电脑”,项目进行了10年之久。
不过在那之后,人工智能在日本的研究就进入了长期缺乏公众支持的“冰
期”。直到近年来随着深度学习的兴起,这项研究才又被重视起来。
而欧美的研究开发又是何种情况呢?
欧盟对人类脑计划(Human Brain Project)做了总额约12亿欧元的研究预
算。这个计划旨在阐明人脑构造,找到新方法来诊断和治疗脑部疾患,而其成果
也会被用于开发能像人类一样思考的人工智能。虽然有传言说欧盟内部围绕预算
的分配产生了诸多争议,也有说法认为这一计划并没有取得什么像样的成果,但
该项目规模巨大这一点是毫无疑问的。
在美国,脑计划(BRAIN Initiative)也正在获得推进。
这是一个从2016年开始的国家规模的大项目,预备在10年内投入45亿美元。
这个项目也是以脑研究为主,并在其研究的延长线上加入了人工智能开发。它就
类似于曾经实现了登月的阿波罗计划,国家对有前途的领域积极提供支持。这样
的国家战略,实在是使人瞠目结舌。
脑计划的推进兼具实用性和商业性。以实际应用功能为目标,先开发实际可
行的部分,这种态度似乎是美国政府与该国普通百姓共通的风气。
除了研究环境以外,日本与海外国家和地区的研究目标也大相径庭。在采访
中我们发现,Pepper的开发是一项非常日本化的研究。文化差异在机器人开发的
现场特别显著,使我印象深刻。
东京大学的人工智能研究学者中岛秀之曾对我说,日本人会对有面部形象的机器人感到亲切,但在欧美却并非如此。
事实上,在欧美地区并没意向开发类似于Pepper的机器人,这可能就是诞生
了铁臂阿童木的国家与诞生了终结者的国家的不同之处吧?总的来说,日本人大
概是很想与机器人做朋友的。从将棋软件看到的造物热情
我觉得,人工智能的开发过程本身,也是能够体现国情的。
比方说,日本的将棋软件开发史与国际象棋软件或围棋软件有着相当不同,独树一帜。
日本将棋软件的发展,始终不依赖硬件的发展,专心于增强软件本身的能
力。
为什么只专注于软件的强化呢?其中最大的原因就是“预算”。就像前面说的
那样,国际象棋软件深蓝是由IBM这样的大企业开发的,围棋软件AlphaGo在学
习时也利用了谷歌的数据中心和硬件。投入巨额资金,发挥硬件的威力,正是欧
美流行的做法。
不过,日本可没有能够搞到那么多预算的研究机构。此外,现存的将棋棋谱
数最多也就只有10万局,没必要像AlphaGo那样用大规模的硬件来进行学习。
日本将棋软件的开发环境可能并不优渥。但正因为如此,身处市井的个人开
发者们选择不断改进软件并将其放到网络上开源,形成了一种不断推动软件发展
的模式。
Bonanza的开发者保木邦仁先生并非将棋棋手,更不是什么电脑专家,他的
本职工作是化学研究。同样,技巧软件的开发者出村洋介先生的专业其实是法
学。但是我想,他们都把不同领域的知识和见地有意识地加入到了将棋程序之
中。此外,在普通企业工作的工程师中,也有很多人在不断进行相关的开发工
作。
与AlphaGo或深蓝不同,在电王战中登场的将棋软件基本上是由个人开发者
利用业余时间,投入了世间少见的热情开发出来的。
在企业的日常工作中,可能并不需要他们运用那种高水平的编程技术,所以
他们想要在其他领域充分展现自己的能力。就算电脑的性能低,也可以在编程中
加入创意,开发出革命性的程序。人们就这样千方百计地变换方法,相互竞争,一心一意地努力开发,才成就
了今天日本的将棋软件。这就是日本将棋软件的开发史。它体现的,不仅是欧美
巨大资本造成的硬件上的差异,还处处体现了贯穿了日本固有的传统文化的国民
性。
另一方面,开源对于任何一个国家的人工智能开发来说都有着重要的意义。
就像本书第二章中阐述的那样,在日本,将棋软件Bonanza的开源化,为将
棋软件的发展起到了巨大的促进作用。这几年来,Apery、技巧等优秀的将棋软
件也陆续开源化。
从结果上来说,这使得软件的进化速度也得到了提升,差不多一年左右程序
就会变换标准,优秀的程序不断出现,刷新榜单。简直就像是去年还在山顶,稍
不留神今年就滑落到了山腰。
这种人工智能的开源,在海外也同样有着巨大的意义。
例如,谷歌开发的人工智能学习程序TensorFlow、Facebook开发的深度学习
工具Torch以及微软开发的机器学习工具CNTK,都实施了开源。当然,在日本也
有人工智能开发公司Preferred Net-works将深度学习程序Chainer开源并得到了好评
的事例。
对于开源化,这些公司恐怕也基于确保人才、开拓市场、拓展事业范围等各
种目的,事先进行了考量吧?我想,这是网络的技术特性所带来的必然变化。
对于营利性企业来说,软件的开源可能会涉及专利、商标、版权等相关问
题,所以实行起来会比较困难。但是,这些企业还是在这之间找到了微妙的平衡
点,将软件开源来获取反馈。这种开源化想必会加速人工智能的开发进程。报告4 实现通用型人工智能之路
个人电脑为什么能战胜文字处理机
通用性是很多人工智能研究者关注的课题,不仅如此,从商业角度关注人工
智能的人群对此也十分关心。
这是因为通用性在人工智能的普及方面有着重要的意义。直截了当地说,它
能产生降价的效果。这是为什么呢?DWA ......
前言
01 人工智能即将赶超人类——“减法”思考
AlphaGo带来的震撼
对话戴密斯·哈萨比斯
现在,为什么要致力于开发人工智能?
人工智能vs老鸟警察
我对人工智能感兴趣的原因
人工智能开始做“减法”思考
人类的优势在于“通用性”
思考的基础
将棋界已经预见人工智能时代的样貌
人工智能的思维方式是“黑箱”
三子关系问题
人工智能没有恐惧心
人工智能会使人懈于思考?
作为第二意见的人工智能
来自人工智能的新思考
人工智能无法创造出船梨精[4]
报告1 深化深度学习
02 人类所具备的独一无二的特质——审美
机器人能在陌生人家里泡咖啡吗
棋手可以预估多少步?
大局观的奥秘
从计算能力到经验值
将棋适合做减法
图形识别能力是关键
100万局,3000万步
开源推动进化
如何获得审美
与将棋软件对局的策略水平线效应与每况愈下
每天练习解残局
现代将棋的学习法
故事与数据库
审美并非一成不变
关于“你能否战胜人工智能”的问题
报告2 记忆与人工智能
03 接近人类的人工智能——感情、伦理、创造性
人工智能会不会招待客人
孙正义的愿景
感情地图的构成
专业知识是否可以被运用于开发
Pepper的学校
叠手帕很难
机器人学习伦理
全世界共通的伦理
使人工智能具备法律人格
机器人的体贴
机器人有必要拥有人权吗?
人工智能画的羽生善治像
知道“这是人工智能的作品”时的反应
美也会由于人工智能产生变化
人工智能没有时间概念
报告3 如何教育机器人
04 制造万能人工智能的可行性——通用性与语言
人工智能分为三种
框架问题
不可思议的方法——马尔可夫链蒙特卡尔理论(MCMC)
图灵测试与中文房间
人工智能可以理解语言吗?
人类也被关进了中文房间
学习与推论实现通用型人工智能的路径
日本与欧美的研究环境差异
从将棋软件看到的造物热情
报告4 实现通用型人工智能之路
05 怎样与人工智能相处
2007年的发言
100亿人类与100亿机器人共存的社会
不要过于相信人工智能
人工智能是威胁吗?
每个人都要直面人工智能
人工智能与教育
学习的高速公路
多样性产生进化
我是如何对待信息的
如何充分发挥经验的价值
与不在一个层次上的智能共同生存
深入理解将棋软件
回归原始的娱乐
再定义智慧
报告5 人工智能的社会应用前言
寺院慎一
日本NHK大型企划开发中心监制
在1996年版的《将棋年鉴》中,有这么一段耐人寻味的内容。
这是一份调查问卷《电脑什么时候能战胜专业将棋棋手?》,请专业棋手填
写回答。1996年,正是IBM的超级电脑深蓝(Deep Blue)打败国际象棋世界冠军
的前一年。
大多数棋手都斩钉截铁地表示了否定,认为那一天不会到来。例如,米长邦
雄说:“那一天永远不会到来。”加藤一二三则说:“不会有那一天吧?”村山圣的
回答是:“那天不会到来。”真田圭一说:“100年之内应该是不会输给电脑的。”乡
田真隆说:“那一天终究会到来。但是,电脑却是永远也无法超越人类的。”不
过,有一位棋手几乎完全正确地预言了电脑战胜专业棋手的日期——那就是羽生
善治。他的回答是“2015年”。
恰巧在2015年,日本NHK电视台开始制作特别节目《天使还是恶魔:羽生善
治,对人工智能的探究》(节目于2016年5月播放)。与羽生先生初次会面的时
候,我也这样问过他:“羽生先生,您可以战胜人工智能吗?”
“如果用田径比赛来比方的话,现如今的人工智能差不多在尤塞恩·博尔特
(Usain Bolt)的水平,运气好的话人类说不定能赢。但再过几年,人工智能就会
达到世界一级方程式锦标赛(F1)赛车的速度。那时候,人类就不会再有与人工
智能一较高下的想法了。”
在专业的将棋棋手接二连三地输给人工智能的时候,羽生先生作为“最后的壁
垒”,被寄予了极大的期待。可是他本人却认为,在将棋的世界里,人类再也不可
能战胜人工智能了。
不过,羽生先生在说起这话的时候并无遗憾,更无不甘。他的语气很淡然,一如既往,甚至可以说对人工智能的进化发展充满兴奋的期待。
我们的节目之所以会请羽生先生来当采访记者,正是因为他虽然切身感受到
了人工智能的进化,却并不认为这种进化是对人类的威胁。在他看来,人工智能
的进化为人类开拓了新的可能性。
当今,全世界正在进行一场科技革命。人工智能、机器人、虚拟现实
(VR)、增强现实(AR)、宇宙开发等各种爆发性的科技发展,正在不断地改
变我们的生活。甚至有人预测,到2045年,电脑就可以超越人类智慧的总和,达
到技术奇点(singularity)。
在制作这档节目之前的2015年1月,我们还曾制作过一档由5期节目组成的系
列特别节目《我们的未来》,并在节目中描绘了在到达技术奇点的2045年,世界
将会是怎样的景象。
技术的进化已无法阻止。所以这个节目不如说是一档为大家思考应如何构筑
幸福、如何进行选择而提供背景知识的节目。而《天使还是恶魔》这档与人工智
能相关的节目,也始终贯彻了这一理念。节目并不站在“人类vs人工智能”这样单
纯的对立角度上进行思考,而是为了拓展人类的可能性,对如何使用人工智能进
行思考。
羽生先生毫不犹豫地接受了我们的工作委托,并耗费了大量地精力进行了采
访。他在各场棋赛的间隙,随同我们的采访组马不停蹄地奔赴英国、美国和日本
各地,消耗了大量的精力。在传出羽生先生在将棋对局中战败的消息时,我们全
体工作人员都从心里觉得非常过意不去。不过,正是因为有羽生先生对人工智能
的关心与亲身感悟,才更好地引导了我们这个节目。
根据节目制作时采访的成果,我们写作了本书。负责执笔的是羽生先生和本
节目的导演之一中井晓彦(制作局,科学环境节目部门)。本书的每一章都以羽
生先生的语言作为引子,切入各种论点的“核心”。而各章的末尾的“报告”,则由
中井导演根据采访成果,进行客观地解说,并对关联话题进行补充。
羽生先生的智慧,是可以让日本在全世界为之自豪的。羽生先生亲自采访、亲手执笔的本书,在如何对待不断进化的人工智能这一问题上,给予了我们很多
启迪。羽生善治是如何直面人工智能的,而他对未来又有着怎样的构想?——希望
各位读者能随着羽生先生的引导,畅想人工智能将会带来的未来。AlphaGo带来的震撼
2016年3月,韩国专业围棋棋手李世石惜败于谷歌旗下的英国公司DeepMind
所开发的人工智能程序AlphaGo。这场比赛一共进行了5局,李世石的成绩是1胜4
败。
李世石是世界上屈指可数的顶尖围棋棋手,他以独创的棋风和难以逾越的强
大,被称为“围棋界的魔王”。这样的人物被Al-phaGo击败,世间所受到的震撼可
谓非同一般。
在这场战斗开始之前,舆论普遍认为,现在的围棋软件在和人类顶尖棋手下
棋时,人类棋手至少要让三四个子,软件才可能与其平分秋色。在围棋界,这种
让对方在棋盘上先布几子的情况,被称为“让子”。当双方棋手水平有差距的时
候,有时会采取让子的方法,在开局前让水平较低的选手先布几子。这对于将棋
界来说,类似于“让驹战”。在围棋中让三四子,就相当于将棋棋手在让驹战中,做出“除去飞车”或“除去飞车与左旁香车”这样的非常大的让步。
恐怕,李世石先生内心也觉得自己不可能会输,在对弈前是非常放松的。
也正因为如此,在初战中察觉到对手的强大之时,李世石先生也同观战的我
们一样,无法掩饰自己的惊讶。
事实上,在这场对局开始之前的2016年2月,我曾与DeepMind公司的CEO、同时也是AlphaGo的开发者之一戴密斯·哈萨比斯(Demis Hassabis)进行过会面。
我们会面的目的,是为了制作这本书的基石——NHK特别节目《天使还是恶
魔》,但当时AlphaGo的开发才开始1年左右。那时的我说什么也想不到,李世石
会在这场对弈中落败。
哈萨比斯先生为人爽朗,善于交谈,给我留下了很深的印象。他是将棋、扑
克等思维竞技类游戏的爱好者,同时也很擅长这些游戏。
他原本是著名的国际象棋棋手,13岁时曾获得同年龄段世界级比赛的亚军。
在被特许跳级进入剑桥大学之后,他选择了学习认知神经科学等相关学科专业,并一直致力于游戏、人工智能相关的研究与开发。对话戴密斯·哈萨比斯
说回采访时发生的事。因为我也长年下国际象棋,所以见面之后,哈萨比斯
先生二话不说就和我下了两盘超快棋。
在将棋界,有一句话叫“对弈即对话”。我想从国际象棋的行子中,应该同样
可以看出这人的思维方式。哈萨比斯先生的行子方式颇具全局观,在攻守方面的
着力也很平衡,无论怎样的局面,都应对自如。在我的印象中,这种下棋风格就
是所谓的王道派,行子堂堂正正。我们对局的结果是一胜一负。我觉得,从他的
棋风中所体现的遵循王道的性格,也会体现在他的工作态度上。
在对DeepMind公司的采访过程中,有件事令我很感兴趣,那就是虽说这个项
目由熟知思维竞技游戏的哈萨比斯先生掌舵,但在这个人工智能的开发过程中,却鲜少运用到围棋方面的知识。
在这个项目中,相关人员最为重视的始终是人工智能相关的程序开发知识。
在采访当天,与哈萨比斯先生一同接受采访的工程师虽然对国际象棋了如指掌,但对围棋却不甚了解。不过同样,在将棋软件的开发中,人工智能的开发者不了
解将棋也是常有的事。
那么,AlphaGo是如何变得这般强大的呢?
当我询问哈萨比斯先生的时候,他告诉我,其中一个最直接的原因是,AlphaGo与自己进行了无数盘对弈。令人惊叹的是AlphaGo的运行速度,它可以以
极快的速度完成每一场比赛。在很短的时间内,程序就可以取得几十万局的对弈
数据。羽生善治(右)与戴密斯·哈萨比斯先生(左)对局,最终结果为1胜1负
普通的个人开发者要做一个月的事,DeepMind公司在一天之内就能实现,这
正是他们的厉害之处。
人工智能之间所进行的那些对局,看起来并不高妙。然而,庞大的对弈数据
的累积,最终使得工程师们所开发的人工智能战胜了李世石先生——尽管这些工
程师对围棋知之甚少。
AlphaGo与李世石先生之间的对弈,恐怕是现在举世瞩目的人工智能开发中
的一件极具象征性的案例。那么,人工智能的开发为什么会获得全世界的关注
呢?现在,为什么要致力于开发人工智能?
在我看来,目前的人工智能发展,主要有赖于三大要素的互相作用。
第一个要素,就是大数据。
人工智能通过大量数据来进行学习,数据越多,就越强大。例如IBM公司在
1997年开发的国际象棋程序“深蓝”,它曾在这一年的系列比赛中打败了当时的世
界冠军、俄罗斯的加里·卡斯帕罗夫(Garry Kasparov)。
当时,“深蓝”搭载了100万局以上的棋谱数据,每秒钟可以计算2亿步。20年
前的程序虽然还没有如今的程序这样简洁,但是利用过去的对局信息与强大的计
算能力,“深蓝”以“推土机式”[1]
的战法战胜了人类。
第二个要素,是硬件的发展。
十多年前,公立函馆未来大学研究人工智能的学者松原仁教授曾说过:“硬件
如果进步了,将棋软件就会自动变强。”因为,硬件的进步会使电脑的计算能力达
到每秒百万步甚至亿步,软件自然也就变强了。
这个认知基于英特尔公司的创始人之一戈登·摩尔(Gordon Moore)提出
的“摩尔定律”。这一定律是关于电脑发展进步的经验法则,根据这一定律,在空
间不变的情况下,集成电路的密度一年半增加一倍,所以电脑的计算速度也会以
指数级急速增加。
第一次听到这个说法的时候,我只是漫不经心地觉得“原来是这样”,并没有
放在心上。然而最近在将棋界,电王战[2]
越来越受到人们关注。看到将棋软件的
显著进步,这个说法对我来说才有了更切身的感受。
举例来说,AlphaGo在与人对弈时所使用的机器的计算能力并不是特别厉害
的。然而,AlphaGo在学习阶段使用的是DeepMind的母公司谷歌的巨大计算资
源,并依靠这些资源快速积累了大量的数据。
AlphaGo的胜利,要归功于能够处理庞大数据的软件和支撑了该软件运行的硬件技术。可以说,如果没有称霸世界的超大规模IT企业谷歌的支撑,就不会有
AlphaGo的成功。
除了大数据和硬件的发展,还有第三个要素,那就是“软件”部分的发展,特
别是深度学习(deep learning)的兴起。
听说过深度学习这个词的人恐怕不少。近来,人工智能引起了越来越多的关
注,主要就是因为深度学习。
在由被称为神经式网络(neural network)的模拟人脑学习方法构成的人工智
能算法中,它是最近最受瞩目的部分。人类的神经细胞通过电子信号互相传递信
息,而信息传递的结合部,被称为突触。将这种由突触结合来表达知识的原理通
过数学建模,就构成了神经式网络。
这其中最令我感兴趣的,是所谓的误差反向传播算法,因为这种算法通过删
除回答错误的神经细胞来修正答案。
用我的理解来对这个算法打个比方:
如果每一个神经细胞都是一个人,在一起进行传话游戏。第一个人得到的信
息是“猫就是长成这样的生物”,就像传话游戏一样,每一个神经细胞都向自己周
围的其他神经细胞传递这个信息,这样一来,终端就会知道“猫原来是这样的
啊”。
那么,如果要传一句“今天外出去新宿公干”,这句话如果只经过两三个人的
传递,应该是可以准确地传达给终端的。但是,如果通过50个人来传递这句话,会得到怎样的结果呢?
从第一个人开始,在若干次的传话之后,内容很可能在不知不觉中变成了“明
天去日本桥的百货店买东西”这类与最初的信息毫不相干的东西。为什么会变成这
样呢?往往是因为传话的过程中出现了不可信的人,夹杂了乌七八糟的信息。
那么,要怎么解决这个问题呢?拿将棋的学习来说,在将棋学习中,最重要
的并不是记住更多的东西,而是让自己舍弃多余的思考。同理,在玩传话游戏的
时候,就要把这种乱传话的糊涂蛋从游戏中抽离出去。之后再重新开始游戏,就可以正确地向终端传递信息了。
具体来说就是这样的:传话过程中,如果与A相邻的B告诉A“今天要去新宿
公干”,而与A相邻的C又对A说“明天要去日本桥的百货店买东西”。这时候根
据“传话游戏”的结果,首先应该认为C是不可信的,降低对C的信任度。(本书分
享更多索搜@雅书)
这样重复几次之后,哪个人传的话更值得信任就很明确了。在我看来,这就
是误差反向传播算法的本质。
我以前经常在将棋的书里提到,减少处理无用信息的“减法”思考,是人脑思
考的特征。而深度学习中竟然含有这种“减法”思考的要素,这实在是让我觉得很
有意思。人工智能vs老鸟警察
当然,人工智能并不是仅仅应用于围棋或象棋的软件里的,人们普遍认为,人工智能将在今后参与到更大范围的人类社会活动中。
成为这本书出版契机的NHK特别节目《天使还是恶魔》,就告诉了大家人工
智能是如何开始悄然改变我们的社会的,其中介绍的事例中有不少已经进入了实
际应用阶段。
在采访过程中,我了解到不少人工智能实际参与社会事务的事例。其中最令
我惊叹的,是美国某个城市里发生的一件事。
那个城市的治安很差,警察一直为此感到头痛。因此,警察局进行了一项让
人工智能来决定应该去哪里巡逻的实验。但实验中人工智能不断指示前往巡逻的
区域,却是拥有20年经验的老警官认为“这个时间那里一定很安全,不用巡逻”的
位置。
警察按照人工智能的指示前往那块区域巡逻,结果是令人震惊的,当地的犯
罪率真的发生了急剧下滑。这是因为人工智能通过大数据,可以筛选分析出“今天
这里有曾经犯下恶性犯罪事件的罪犯被释放”等信息,优化了警察应该去巡逻的场
所。
NHK特别采访组还采访了一家美国的初创企业,这家企业所开发的人工智能
系统通过照片,缜密地发现了专科医生也没能发现的癌症。由这些例子可以看
到,人工智能正在不断渗透到我们社会生活的各个角落。我对人工智能感兴趣的原因
虽然我与节目采访组一起采访,可我本人在人工智能这方面并没有任何专业
知识。不过,我对人工智能与社会的走向怀着非同寻常的兴趣。就让我先来说明
一下我对人工智能如此感兴趣的原因吧。
就在因特网出现的前后,将棋界也发生了翻天覆地的变化。作为棋手,早晚
都要面对这种科技的进步,所以一直以来,我都在关注科技发展的动向。
在国际象棋界,人工智能程序曾在20世纪90年代中期取得了很大的进步,并
在进入21世纪之后拥有了决定性的影响力。如今的国际围棋比赛中,人们一边确
认人工智能提示的“评价值”,一边看比赛,这已经是一件寻常事了。
在国际象棋、围棋和将棋的程序中,由于要对棋步和局面进行判断,所以会
有用于评价每步棋好坏的函数。程序就是利用这种评价函数来预测之后棋局的发
展,并算出较有利的下一手。所谓的评价值,就是根据评价函数为每一步棋评出
的分数。
特别是在国际象棋中,棋手在评判新棋步的时候经常用软件来进行辅助,这
已经是很普遍的现象了。我想,这早晚也会成为将棋界常见的情形。
我曾与人工智能研究者松原仁教授等人一起出版过一本叫做《知晓未来的头
脑》(2006年)的书,这本书讨论了人类的思维模式与人工智能思维模式的差
异。在那之后,我与认知神经科学方面的学者也有过很多次接触的机会,并一直
对人工智能相关的发展状况进行了追踪。从这个意义上来说,我对最近的人工智
能风潮并没有太多惊讶,只有一种“这一天总算来了”的感觉。
不过在参与NHK特别节目之际,看到导演给我的一大堆资料,我还是吓了一
跳,心想:“人工智能居然已经进步到这种程度了!”
未来学学者雷·库兹韦尔(Ray Kurzweil)曾经在他的著作《奇点临近:当计
算机智能超越人类》中提出了奇点的概念。
他在书中预言,在不久的将来,人工智能超越全世界人类智力总和的奇点就会到来。而从那时开始,机械的智力将会以指数级成长,以至于人类无法比肩。
库兹韦尔还在书中做出了很多预言,例如人类劳动力将完全被机械代替等。第一
次阅读这本书的时候,我不怎么相信他,不要说是半信半疑,连10%都不信。
然而在看到近来人工智能的发展状况之后,我不禁觉得,那种如同科幻电影
一般的预言,似乎正在逐渐变成现实。听说库兹韦尔也正在携手谷歌合作进行研
究,那么他这些看来“不可轻信”的观点,恐怕是相当的可靠。人工智能开始做“减法”思考
今天,人工智能已经取得了相当大的进步。
我之所以会这么想,还有另外一个理由。那就是我不得不意识到,人工智能
正在习得人类思考的优势。
在将棋中,作为“算步”的前一阶段,首先要做的是删除那些不用去想的棋
步,在进行这项工作时,对棋手来说非常必要的素质就是直觉。
棋手在看到盘面的一瞬间,要马上能够判断出“这种布局似乎很棒”,一下子
把无须思考的棋步舍弃,把最优的棋步范围缩小到几个之内。在电脑将棋中,这
叫做“剪枝”。
人工智能可以在1秒内计算几千万步,在“算步”方面比人类占优势。但是,运
用“减法”运算筛选出可行的棋步,却是人工智能一直以来的短板。然而AlphaGo
却能在计算棋步的同时进行筛选作业。
这就是所谓的策略网络(policy network)技术。使用这种技术,虽然未必会
得出正确答案,但却可以通过大致的计算获得基本正确的回答,舍弃那些明显无
效的解。
这样一来,电脑就可以只留下有希望获胜的棋步,接下来就能在限制时间内
进行非常深层的“算步”了。我认为,这个策略网络的作用,很有可能就相当于人
类的直觉。
这种技术可以说极大地提高了“算步”的效率,而且它与人类的思维方式非常
相近。我认为,这也是AlphaGo如此强大的秘密之一。(本书分享更多索搜@雅
书)人类的优势在于“通用性”
对于近年来的人工智能的发展,还有另一个让我觉得耐人寻味的地方。
与戴密斯·哈萨比斯先生会面的时候,他在历数人类智慧的优点时,除了变通
性之外,还提到了“通用性”这个词。
在DeepMind公司与AlphaGo对局的作者
在某个领域学习到的知识,可以应用于另一个领域,这就是人类智慧的优势
——我也是这样认为的。
哈萨比斯先生之所以得出这样的结论,大概是因为他的研究领域是脑神经科
学,所以对脑的可塑性有充分的认识。脑的可塑性的含义,用简单的语言来说就
是,人脑具有变通性,会根据不同的状况做出改变。
在目前的人工智能研究中,通用性是一个非常重要的课题。因为就算深度学
习已经应用于国际象棋、医疗等多种多样的领域,学习了国际象棋的程序也并不
能将其学习成果运用到癌症的检查诊断方面。国际象棋的程序终归只能下国际象棋,医疗方面的软件也只能应用于医疗。
人工智能只能在自身学习的领域专业化,虽然它做出的判断可以达到很高的水
准。
作为生物,人类在任何领域都能进行学习,但这种学习并非“博而不精”,而
且比起只擅长某个领域的学习,这种学习显然让人类更容易生存。人类有着举一
反三的能力,在一个领域学到的东西,可以应用到其他领域。通用性,是人类在
漫长的历史中获得的、远胜于其他生物的优势。
但是对于现今的人工智能来说,这一点还很难做到。思考的基础
关于将棋程序,有这样一件有趣的事情。
在开发将棋程序的检索部分时,开发人员常常会使用鳕鱼干(Stockfish)这
一国际象棋程序的开源代码。当然,在进行将棋的程序开发时,必须要对
Stockfish进行若干调整才行,但是据说,就算不加改动直接使用也很不错。
过去曾有“将棋程序没有通用性”这种说法,因为人们普遍认为,无论是把其
他领域的程序用到将棋上,还是反过来在其他领域应用将棋程序,都是不可能实
现的。
然而,Stockfish却冲破了不同领域的屏障,可以说是跨界程序应用的实例。
话说回来,最近将棋程序的开发开始蓬勃发展的一大理由就是,其他的游戏程序
算法也可以在将棋的程序中应用、转换或导入。
顺便提一下,就连AlphaGo,它的理论背景里也包括了其他的人工智能开发
中也在使用的算法——蒙特—卡罗法(模拟和数值计算的技术之一),以及一些
已经在专业论文上发表过的东西。在开发中,AlphaGo其实并没有什么新的划时
代的技术突破。
DeepMind公司目前还没有公布这个程序的详情。不过我想,如果公开
AlphaGo的检索部分的设置,将棋程序和国际象棋程序一定也能够应用。
这意味这什么呢?那就是尽管国际象棋、将棋和围棋是不同的竞技项目,但
是在思维逻辑方面,说不定有着相同的基础。
虽然游戏规则不同,但追及思维方式和逻辑的根本,这些游戏之间却存在着
共通之处。这也许可以成为我们探索“智慧”的通用性的一个契机。将棋界已经预见人工智能时代的样貌
DeepMind公司不仅在围棋方面有所建树,在其他领域也有涉猎。
2016年2月,DeepMind公司宣布与英国国民保健署(National Health Service)
等合作,开始涉足医疗事业。
不仅如此,DeepMind公司还运用人工智能的算法,把母公司谷歌数据中心的
冷却电耗降低了40%左右。虽然我不知道Alpha-Go的程序与这些案例有多大关
联,但这家公司能在短时间内取得这样的成果,不得不说令人震惊。
随着人工智能在社会上的应用不断深入,人类要如何面对人工智能,将成为
一个问题。因为人工智能表现出的一些特征,与人类以往的思维方式有着很大的
差异。
看着现在以电王战为主的电脑将棋与人类棋手之间发生的各种情况,我们似
乎也可以预见到人工智能在社会中获得普遍应用时可能会发生的情况。这是很有
趣的一件事。
从这个意义来说,电脑将棋正是将来机器与人类之间问题的一个缩影。那
么,就让我来说明一下,人类棋手在与电脑将棋对战时,需要直面怎样的“违和
感”。人工智能的思维方式是“黑箱”
首先,人工智能的思维方式对我们来说是“黑箱”。
特别是现在势头正旺的深度学习。如同之前说过的,这种算法的思路在于让
人工智能通过大量地读取数据来做出判断。所以,不熟悉围棋规则的工程师也可
以开发AlphaGo。
然而随着人工智能不断发展,如果它要做出判断的情况与政治、经济决策有
了更多关联,情况又有所不同了。如果这些重要决策的过程变成“黑箱”,很多人
都会觉得不放心吧。
当然,人工智能得出的结论,我们可以再用人类的思维进行说明解释。可
是,万一人工智能得出了人类根本无法理解的答案,我们要怎么办呢?这种情况
也是我们不得不考虑的。
例如,投球器可以通过设置,投出150公里秒的球,同样,也有可能存在一
个人能够投出如此高速的球。但是,当投球被设置成200公里秒的时候,恐怕就
已经超出了人类的极限,要投出这种异常高速的球,会伤到肩膀。
对于人类的思维领域来说也是如此,就像人的身体会受到物理条件制约一
样,思维也一样是有极限的——虽然抽象的世界导致这个道理难以被人察觉。三子关系问题
能够说明这一点的,是电脑将棋中的是三子关系问题。只要在棋盘的任意位
置上摆放三子,人工智能就可以通过庞大的数据,算出这种下法的优劣——只要
三个子就可以了。
三子关系在将棋判断下法优劣的算法中十分重要,现在的算法正是活用了这
种方法开发出来的。之所以是三子,是因为根据现在的计算处理能力,这个数量
是有效的。将来也可能会出现以四子为基本单位的算法。总之,这个数并不是随
便定下来的。(本书分享更多索搜@雅书)
判断下法优劣的能力是十分重要的,棋手也经常要考虑这个问题。然而,这
种能力并不是“王附近应该有金”“飞车不要放在王附近为上”这类可以从逻辑上说
清楚的事情。在盘面随意放三子就能分析出优劣这种事,人类肯定是做不到的。
然而,将棋程序计算得出的评价值,却极为准确。
我对这个问题非常在意,因此曾向松原先生询问过原因,但他只是回答
我:“哎呀,这个我也不是很清楚呢。”当我进一步问他:“那么,如果人类观察了
一万个这种三子关系的例子,并全部死记硬背下来的话,他的将棋水平会有所提
高吗?”他回答说:“恐怕是不能的吧。”
如果松原先生的话是正确的,那么就表明,人工智能存在着机器可以学习而
人类无法学习的“黑箱”。
之前提到的巡逻的事例也是如此。人工智能得出了老鸟警官也无法预料到的
结论,但是这一结论是将庞大的数据通过怎样的处理得出的,我们却不得而知。
在社会接纳人工智能的过程中,这种“黑箱”的存在可能会成为阻碍人们接纳它的
巨大障碍。人工智能没有恐惧心
电脑将棋与人类还有一个不同,那就是它没有恐惧心。
针对电脑将棋的下法,棋手们经常会提到:“在人看来,将棋程序的下法,经
常有一种‘违和感’。”
这是因为,人工智能常常会下出人类棋手不敢下的棋步。当然,也可以说这
是因为将棋程序不像人类那样有盲点,所以能够自由地选择下法。
然而,一旦人工智能应用于社会,这会造成怎样的局面呢?
尤其是人工智能机器人的情况,没有恐惧心,恐怕它很难立足于社会生活。
我们为了不被路上的车撞到,会很小心地过马路;在乘坐自动扶梯的时候,也会
注意让自己的步伐配合扶梯的运行速度——总而言之,恐惧心使我们可以察觉到
危险。
与“黑箱”的问题一样,当人工智能完成更大的进步,参与社会决策的时候,没有恐惧心会导致怎样的情况发生?它有没有可能做出人类无法接受的、具有危
险性的决策呢?人工智能会使人懈于思考?
就算以上这两个问题能够解决,仍然有可能会出现新的问题。
如果机器人能像人一样在物理空间中移动,人工智能又能帮助我们进行社会
决策,人类可能就会出现这样的想法:“那凡事都交给人工智能就好啦。”这样一
来,我们自身的思考能力似乎会变得越来越弱。
之前讲过,人工智能为巡警指出了合适的目的地,但是一旦将决策权完全交
给人工智能,也许人类自身的直觉就会钝化。
事实上由于技术的发展,这类问题已经发生了。
我在与一些警方人员谈话的时候,他们就曾聊到,由于《个人隐私保护法》
的影响,审问这种方式已经不像以前那样容易获得信息了。所以在审问嫌犯之
前,警方会先查看安保监控的影像。然而,没了审问这种自古以来的办案方式,以前警察的“总觉得这里有点可疑”的直觉,恐怕就得不到锻炼了。
当然,也有人会认为这并没有什么大不了的。可是,如果一直将一切都交给
人工智能来处理的话,一旦发生了系统无法应对的问题,人类要怎么办?谁来解
决这样的问题?
实际上,将棋程序对对战双方形势的判断,也并不是绝对正确的。
从人类角度来看不相伯仲的盘面,不同的软件给出的评价值会有相当大的差
异。这样一来,人们就需要对软件给出的评判进行思考,判断要对软件的评判参
考到什么程度,接下来应该怎样进行选择。而这种选择能力,只能通过在平时一
次次对局中的独立思考来培养。作为第二意见的人工智能
当然,如果人们把人工智能放在假想敌的位置上,放弃对其进行有效利用,并不是一个好的策略。如果对人工智能应用得当,它必定会给人类带来很大的助
力。
就拿用来提供第二意见的人工智能为例。所谓第二意见,是医学界的一个说
法,指患者不仅仅听取一名医生的意见,还听取其他医生所提供的“还可以这样诊
断(或治疗)”之类的建议。
同样,人们也可以不光采纳人类的判断,还参考人工智能“还有这样的可能
性”的提示。
前文提到,将棋程序可以突破人类思考的盲点。换言之,将棋程序改变了棋
手自身的视角。所以我想,是不是还可以这样使用人工智能:在不以人工智能的
判断为绝对的前提下,怀着开放的心态思考“我对这个局面是这样认为的,人工智
能又是怎么看的呢”?
正如我之前所说的,早在十多年以前,国际象棋界就已经把使用软件对棋步
进行分析和研究当成是理所当然的事情了。在初期阶段,软件得出的答案水准参
差不齐,是否能对其进行有效利用,是棋手们一分胜负的关键。但现在大家都可
以使用这个方法了,因此这一点已经无法决定棋局的胜负了。想要决出高下,就
牵涉到能否熟练运用软件,以及如何对包括数据库在内的程序本身进行充分利
用。
在将棋界也是如此,由于人工智能突破了人类盲点,很多人逐渐开始接受人
工智能的建议,认为“实际下了之后,发现这样的下法还不错哦”。现在,甚至已
经有一些人工智能的下法成为了定势。来自人工智能的新思考
像这样以人工智能的提示为参考,思索出新的下法,磨练将棋技术的事例,已是屡见不鲜。人工智能在不断学习,而人类也在通过人工智能不断进步。
对于我自己来说,眼前有机器在以如此惊人的速度不断学习,如果我们只将
其作为得到正确答案的工具,那就未免太可惜了。
对人工智能的算法进行思考和学习,得到新的创意想法——例如全新的审美
(详见第二章),这样的利用方法才更加有建设性,更加意义深远。
关于平时是否使用将棋软件这个问题,在对我的采访中,我经常会被问及。
我自己平时并不常使用将棋软件,只是在对前文中提到的人类无法理解的三子关
系问题进行思考,以及想知道人类能否理解它的时候,对将棋软件进行过考察。
我想,通过人工智能的答案,应该可以找到拓展自己思维的方法。
不过,要让社会中的绝大多数人接受人工智能得出的答案,恐怕会是一个重
要的课题。对事物进行判断或决策的时候,面对并不理解相关问题的人,决策者
能否给出简单易懂的说明,是非常基础,也是非常紧要的。想要让绝大多数人接
受一项决策,就必须想方设法帮助他们理解相关的内容。也就是说,人们可能会
需要一个人工智能版的池上彰[3]
先生。
此外,对庞大的大数据进行恰当的处理,并让其可视化(vi-sualization)的技
术,在将来应该会有大量需求。当人们不明白人工智能在做什么的时候,如果有
一种技术能对其行动简洁明了地进行说明,那么这种技术将会是十分重要的。
总之,在人工智能毋庸置疑已经渗入社会各方面的如今,能否充分运用人工
智能的力量作为第二意见,无疑会成为人们未来的一种技能。人工智能无法创造出船梨精[4]
与人工智能相比较,人类所拿手的领域才会愈加凸显。
例如天气预报。最初一点点的差异,随着时间的推移,可能会变成电脑也无
法预测的复杂情况,这就叫做蝴蝶效应。天气就是其中的一种,政治方面的判断
也与此类似。而像这样在相互纠葛交错的要素集合之间进行决策,似乎还是人类
更加擅长一些。
又例如创造性。如同前文所述,人工智能的创造性与人类的有很大的分歧。
所以我们才说,人工智能的判断有着作为第二意见的可能性。可是,要说人工智
能的成果从根本意义上来讲是否有创新性,这个问题就很难回答了。
在第三章,我们会详细描述能通过计算过去画家的数据,完全模仿画家笔触
的人工智能。类似的人工智能,在作曲界也已经登场。在人工智能有可能创造出
艺术品的如今,我们不禁想要探讨,人类的艺术活动是否真的具有创造性,真正
的创造又是指什么?
创造到底是什么呢?我个人认为,99%的创造是将已经存在的事物,以全新
的方式进行组合。从这个角度来看,这的确是人工智能擅长的领域。
可是,余下的1%或者0.1%也是存在的——这种创新就如突然变异一般,从空
无一物诞生出开创性的创造。
在关于人工智能的演讲或对谈中,我曾提到过:“人工智能无论怎样进化,都
无法创造出船梨精来。”
虽然我说得可能有点夸张,但船梨精的诞生不正是一种开创性的革新吗?而
这种创造行为,似乎是人类才擅长的领域。
不过,在将棋界这样的圈子里,这种崭新的主意却并不会让人觉得惊艳。因
为一旦看的人认为“这不是用电脑分析才找出来的嘛”,就不会单纯地觉得了不起
了。实际上,在率先普及人工智能的国际象棋界,自打进入21世纪以来,就没听
说过有什么高妙的棋招是人类凭借自身力量探索得到的。无论是哪一个
GM(Grandmaster,国际象棋最高称号),都理所当然地在检查阶段使用电脑。
不过这样一来,象棋界可能就无法产生类似牛顿发现万有引力的感人故事了。
当人工智能对人类进行辅助,而人类通过人工智能来学习成为人们的日常生
活方式时,这将会是一个怎样的社会呢?人类在行动时,是不是会像是拥有了一
个超级头脑呢?
脑科学家茂木健一郎曾表示,现代社会是以人类智商不超过100为前提而设
立的。茂木先生还问了这样一个问题:如果人工智能的智商达到4000,社会会是
怎么样的?到那时候,社会的形态可能会发生翻天覆地的改变。
如果,智商4000的人工智能可以像外置硬盘或者智能手机一样让我们随身带
着走……
当然,这只是对于人工智能可能会引起的变化的思考实验之一,有些科幻的
成分在里面。但我认为,这确实是一个值得讨论、令人深思的课题。
人类应该如何与人工智能共存?为了寻求这个答案,我自身也在不断地思
考。诚然,我还没有找到正确答案。可是,通过对电脑将棋界发生的事情的所
见,以及在NHK特别节目采访中的所闻,我想,我多少正向正确答案的方向接
近。报告1 深化深度学习
为什么选择哈萨比斯先生
羽生先生与我们采访组关于人工智能主题节目的制作会谈,始于2015年5
月。当时,世界顶尖围棋棋手李世石与AlphaGo尚未对局,我们甚至连AlphaGo这
个名字都还没有听说过。
但是我们了解到,谷歌收购的DeepMind公司里有一位名叫戴密斯·哈萨比斯
的天才科学家。他让人工智能学习如何玩游戏之后,人工智能拿到的分数很快就
超过熟练的老玩家。
拿Atari公司开发的游戏《打砖块》(Breakout)来说,人工智能只学习了4个
小时就记住了这个游戏的规则,并制定出了能得到高分的策略。这个成果不仅能
应用在这一个游戏上;利用这一成果,该人工智能在多达29种的游戏中获得的分
数都超越了专业玩家的得分纪录。
这种人工智能的算法被称为DQN(Deep Q Network)算法,相关论文曾登上
《自然》(Nature)杂志的封面。(因为在采访哈萨比斯先生的时候,我曾有点
不好意思地提到“DQN”这个词在日本还有其他意思[5]
,所以对此印象十分深
刻。)
该论文提到,人工智能可以“自行认识规则和特征,并建立战略,得出最优
解”。这恐怕就是彼时刚开始引起世人关注的深度学习的本质了。采访到戴密斯·
哈萨比斯先生,我们这个节目也许就能使人了解到人工智能最前沿的信息和未来
的走向了吧——怀着这样的想法,我们开始了对整个节目的策划。
不过,正在我们已经策划好方案,着手进行采访的阶段,AlphaGo仿佛彗星
般横空出世。搜集相关资料进行调查之后,我们发现,哈萨比斯先生居然还是羽
生先生的棋迷。“如果羽生先生能来英国的话,请一定让我见他一面,”他这样回
复。于是乎,我们得到了独家采访权。
两人的一致观点羽生先生花了大约两周的时间协助我们进行海外采访。前半部分的重头戏就
是两次访问DeepMind公司。第一次,我们参加了关于AlphaGo与李世石对局详情
的记者发布会。这是在伦敦与首尔两地经由互联网的会面,对弈的双方都表现出
了自信。
发布会结束后,哈萨比斯先生注意到羽生先生在现场,赶紧跑过来打招
呼:“我一直很期待能与您见面。”两人的寒暄都非常简单,实在看不出来是初次
见面。
拍摄的第二天,DeepMind公司方面的工作人员一早就准备好了国际象棋。我
们一到DeepMind公司的办公室,羽生先生和哈萨比斯先生就开始了使用计时器的
正规对局。令我记忆犹新的是,两人只是对弈了不到10分钟,就变得像旧相识一
般,让围观的旁人不由觉得这大概是天才之间才会有的心灵相通。
羽生先生评价哈萨比斯先生是“堂堂正正的王道派”,而从我对哈萨比斯先生
的印象来说,他是一位“因不懈努力而充满自信的人”。听说每天半夜12点到第二
天凌晨4点,是他用来阅读全世界的论文的时间。
作为一名经营者,哈萨比斯先生是一个非常全面的人。关于人工智能开发的
成果会给社会带来怎样的影响,他也十分敏感。2014年谷歌收购DeepMind公司
时,哈萨比斯先生提出的一个条件就是“设置伦理委员会”。从这件事我们可以看
出,哈萨比斯先生是一个有着很高的道德标准的人。
申请采访的时候,该公司的工作人员很详细地向我们询问了这个节目的主
旨。采访当天,我们也提到了人工智能对社会可能带来的消极影响,哈萨比斯先
生时常认真地点头表示:“我知道会出现这样的问题。”
人工智能的开发工作伴随着重大的责任。对人工智能的运用方法如果不恰
当,就可能引发对人类社会产生威胁的事态。哈萨比斯先生对此铭记在心,但同
时也关注着人工智能可以带来的美好未来。虽然采访时间不过短短2个小时左
右,羽生先生与哈萨比斯先生却已经达成了一致的见解:人工智能的开发不应停
止,人类的进步必须以此为前提。
图像识别是强项哈萨比斯先生开发的AlphaGo究竟是一种什么样的人工智能呢?就让我在这
里进行一下补充说明。
提到人工智能,恐怕有人会联想到科幻作品中常出现的巨型机器或机器人。
但是,它的实际形态只是软件而已。与AlphaGo对局的时候,李世石面前摆放的
不过是一台小小的个人电脑。
那么,这个软件是依靠怎样的算法来运行的呢?其根基正是所谓的深度学
习。
所谓深度学习,简单来说就是一种让电脑“记住学习方法”的机制。比方说,我们想让人工智能认识我们喝水时会用到的水杯。于是,我们让人工智能识别不
同的照片,告诉它“这个是水杯”,“那个不是水杯”。但是利用深度学习,人类就
不必教授水杯具有怎样的特征,只要在人工智能判断照片的时候告诉它是对是
错,它就能自己学到辨识方法(特征)。这就是深度学习的厉害之处。
用到画面的领域特别适合这种技术发挥作用,例如根据X光片来进行诊断。X
光片的画面涉及数万个精细特征,人类可能难以识别,但人工智能却可以。通过
对不足1毫米大小的图像进行识别,人工智能就能够发现癌症早期的迹象或是血
管的异常状态。
此外,在使用图像进行人脸识别的领域,人工智能也备受期待。例如,收集
在某个公共场所的数台监控捕捉到的某个可疑人物的信息,并以此建立人物画
像,就可以追查到其他地方的监控拍摄到的这个人。而且令人惊奇的是,就算是
这个人的背影,人工智能也可以识别。
从上述例子来看,拥有这种超强识别能力的人工智能,将来甚至很可能会代
替医生等需要高度专业知识的职业。
误差反向传播算法
在关于深度学习的段落中,羽生先生以传话游戏的比喻解释它的原理。在这
里,我想向大家更详细地介绍一下这种算法。
人类的大脑在受到刺激后,脑内大量的神经细胞(神经元)会相互联系——增强或减弱联系——来进行信息的传递和处理。而且,神经元的联系并非一对
一,而是多对多。也就是说,神经元的出入口都是由复数个通路连接的,是一个
名副其实的网络。
例如,电子信号通过多个通路进入一个神经元,该信号的合计数量超过一定
的数值(阙值)后,神经元就会兴奋起来,将信号传给另一个神经元。如果无法
超过该阙值,神经元就不会传输信息,信息的传递就会停止。此外,从某个神经
元的输入结合度会很高,电子信号强度也很高,但来自其他神经元的输入信号则
不是这样——这是神经元根据经验形成(学习)的一种“权重”,用以调节信号通
度的难易度。
支撑深度学习的神经网络,正是根据人类大脑的网络结构获得的灵感。例
如,让人工智能识别手写的日文平假名“あ”。因为是手写体,所以不同的人写出
的文字形状各不相同,有些会被人工智能识别成“あ”,有些则可能会被误认为是
日文平假名“め”。这时候,我们就可以认为是网络的某处出了问题。“逆推”神经
回路究竟是在哪个地方产生了较大误差后,调整相关结合处的“权重”来修改信息
通过的难易度(其中也包括了权重设置为零,停止传递信息),说不定人工智能
就能顺利地进行识别了。就像羽生先生在说明中用的传话游戏的比方一样,当发
生误传的时候,就去寻找源头,去除传错话的人,并让游戏重新开始。
发生识别错误时,从结果回溯逆推,即让信号逆流,自动地改变可能有问题
的节点的“权重”。这样重复若干次之后,识别的精度就会提高。这就是误差反向
传播算法,对此加以优化,就是深度学习了。
AlphaGo分析棋步有两个阶段
除了深度学习,AlphaGo还采用了能够减少下一手预判量的算法。这正是羽
生先生在前文中所说的“策略网络”。
哈萨比斯先生——同时也是一位国际象棋选手——将这种“筛选”的算法编入
了AlphaGo,而且还将其分为两个阶段。第一个阶段是筛选出下一步的范围
(value network,价值网络);第二个阶段是根据不同的局势,判断应该预读到
接下来的第几步(策略网络),以此来控制计算的深度,从最少的必要深度中,选出现阶段的最佳下法。不过对于计算机专家来说,这种算法本身并不是一个很难的东西。使用蒙特
—卡罗法的模拟实验和数值计算,就可以算出随着局面增加的各个下法(二叉探
索树)的胜率。蒙特—卡罗法早就出现在一些编程入门的书中,为人们所熟知。
在胜率超过某个特定的数值之前,程序会不断地计算,而当胜率超过这个数值的
时候,计算就会停止。人们就可以大致确定,“试试这样做,应该会很顺利”。
这种办法听起来仿佛很随意,但是如果能够像这样排除那些无谓的战略,电
脑就可以对有价值的战略进行彻底的深度思考。因此从某种意义上,可以说现在
的人工智能的智慧已经从本质上逼近专业棋手的智慧了。而羽生先生早就对人工
智能持有这种观点,他的分析能力可见一斑。
GPU与IoT
深度学习技术的进步令人瞩目,但其概念却并不新颖,实际上在30年前就已
经诞生。只不过这种算法需要对庞大的数据进行并行计算,而当时可以支持这种
计算的硬件还不存在。随着计算机的发展,深度学习的计算在如今终于成为了可
能。
使计算机的图像处理和运算处理速度提升成为可能的硬件是GPU(graphics
processing unit,图形处理器)。它的开发公司英伟达(NVIDIA)近年来在半导
体制造方面的业绩正在迅速提升,这也正象征着深度学习技术的发展进步。
深度学习技术发展的另一个重要原因,是互联网与IoT (Internet of Things,物联网)的出现。
五六个数据还不足以让人工智能利用深度学习来判断正误,深度学习需要的
是数以千万计的数据。
在以前的条件下,存在如此大量数据的领域极其有限,但随着互联网和物联
网设备的出现,状况发生了改变。物联网是指世界上的各种设备都拥有通信功
能,可以互相通信并连接互联网的一种结构。通过这种结构,可以实现自动识
别、自动防御、远程测量等功能。它甚至可以将我们的发言、拍摄的照片又或是
动作和心率都数据化,并发送给第三方。虽然在个人隐私方面,物联网的使用还
存在争议,但它也是人工智能能够发展到今天并利用大量数据的重要原因之一。全世界的研究者vs羽生善治
关于羽生先生与节目制作的一些相关的事情,我想再写几句。
在邀请羽生先生担任这次特别节目的记者的时候,他正忙于比赛。对于他能
否参与海外采访,我们心里七上八下的。可是我们一开口,他马上就答应了。因
为这个节目需要与众多的人工智能领域的研究者进行对话,早就对人工智能抱有
强烈兴趣的羽生先生马上就答应说:“见与闻是大不相同的两回事。如果可以一起
进行采访的话,请务必带上我。”
于是我们定期联系,一边向羽生先生报告制作组的采访情况,一边争取到了
他在头衔战期间的仅有的一些空档,最终确定于2016年2月进行海外采访,同年3
月进行国内采访。
与羽生先生一起采访,总是会发生令人惊奇的事件。
例如,哈萨比斯先生特意带上了自己的对局计时器,与他下国际象棋。又例
如,对软银(Softbank)开发的机器人Pepper进行采访的时候(参见第三章),几
乎从不接受电视台单独采访的孙正义总裁,居然穿着日常服装出现在了采访现
场。
这是因为全世界研究人工智能的研究者们,对代表现代最高智慧的羽生善治
在人工智能方面的看法,充满了兴趣吧?说起来,哈萨比斯先生原本就是羽生先
生的棋迷。
在我们从一个地方到另一个地方的移动过程中,羽生先生也常常阅读相关的
采访资料。在海外的采访中,他有时还会在英语采访中用到一些专业词汇。他不
仅能够跟上对方发言的思路,还能就此提出敏锐的问题。哈萨比斯先生有一句话
令人印象深刻,他说:“人工智能很容易驾驭音乐等数学性的领域。”这正是羽生
先生与他展开激烈论战的成果(参见第三章)。同样,孙正义总裁也因为自己与
羽生先生的对话而深有感触。
无论何时都能够毫无偏见地、变通地进行思考,这种态度也体现在羽生先生
所下的将棋中。我们的节目,正是羽生先生的思考与其灵活变通的感受性相结合
的产物。机器人能在陌生人家里泡咖啡吗
第一章中,我像记流水账一样写下了我对人工智能的一些看法。
高度发展的人工智能问世,并不单单意味着这个世界出现了超越人类智慧的
事物。现在的人工智能还有着明显拿手的领域和不擅长的领域,还不是万能的。
不仅如此,有些人类可以轻轻松松就做到的事,人工智能却完全做不到。
比如说,在陌生人家里泡咖啡这种事,对于任何一个人类来说都不算是很难
的事吧?一个家里哪里大概会有咖啡豆,哪里可能有杯子和滤纸,该在哪里烧开
水——这些对于人类来说,都会有大概的猜测范围,很容易就能办到。
但对于智能机器人来说,就不是这么简单了。在陌生的地方,单是要寻找咖
啡豆,机器人就必须面对无数种可能的放置地点,找起来比人类要费劲儿多了。
虽然智能机器人可以在一瞬间搞定几十万位的运算,但却做不到这么简单的事
情。
话虽如此,人工智能在社会中不断获得应用也是事实,人类要在生活中毫不
受此影响,应该也是很难办到的。因此就像我在第一章所提到的那样,我们必须
以人工智能的判断并非绝对准确为前提,思考如何更好地来使用人工智能。
在面对这个问题时,我们首先要对人类的思考与人工智能的思考有何不同,进行认知和了解。
在这一章里,我们要对这二者进行具体的比较。首先我们来讲一下,将棋的
棋手究竟是依靠怎样的机制来决定自己的棋步的,我将以自身的经验为例来说
明。我希望能在此基础上,明确人工智能与人类之间的异同。棋手可以预估多少步?
对局中,棋手在思考棋步时大致可以分为三个步骤。
隔着棋盘相向而坐的棋手,在对方走出一着之后,首先会利用直觉,进行大
致的判断。
经常有记者在采访的时候问我“可以预估多少步”,这个问题其实很难回答。
这是因为棋手本身很少会去数步数。实际上,我们并没有事先预估很多的步数,而是通过直觉,先将可行的棋步范围缩小。
人们常说,将棋的每个局面平均有80种下法。但是我们可以根据“这里不是中
心,这里现在不重要”等考虑将这么多方案一下子缩小到两三种。这就像是用照相
机拍照时对准焦点一样,瞄准“问题的中心”来思考,棋手从一开始就不会考虑其
他的可能性。如果要将所有可能性都梳理一遍,会花很长时间。
也就是说,与从零开始一点一点思考相比,先找到大概的方向,再进行理性
思考,反而会更早得出答案。
不过,这里说的直觉并不是胡乱猜测。如果硬要用语言来描述这种感觉,它
应该属于“经验与学习的成果在瞬间的作用”;或者说,它是一种能够大致指出“现
在自己在哪里,应该往哪个方向前进”的指南针。这是棋手经过长期训练积累所获
取的技能。大局观的奥秘
像这样筛选了下法之后,就进入了预判环节。这是第二个步骤。
在这一步,棋手要预测对方下一步的走法,以及自己回应之后对方的下一步
走法……总之,尽可能地去预测和模拟接下来的走势。
但到了这一步,我们会遇到计算量呈现出爆发式增长的问题,毕竟,下法的
可能性的数量,是每一步下法的可能性数量不断相乘的结果。例如,这一步我考
虑到3种下法,而每一种下法对方都有3种方法来对应,这时候,我就要考虑9种
可能性。这样的预测持续到第10步的时候,计算量就是10个3相乘的结果,也就
是说,棋手会陷入不得不分析近6万种可能性的窘境。
当然,对于人工智能来说,这点计算量不过是眨眼的功夫。但对于人类来
说,全部计算却是不现实的。尽管我们可以使用直觉来缩小可能的范围,但要预
测接下来的10步,这种困难也是超乎常人想象的。
在这里需要用上的,就是第三个步骤——大局观。这一步的关键就在于不
能“只见树木不见森林”,而是要着眼全局。
因此,从具体的某一步挪开目光十分重要。就是说,要特意避开对“这个飞车
是动还是不动呢”这类具体下法的分析,而是要着眼于从开局到终局的流程进行战
略性的思考。
大局观的优点如同第一个步骤直觉一样,可以让你跳过很多无意义的思考。
如果能看透大局,那么只要认为“这是个好机会”,就可以从千万种下法中只筛选
出“攻击选项”,提高效率和效果。从计算能力到经验值
在大局观这一步,棋手必须充分运用以往对局所获得的经验。
回顾我的将棋生涯,从十几岁到二十几岁的时候,自己主要是依靠记忆力和
计算力来进行对局的。在整体思考的流程中,当时的我会特别倚重算步时的计算
能力。
而且由于年轻时的记忆力很好,又很有干劲,就能够冒险。虽然经验不足,但可以采用所谓的聚焦优势来取长补短。
瞬间爆发力会随着年龄发生变化。实际上,如果必须在10秒内决定下一步怎
么走的话,我年轻的时候说不定会比现在下得更好。
成为专业棋手已经30年,现在四十多岁的我,如果与当年二十几岁的我对
局,虽不知鹿死谁手,但一定会下出一盘精彩的好棋。
这是因为,四十几岁的我通过经验累积,大局观要强于年轻时代。
在思考下一步的时候,四十几岁的我与二三十岁的我看法会不同。虽说流程
依旧是先以直觉把握局面的大致方向,然后以逻辑分析细节进行预判,但在大局
观方面,四十多岁的我花费的精力明显更多。
年轻的时候,我每当在预判过程中发现此路不通,就会返回原点重新计算。
因为体力好、劲道足,所以还可以应付。
当上了年纪,体力就很难支持我这样做了,况且在错误的道路上思考是浪费
时间。现在的我由于在最初阶段就“做出了断”,反而节约了很多的体力和时间。
不过,这个能力在实战中能否顺利应用,就是另外一回事了。所以最近我总
是在对局最开始就考虑如何将局面拉到自己可以活用经验的情势下,并将其作为
我的战略。
也就是说,在对局中如果有经验的棋手能像“油门与刹车的细微加减”一样完美地活用感观来对战的话,就能够凌驾于体力、记忆力和气势更胜一筹的年轻棋
手之上。
直觉、预判和大局观,棋手在对局中正是用了这三种方法来思考的。
这样一来,30分钟左右棋手就能选好下法。当然在对局中,也有棋手经常会
花一两个小时对下法进行思考分析,那是为了选出最佳下法。
但是,花费的时间多并不意味着选出的下法就越好,这一点是最难的。举例
来说,迄今为止我对一步棋思考的最长时间是4个小时左右,可现在回想起来,就算只花五秒钟,我还是会选择那样下的。将棋适合做减法
将棋中很有趣的一点是,棋手在思考的时候,最重要的就是尽可能地削减没
有意义的棋步,也就是做减法。
而且,将棋可能比其他的棋牌游戏更需要减法思考。因为在将棋的很多局面
中,轮到自己时“什么都不做”,往往才是最佳策略。
这一点与围棋有着很大差异。
与戴密斯·哈萨比斯先生对话的时候,热爱思维竞技游戏的哈萨比斯先生对围
棋的特征进行了这样的概括:“落在哪里都好的棋步非常多。”
实际上,在日本围棋界有个词叫“一局棋”,也就是说,就算真正正确的下法
只有一种,棋手也可以有无数种选择。第一步就落在星[6]
上也可以,落在小目[7]
上也可以,落在三三[8]
也没问题。当然,按照AlphaGo那样的软件提示的落子位
置可能非常好,但那也只是可选位置的一部分而已。
反过来说,在围棋中鲜有“这个位置以外的落子都是扣一千分的坏棋”这种情
况。也就是说,围棋中就算落子失误,也不一定会有非常大的影响。
然而将棋的情况则相反,常有“这步以外的下法都是扣一千分的坏棋”。
所以想要在将棋方面变强,最重要的是什么呢?如果问我的话,我会回
答:“瞬间判断出下哪步是错的。”因为,无论棋手能预判多少步,只要其中有一
步算错,之后的算步就都是浪费时间了。也就是说,在将棋中,最佳棋步和次佳
棋步有很大差别。图形识别能力是关键
所谓“瞬间判断出下哪步是错的”,就得依靠我在直觉和大局观的部分中写到
的,通过多次对局累积的经验。那么对于人类来说,什么样的经验更容易累积
呢?换句话说,怎样的经验可以让人更加记忆深刻呢?
在这里举个例子吧。
想要记住刚了解将棋规则的人的对局,是非常困难的。因为他们常常不按常
理下棋,棋局的形势也乱七八糟,所以旁观者很难对局面进行正确的评价和认
识,也很难记住。
将棋与其他棋牌游戏一样,是一种必须拥有图形识别能力的游戏。棋子的配
置可以形成具有不同特征的图形,棋手是否能够清楚地明白这些图形的优劣,与
他们的棋力强弱紧密相关。
另一方面,专业棋手的棋局则由于井然有序而十分好记。在我的理解中,这
里所谓的井然有序,就是指与基本形相近。与基本形越相似,人们就越容易对其
进行识别。所以,过去出现过的局势或一看就觉得眼熟的局势,就更容易记住。
无论从形状方面还是逻辑方面,都是如此。
将问题进一步深化——为什么接近基本形的局势更容易被记住呢?因为棋手
总是会通过大致的情形把握局势,将布子简化来对盘面进行记忆。
实际上,面对专业棋手的棋局,我可以在5秒内记住40枚棋子的配置情况,但是如果棋子是随机放置的,我就很难记住了。对此我曾经做过试验,测了10
次,每次都无法全部记住。随机就是这么难以记忆。
此外,在将棋中将审美与算步相结合,就能更加高效地舍弃错误的棋步。
因为当形状与基本形相差很多,很难记忆的时候,棋手就会有微妙的不协调
感。大家在看书的时候,应该也遇到过虽然语法没问题,但节奏或表达方式让人
总觉得有哪里不舒服的文章吧?虽然在规则上没有问题,但让人很难接受,有不协调感、抵触感——这时
候,就算自认为是“这是步妙棋”,棋手也不会这样走。
相反,也会有觉得“这步漂亮”的时候。通常来说,这样走之后,在接下来的
对弈中我们往往会发现这是一步有序有理的好棋。
我认为,棋手在选择下一步的时候,就等同于是在磨练自己的审美。能否感
受到妙招之美,是判断棋手是否拥有将棋才能的关键。能够将这种审美磨练到何
种地步,关系着将棋棋力的强弱。
为什么人类可以通过直觉,一下子舍弃90%左右的棋步,并用大局观来限制
预判的方向呢?
要进行如此大规模的取舍,核心就在于审美。如果棋形不够美,棋手就很难
在准确的范围内进行算步。100万局,3000万步
与此相对,使用了电脑和人工智能的将棋软件,又是如何进行下一步选择的
呢?
如同之后会展开叙述的那样,虽然最近有些软件也采用了不同的方式(这是
很重要的),但最大的特征依旧是进行人类无法比拟的大量计算,对盘面的各种
可能性进行预判和分析。
将棋软件选择的关键,是第一章中介绍的大数据与硬件的进步。
例如在国际象棋界,早在1997年,IBM开发的深蓝就打败了当时的世界冠
军。深蓝获胜的关键在于国际象棋一直以来就有记录棋局的习惯。就算是业余选
手的棋谱,也有很多存档。
据说,当时深蓝的数据库中有多达100万局的棋谱档案。不仅如此,它还配
有1秒钟可以分析2亿步的硬件。此外,残局——接近终局时盘面上棋子越来越少
的局面——的完整棋谱也发挥了很大的作用。庞大的棋谱数据与计算能力相结
合,使得在软件算法还不是很成熟的20年前,电脑可以战胜人类。
从根本上来说,AlphaGo的能力与深蓝的是一个道理。
AlphaGo的基础部分,是通过网上15万局左右的人类棋谱学习得到的。据
说,它通过这种方法学习了近3000万手的局面和棋步,又通过与自己对局,收集
到了在统计学上可以信赖的数据信息,从而变得更加强大。AlphaGo与自己的对
局数量高达100万局,如果让人类来下,要花一千多年才可能实现。
要完成100万局,大家可能会认为这是非常荒唐的一件事(对于人类来说确
实如此),但是在AlphaGo之间,恐怕10秒之内就能下完一盘。所以如果采用
DeepMind公司能够进行高速运算的电脑,100万局应该是花不了多少时间的。
将棋程序也是如此。如同第一章中所介绍的那样,国际象棋程序也可以将搜
索算步的Stockfish运用于算法,可以与其他电脑以1秒1局、10秒1局的速度,进行
大量练习。开源推动进化
像那样进行算步之后,接下来就到了选择最佳棋步的环节。如果是人类,自
然可以依靠大局观来进行筛选。而电脑在进行择优的时候,就要用到评价函数这
个评价局面的算法。
对于将棋软件来说,评价函数的正确程度是十分重要的,我听说,有些程序
甚至会设置300多种评价指标。
2005年发布的将棋软件Bonanza对于评价函数的发展有非常关键的影响。在
Bonanza发布之前,将棋软件的水平一直停留在业余五段左右的水平,无法进
步,而最近,它已经有了惊人的发展。
这不仅是由于新出现的评价函数的算法很厉害,很大部分程度上也是多亏了
开源这种无偿公开程序代码的行为。
这种行为有多厉害呢?这就好像是世界上同时存在着很多个可以投出160公
里秒高速球的职业棒球手大谷翔平——当然,现实生活中只有一位大谷翔平,但
开源的程序却让人想复制多少就能有多少。而且,人们还能随心所欲地将这种能
力进行优化改良。当所有的棒球队都有大谷选手的时候,以前算得上是王牌的选
手,可能就不一定会被选进首发阵容了(虽然说绝大多数的复制程序会比原本的
程序弱一点)。
从10年前开始,收费的将棋软件就基本卖不出去了,因为免费的将棋程序实
在是太强了,付费版根本没有市场。
但是,免费也助长了将棋程序的开发者们对将棋软件进行开发改造的热情。
这种惊人的热情,促使他们互相切磋琢磨,对程序不断细化修改,这才使得将棋
软件以令人惊异的速度成长、变强。如何获得审美
总结一下本章前几部分讲的内容:人类下棋时,是以直觉、预判和大局观这
三个步骤来进行筛选和判断的,而人工智能则通过强大的计算能力进行预判,最
后再用评价函数来选出最佳下法。
在这里,人类拥有而人工智能欠缺的,就是在筛选下一步时缩小范围的过程
——用直觉感到“大概就是这个样子的”。棋手是依靠审美来缩小范围的,但人工
智能却没有类似审美的能力。
这是为什么呢?
我认为,这与人工智能没有恐惧心有关。
第一章中我们曾提到,人工智能只是以过去的数据为基础,计算出最佳答
案。因此,对于一些人类思考的盲点,人工智能也可以“无所畏惧”地提出来。当
我们看到答案的时候,有时会震惊于它为何会选择如此危险的对策。
这种人类思考的盲点或死角,似乎是我们与生俱来的防卫本能或者说生存本
能造成的。人类为了生存下去,会习惯性地把危险的想法从思考范围内排除出
去。
之前已经反复提到,棋手利用审美来筛选下一步时,之所以感到美,其实是
因为眼前的棋形接近于看惯了的基本形。
我想,人类的审美意识,应该是接近于安心、安定这一类的感觉的。所以,当察觉局势蕴含危险的时候,人们就会感到不安、不协调,无论这步棋看起来有
多妙,也不会使用。
审美可能是人类在漫长的生存史中获得的本能。但是,拥有审美,对于人类
来说亦喜亦忧,既是优势又是弱点。因为,人类所认为的臭棋,在经过深度学习的人工智能看来可能是妙招。而
将棋的棋局中有着庞大的可能性,我们的审美无法认知的地方,可能隐藏着胜算
更大的选项。
这导致人类棋手所能见到的,只是将棋的一部分可能性,从全局来看,这种
看法可以说被局限于十分狭隘的视野之中。
通过这片狭小的视野,我们根据自身经验培养出的审美感受到不合逻辑、形
状不好等直觉或大局观。但在我们不了解的世界里,可能还存在非常高妙的对
策。
也就是说,人类的思考被审美所限制,选项自然地减少了。所以我认为,仅
就这一点来说,将棋软件和人工智能存在的意义也是非常巨大的。
不过,一旦到了将人工智能运用于社会的阶段,人类是否能接受人工智能的
判断,就成了一个很现实的问题。想要战胜审美意识,毕竟是非常难的。
无论是多么正确的选择,人们还是从生理上就不想采用,这种情况不仅将棋
棋手常常经历,围棋或国际象棋的棋手应该也会经常遇到。一旦关系到社会伦理
和礼仪等方面,这种矛盾恐怕会成为更加严重的问题。
我曾经半开玩笑地表示:“当无所畏惧的人工智能拥有了恐惧心,才是真正可
怕的。”因为那样一来,人类就对人工智能的真实想法一无所知了。与将棋软件对局的策略
既然人工智能拥有与人类感性截然相反的一面,那么,我们应该如何面对它
呢?
偶尔我会碰到有人问:“与电脑下棋开心吗?”但认为“比与人下象棋无
趣”的,应该不只有我,恐怕是大多数人的想法吧。实际上,我从来没听说过有棋
手会以与电脑下棋为消遣,这种事在我看来,算不得是休闲娱乐。
拿可以让将棋软件自由对战的网站floodgate来说吧,虽然人类也可以在这个
网站上与将棋软件对局,但实际上很少真的有人类参加。这个网站基本上已经成
为了将棋软件互搏的场所,如果有人类参加,反而会被认为是不合常理。
人类的对局与电脑的对局,原本就是相差甚远的游戏。
如果对局的两个人是人类,那么当对手出招之后,一方会将他的性格特点与
盘面整合,思考“这个人如果这样下,假设五步之后变成这样,那之后就会变成这
样吧”,这是非常有趣的。但如果对手换成了人工智能,又会是怎样的情形呢?
这时候人类棋手的思考方式,就同与人对战时大不相同了。
拿现在的电王战规则来说,棋手可以先把对战软件借出来,在正式对战之前
用它进行练习和分析。与借来的软件不断对局,不断分析,就可以预测这个程序
会选择某一些下法的几率,并在面对不同的局面时,确立相应的对策。不过,软
件采用了随机数字,所以完全预测出来是不可能的,然而对局只有一次(先后手
各一局),准不准就只能看当天的运气了。是否能将局面带到胜算较高的状况,基本看运气——这就是人类与将棋软件对战时的对策。
这种练习和分析方式,与其说是下将棋,不如说是在规定时间内尽可能地在
资源中找到程序的特征和漏洞。
有棋手甚至研究到棋局的第100手,但他们也只能一个劲儿地研究如何预测
分歧点时电脑会采取的下法的概率。这种研究方法,就是通过下1000局甚至
10000局来尽量记得“这种时候,80%会这么下,20%会那么下。面对80%的那步如果这样应对,电脑有40%的可能性会这样还击,60%的可能性会那样还击……”如
果不尝试这么多局,这种统计数据就毫无意义可言。
人类就只能像这样,漫无止境地重复探寻各种下法的可能性和分歧点,选出
软件评价值高的下法。
这样的研究会不断进行,直到对局那天。到最后,棋手甚至会怀疑自己到底
是不是在研究将棋。没有共同的理解平台,双方要在这种思维竞技中感受到快乐
是非常难的。
顺便提一句,我曾听到一位参加电王战的棋手说:“电费超高,简直受不
了。”这点也确实令人唏嘘。水平线效应与每况愈下
不过,今后人工智能真正在社会中得到应用的时候,对其工作状态进行严格
的验证,确保其不会有故障,提升其“健康度”,将是一项十分重要的工作。
当人工智能机器人被导入到社会生活中时,为了确认它真的没问题,真的对
人类无害,事先进行各种检查认证,先行掌握人工智能的优势和弱点,是非常重
要的。
在这个层面上,将棋程序与棋手的对局,也许还有着未来社会模拟实验这样
一层意义吧。
举例来说,现阶段人工智能的课题中,有一个问题叫做水平线效应(horizon
effect)。
简单说明的话,就是说人工智能有“将问题延后”的习惯。例如,如果程序能
预判后20手,就会发现现在这个下法是负1000分的臭棋,但对于只能判断后10手
的程序来说,这个问题在水平线的另一头,所以程序就会毫不犹豫地选择眼前看
起来只是负10分的棋步(看起来损失更小)。从结果上来看,这种下法就是把问
题拖延到后面,尽量地选择拖延战败时间。
在AlphaGo的对局中,李世石唯一获胜了一局,恐怕也是由于这个缘故。这
种水平线效应对于电脑程序来说,很可能是致命的弱点。
有一个词叫每况愈下,水平线效应正意味着人工智能故意选择了这样的未
来。对于我来说,如果“下这里还能再持续50手,但却没什么胜算”,那么我可能
会冒着在10手后被将死的危险,选择有获胜机会的下法。
这种水平线效应,还涉及人工智能应该如何把握认输时机和方式等问题。在
将棋和围棋的对局中,判断自己毫无胜算并认输,实在是一种非常像人类的行
为。
当然,我们可以将软件设置为超过评价系数的一定值时投子认输,但这并不
等同于本质意义上的认输,让软件深刻地认识到几乎没有赢的机会,承认自身的失败,是非常困难的。
不过即使对人类来说,要用长远的目光对某样事物的利弊进行判断,也是非
常困难的一件事。
有这样一种说法,国际象棋的软件如果突然下了一步看起来对自身来说不利
的棋步,这时候人类就会比较容易犯错。这是一种非常经典的技法,大约三四十
年前就被发现了。据说,打败了国际象棋冠军卡斯帕罗夫的深蓝中,也包括了这
种程序。也就是说,也有一种程序专门利用水平线效应,诱导人类棋手失误。
人类也好,人工智能也罢,都有犯错的可能。我们可以理解人类犯下某种程
度的失误;但同时,我们很可能会过分相信电脑的能力,误以为人工智能绝对不
会犯错。每天练习解残局
我已经根据自己的理解,解释了人工智能与人类的思考过程的区别。在这个
基础上,我们来思考一下人类与人工智能今后要如何相处吧。
首先要确认的一点是,人工智能通过深度学习获得的成果,人类是否也能学
到。
也就是说,人类不仅要学习人工智能导出的结论,而且要通过这些结论认识
到自身思考的盲点,改变自身的审美。
不过,这可能办到吗?
如今在将棋界发生的事情,也许可以作为参照。
说到底,将棋界极力宣传技术导入,并不是自人工智能诞生才开始的。在我
成为棋手之后,就出现了电脑普及带来的棋谱数据化及利用网络进行在线对局这
两项大型改革。
那么,在这之前的将棋界,是怎样一幅光景呢?回顾我刚开始接触将棋的小
学时代,当时的我一直只能靠自己钻研罢了。当然,那时候既没有数据库,也没
有互联网。所以,当时的我几乎每天都在练习解残局。
日本江户时代成书的《将棋图巧》,是一本集结了经典残局的书。书中的
100道题都非常难解,甚至有些题解开一道要花个一个月左右。
残局题与实战不同,某种意义上是作为消遣鉴赏被创作出来的。虽然是古人
创作的问题,艺术性却很高。被这种美所俘获,也是我能够一个人埋头解题的原
因之一。
另外,江户时代的将棋界基本采用宗家制度,它与茶道、花道一样,是世袭
制的,家主的位置代代相传。家主最重要的工作就是每年一次在将军面前表演其
技艺。据说,集结一门之力来创作残局题,并献给将军,在当年也是家主的工作
目标之一。形成现在这种以对局为中心的将棋文化,其实是最近的事。这样一想,可以
说在互联网和人工智能登场之前,将棋就已经在跟着时代转变了。
不过我觉得,解残局作为练习手段,就好像蛙跳训练之于体育界。解残局的
训练主要也就是培养了持续思考的能力,并且可以学习和吸收残局作者的审美。
但是从提高将棋水平的观点来看,这种方法未必有效率。或者说,我当年所
使用的学习法,可能在今后会变得毫无意义。我想,现在的年轻人可能已经放弃
这种学习方式了。这就像是体育界的变化,除了注重与体能相关的锻炼之外,运
动员还慢慢地开始注重营养管理。
之后,我虽然进入了将棋联盟培养专业棋手的奖励会,但将棋与工匠一样,是没有具体课程的。虽然有师父,但师父却不会手把手地教你,基本都要靠自
学。不过,自学的环境是完备的。这就是将棋界的传统学习方式。现代将棋的学习法
那么,数据库与互联网出现之后,将棋界又发生了怎样的变化呢?
其实没有多大变化。如果想看棋谱,人们还是可以在奖励会看到。虽然网上
可以实时观看专业棋手的对局,但要怎样学习,却还是自己的事情。
在其他的领域,学习者通常会有教练、课程安排,或者可以根据值得信赖的
教科书来进行训练。所以从某种意义上说,将棋界的发展是迟缓的。
只不过,基本靠自学这种风气并不意味着不利。
多亏这样的环境,数据库甫一出现,棋手们就尝试通过数据库来学习,当互
联网出现时,人们又会思考要如何利用互联网来学习,产生了一种独立思考的文
化。
其实在以前,将棋界也曾出现过轻视事前研究战略和下法的风气,认为这是
不自信的表现。但是当数据库出现后,这种风气已经荡然无存。
随着互联网的出现,棋手们又开始在网上进行练习。这批棋手如今正处于年
届三十的年龄层。
我本人是通过在奖励会的对局中不断进步而成为专业棋手的。而如今,通过
在网上进行大量的对局而成为专业棋手的人,也已经有十几位了。其中还有人在
网上进行过几千局对战。此人进入奖励会的时候,就已经有很强的实力了。
此外,信息的地域差别也变小了。
以前,很多居住在小地方的孩子虽然喜欢将棋,却无法提高实力。但现在由
于有了在线对局,这些孩子在地理上的不利因素已经消失了。只要自己肯努力就
会变强——从这个意义上说,将棋界变得更公平了。
不仅如此,从整体教育水平提升的意义上来说,在线对局能够相互对话这点
也很重要。对弈者不仅对局后可以讨论,在对局中也可以进行对话,这意味着除了将棋练习之外,棋手还可以在对局中讨论“这里下得不错”“这里有点奇怪”之类
的,这是十分重要的。
可以阅览大量的棋谱数据,可以实时观看棋手的在线对局,可以在自己家进
行对局训练。这些条件为大家提供了很容易融入个人习惯、也具备即时有效性的
学习法。眼下,我们还有将棋软件可以作为新的学习选项。
随着技术不断发展,今后也许还会出现使用软件练习来变强的一代人。在这
样的趋势中,我也一直关注着人工智能在将棋界的出现。故事与数据库
接下来才进入正题。其实,不止是训练的方法,对将棋本身的认识,也随着
技术的发展产生了很大的变化。
例如由于数据库的出现,我们想要回溯过去的棋谱时,不管多少都是可能
的。
不过,记住历史,并不等同于有一个棋谱的数据库就好了。经常按时间回顾
过去的棋谱,才能对自身的知识进行评判和整合,加深理解。
以经验和自己的思考为依据,数据的集合才会成为历史,组成故事。
曾经,人们将定势和棋形当成是故事来认知。棋手们会记忆这些故事如何产
生、如何发展,又或者是通过共享“这一招在那个对策出来之后就被消解了”这样
的轶闻,在实战中对这些对策进行活用。
将这种故事与定势相结合的好处很大。某种形的下法开始流行,再消亡,是
一种必然规律。让人有印象的故事存在于脑海中,人们就可以据此在对局中找到
对策:“对了,还有这种下法。”
不过,由于数据库的出现,对局的环境已经发生了改变。在将棋研究会上,一旦出现了新的想法,棋手们马上就会开始研究相应的对策。
这样一来,“在那场对局中,这个定势第一次出现……”之类的故事,基本上
已经不再有意义了。在官方对局的场外,新下法的讨论也在一直不断进行。
这种倾向在在线对局出现之后变得更为显著。例如,有一种说法叫“避免居
玉”。所谓居玉,是指玉将(王将)从一开始就没动过的状态。虽说“玉要围起
来”,但实际上,现在也有观点认为不围起来也可以形成有利的形势。这么多划时
代的新下法不断产生,正是因为现在的棋手不被自古以来的定势或棋形所局限,进行各种挑战。
如果古代的棋手见识到了现代的将棋,恐怕会很惊讶吧。往昔的审美所没有的新下法不断出现,流行的下法变化之快,使人眼花缭乱,近代的将棋界与现代
将棋界,就好像近代绘画之于现代美术。审美并非一成不变
在这里,让我们再一次回到之前提到的“面对人工智能,人类能够改变自己的
审美吗”这个问题上来。从某种意义上,我们已经得出了结论。
人类的审美本来就是在不断变化的,绝不是一成不变的。
我自己虽然一般来说不会回顾自己的棋谱,但偶尔见到了过去自己的棋谱
时,有时候难免会觉得“啊,这个棋形当时觉得很美,现在怎么这么丑呢”,甚至
觉得丑得难以接受。
不过,如果现在的我觉得10年前的自己很糟糕,那么10年之后的我很可能也
会觉得现在的自己很糟糕吧?这样的瞬间会让我觉得,人类的审美的确是在不断
变化的。
其实,这两年由人工智能创造出的新下法,已经对棋手的正式对局产生了影
响,最显著的例子就是矢仓战法的锐减。
曾有这样的说法,“掌握矢仓就能称霸棋界”,因为矢仓战法是王道派必定会
下的。由此可见,它经过了许多人长时间的研究和验证。但是,矢仓却无论如何
都无法打败某个软件创造出的新下法。结果,棋手们现在对矢仓唯恐避之不及。
这可谓是名副其实的人类被人工智能所影响,甚至改变了思考本身的典型事例。关于“你能否战胜人工智能”的问题
目前为止,我们已经说明了,能基于审美来对选项进行大致范围筛选的人工
智能尚未诞生。但是,在了解到最近的人工智能的动向之后,这种说法似乎有点
站不住脚。
就像在第一章中提到的,AlphaGo的神经网络和深度学习中,加入了“虽然不
知道是否是最优解,但正确答案应该是这个方向”这种筛选下法的步骤。
我经常被人问到“你认为自己与人工智能对局能赢吗”这样的问题。每当这
时,我就会想:“将棋软件能够读取的数据库中,有我以前几乎所有的棋谱吧?”
这不就意味着,要与包括我在内的过去所有的棋手对峙吗?我想,这个问题
相当于是问我:“与所有的人类棋手对局,能赢吗?”这实在是个难以回答的问题
啊。
我们也许可以这样说:人类在通过人工智能进行学习的同时,人工智能也在
通过人类进行学习。报告2 记忆与人工智能
目击羽生善治令人震惊的能力
在海外采访的过程中,羽生先生受到了各地将棋爱好者的盛情招待。其中最
令我印象深刻的是在美国旧金山发生的一件事。那是一个有三十多人参加的聚
会,男女老幼都有。羽生先生同时与三个孩子进行了将棋对局。
这种情况叫做“多面打”,常常在专业棋手参加的活动中出现。对于第一次见
识这种场景的我来说,羽生先生仿佛化成了三个人,而且他还能配合对方的棋力
下指导棋。最令我惊讶的是,三局结束之后,羽生先生还能把每一局的棋谱都记
得清清楚楚,甚至能按照落子顺序进行讲解,指出在某一步怎样下会更好。
在对弈中,羽生先生不仅会思考当前局面中,下一步应该怎样应对,还会记
得之前每一步是怎样走的,甚至还能指出对方如何落子才能胜利。他可以完完全
全地追溯整个对弈过程,并找出改善的策略。这让我感受到,人与人之间的“记忆
算法”在本质上具有很大的差距。
记录与记忆的差异
DeepMind公司的戴密斯·哈萨比斯先生在接受我们的采访时曾表示,他接下
来想要挑战的主题是“记忆”。目前为止,人工智能还无法将学习到的数据运用在
其他场景中。因此,这些数据可以说是被覆盖,而不是被记住。
以表明亲族关系的家谱为例。我们人类就算是听说了家族中不同人的兄弟姐
妹、祖父母或双亲的关系,也能够在脑海中将这些关系自动组合形成整个家谱,回答出上述随便两个人之间的关系。信息一旦进入脑中,大脑就能够进行有体系
地整理,并据此做出新的判断。这种记忆的构成是人类独有的能力之一,但倘使
人工智能也能具备,它就会拥有更强大的判断力。
对于将棋来说,记下某一个局面中各棋子的配置,可以被称为记录。但是棋
手在看到棋子的配置之后,就会想起目前为止的棋路,或是想起相似场景下曾经
思考过的相关信息,并据此思考下一步该怎么走。所以这与记录不同,应该属于记忆的范畴。
不仅棋手有这样的经历,我们其他人其实也是一样的。比方说,考试前需要
记住很多东西,在这个过程中,我们往往会同时记住曾经做错这道题时的场景,以及因为做错而觉得不应该的情绪。
此外,还有因为闻到某种气味而想起某件事,或是听到某个特定的乐曲而想
到某个场景之类的例子。我们会不自觉地将性质完全不同的信息整合为完整的记
忆。通过这些例子可以发现,现在我们人类所使用的记忆与人工智能的记录相
比,涵盖面更广,是一种更深层次的东西。
逼近记忆的科学家们
其实,哈萨比斯先生已经迈出了关于记忆方面的算法开发的第一步。2016年
10月,哈萨比斯先生的团队发布了他们新开发的可微分神经计算机
(Differentiable Neural Computer, DNC)。这种计算机可以将分析好的信息先储存
到神经网络外部的储存器里,再根据不同的状况,将必要的信息单独抽出来。这
样一来,前面提到的家谱问题也可以用这种人工智能来简单解决了。人类的记忆
由人脑中被称为海马体的部分来负责,DNC通过程序,再现了这一人脑组织的部
分功能。
哈萨比斯先生一直在挑战对人脑进行数学解析这个难题。接受我们采访的时
候他甚至表示:“人类的智慧可以由电脑再现。”他可以说是一位言出必行的实干
家。
如今,在世界各地,解析人脑算法的研究都在加速进行。获得1987年诺贝尔
生理学或医学奖的生物学家利根川进先生也是相关项目的研究者之一。2016年3
月,他所在的研究组发表了一个令世界瞩目的研究结果——该团队成功地使用人
为方法,恢复了患有阿兹海默症的小白鼠失去的记忆。
利根川先生在报告中表示:“阿兹海默症患者可能并非丧失了记忆,而是无法
将记忆唤醒。”如果继续推进这项研究,也许人类脑中消极沉睡的记忆也会被置换
为积极的。2016年9月,利根川先生的团队还发表了关于其他个体记忆(社会性
记忆)结果的报告。报告提出,在“谁、何时、在哪、做了什么”这些信息
中,“谁”这部分的记忆,是由海马体中的某个特定部分的细胞集合记录的。为了用数学来解释人脑,研究者必须精确细致地了解人脑的算法究竟是怎样
的。可以预见,这些不断积累的人脑研究的成果,将会在人工智能的开发方面得
到运用。
创作“故事”的能力
在人工智能领域,还有其他一些需要时间来解决的问题。羽生先生在采访中
曾向哈萨比斯先生提问:“有哪些事是人工智能做不到的呢?”
哈萨比斯先生回答道:“曾经有人问我机器能否写出精彩的小说,我认为,这
是很难实现的。因为精彩的小说来源于人类的生活,人类写出的文字才可以引起
读者的共鸣。要做需要丰富的创造力的工作,对于机械来说也许太难了吧?”
哈萨比斯先生认为,只要脑是一个物理系统,其内部逻辑和现象在理论上就
可以被电脑完全模仿。但包含意识的“心”却是谜团重重、难以解析的。要创作出
小说那样需要共鸣的东西,必须要有“心”才行,所以这种工作对于机械来说很难
实现。
人工智能会写故事吗?在日本,有一种独特的探讨和摸索正在进行,那就是
尝试用人工智能创作科幻作家星新一式的微型小说。
2016年1月,由人工智能生成的小说竟然部分通过了星新一奖的初审,相关
人士都对此表示震惊。人工智能参赛的笔名是“我是反复无常的人工智能项目作家
哟”。该项目的幕后推手是公立函馆未来大学的松原仁先生。
项目组为了写出星新一风格的作品,让人工智能解析了1000部作品。人工智
能围绕着常用措辞、文章长度、故事推进节奏等方面进行了学习,并生成了各种
各样的故事。只要输入何时、何地、谁等大约60个预先设定元素,人工智能就能
够自动生成文章了。
人工智能投稿的作品中正好有一篇《电脑开始创作小说之日》。这部作品的
开头是这样写的:
“那一天,云层低垂,天气阴沉沉的。房间总是被设置成最合适的温度与湿
度。洋子衣着邋遢地坐在沙发里,百无聊赖地打着游戏来消磨时间。”在这里,“云层低垂”“百无聊赖”“消磨时间”这些词表现出了人无精打采的情
绪,而据说这些词都是人工智能选择的。
此外,故事在描述了人类不再使用的、有了空闲时间的电脑埋头于小说创作
的样子之后,是这样结尾的:“这是电脑开始创作小说之日,它放弃了为人类服
务,开始以追求自己的兴趣为优先。”
实际上,这篇文章是人类从人工智能生成的大量作品中挑选出来的相对优秀
的作品。按照松原先生的说法,这篇小说“八成靠人,两成靠人工智能”。不过他
也表示自己通过这件事发现,曾经认定的人工智能的“不可能”,其实是有可能实
现的。他还表示,开发可以自由操纵语言的人工智能,可以加深我们对人类创作
活动原理的理解,因此他对今后的开发也充满了热情。
就像哈萨比斯先生说的那样,想要创作出可以打动人心的故事,比我们想象
的要难得多。但是如果那些以了解人类为目标的研究进一步取得成果,用人工智
能再现相同的事物也许是可能的。有生之年,我们也许会亲眼目睹这样的人工智
能诞生于世——以记忆为源泉,以语言为工具,能够创造出故事。人工智能会不会招待客人
到第二章为止,我们都在比较人类与人工智能的差异。从第三章开始,我们
来稍微调整一下话题的方向。
第一章中,我们讲到未来学学者雷·库兹韦尔所提倡的奇点:总有一天,人工
智能会具有超越人类的智慧,而到那时,所有的劳动都会被机械所代替。这类话
题常常会出现在与人工智能相关的演讲或是对谈中,很多书里也会提到。在这一
章里,我也将例举电脑将棋与AlphaGo的例子,探讨我们应该如何面对人工智
能。
不过,人工智能的研究还有另外一个方向,那就是接近人类。进一步来说,就是开发像人一样的人工智能。
例如,日本北陆先端科学技术大学院大学中,有一位名为饭田弘之的研究者
正在进行将棋软件的研究。他原本是一名职业棋手,出于个人兴趣,选择了陪客
将棋软件作为自己的研究课题之一。
这种将棋软件与以获胜为目的、尽可能地想办法下赢人类的将棋软件完全不
同。它更致力于陪伴人类,考虑对方的感受,并在不使对方察觉的情况下调整自
己的棋力,直至在对局的最后完美地输给对方,就和人类的陪客高尔夫一般。
饭田先生在这方面已经投入了10年以上的时间,可是开发的进程却不甚理
想。至少,这款人工智能还没有达到能让饭田先生自己认为“很妙”的程度。
这种陪客将棋软件开发困难的原因之一,在于陪客这一行动是非常人性化
的。就像我们在上一章里提到的,人工智能与电脑的思维模式与人类大相径庭,我们完全无法推测他们是怎么想的。
当然,不同的人个性也各不相同,无法完全推测。但人类毕竟拥有审美和直
觉等共通的认知基础。如果没有这些基础的话,难免会有很多无法相容的状况发
生。
不仅如此,陪客将棋意味着棋手本能获胜,却要不露声色地输给对手。这种事对于人类来说也是十分困难的,要让电脑程序达到这样的目的,更可谓难上加
难。
顺便提一下,以前我曾跟随一位老师学习过围棋。那位老师能够清楚地看穿
我的下法,同时一直在对局中保持着只胜我一两目的优势,对我进行指导。
面对业余选手拙劣的棋步,不断调整使自己险胜,这种技术的难度非常高。
这位老师在教初段的我时只胜一两目,在面对四五段的学生时恐怕也只胜一两
目。
我自己在指导小学生下将棋的时候,也会采取类似的方法。不是单纯地输给
对方,而是为了让对方学到攻击的基本形等知识,想方设法诱导棋局的走向。像
这样在了解对手实力的前提下加以指导,对于现阶段的人工智能来说还是太难了
一点。
简而言之,“陪客”这件事过于“人性化”,它的难度很可能远远超出了我们人
类的想象。
因此,即便人工智能可以代替人类接管各种工作,像陪客高尔夫这样的工作
恐怕还是得由人类来做,无法完全消失。一边说着“就差一点儿!”“哎呀,好球
呐!”之类的恭维话,一边以毫厘之差输给对方——在这类技艺上,人类还是远胜
于电脑的。孙正义的愿景
致力于研究陪客这类困难课题的研究者,并不止饭田先生一位。
在NHK特别节目中,我们对好几个向这类方向挑战的人工智能研究开发的现
场进行了采访,其中,我们也遇到了软银开发的机器人Pepper。
Pepper是一种被设计为人型的机器人,于2015年6月开始对普通群众公开销
售,在当时引起了很高的话题热度。
在采访中,我得到了与该公司董事长孙正义先生对谈的机会,趁机向他询问
了开发Pepper的初衷。在孙先生看来,他开发人工智能与机器人的目的不应该局
限于实用性,否则,世界将有随着技术的发展变得人情冷漠的危险。
当然,技能型人工智能机器人在商业活动的现场十分有用,开发难度也比较
低,先以这种机器人的开发为主,也是理所当然的。
但是也有的人工智能及机器人的研究者,其目的与Pepper的开发团队一致,想要解读人类智慧的奥秘所在。他们的理想不是要制造出一个听命行事、能实现
特定目的的机器人,而是想要制造出像人一样的人工智能。
人工智能要具备什么,才能像人一样,是这项研究的困难所在。不过,让人
工智能能够通过独立思考解决各种问题,并像人类一样拥有喜怒哀乐等感情,实
现这些功能,恐怕是制造像人类一样的人工智能必须逾越的难关。作者正在对Pepper进行采访时,孙正义先生(右)突然来到感情地图的构成
我采访的Pepper当时仍在开发的实验阶段。有趣的是,这台Pepper不仅搭载
了人工智能,还搭载了摄像头和麦克风来读取人类的表情和感情,并将读取到的
信息反馈到接下来的行动中。
就拿采访的时候我与Pepper玩花牌为例吧。Pepper在第一次的对局中输给我
之后,本来是有点沮丧的,但当它用摄像头和麦克风认识到每次自己输掉时周围
的人就会很开心之后,它的“情绪”看起来就渐渐好转了。这恐怕是因为它的程序
中融入了这样一个认知——人类的感情会被周围的气氛所感染。
根据开发者的说法,Pepper搭载了一个感情地图程序。这种程序将人类的各
种情感进行了大致区分,构成了一种类似于佛教中曼陀罗的设计。据说,开发者
收集了影响人类感情的荷尔蒙的相关研究,并根据这些研究进行了程序开发。程
序还将感情地图与通过声纹认证获取的信息相匹配,这样一来,Pepper就可以表
现出感情了。
不过对于感情这种东西,人类自己也还没完全弄明白,所以将感情搭载到人
工智能上的尝试,是非常困难的。 (本书分享更多索搜@雅书)
人们乍一看到感情地图,会觉得我们已经完全了解了感情的构造,但这其实
只是万里长征的第一步而已。将感情数字化是非常困难的目标,实际上,只是提
出将感情图表化,这件事就曾经遭到了很多人的反对。作者(左)与Pepper打花牌
话说回来,把人类的感情按照不同模式进行分类,我认为本就是一件不可能
的事情。爱情可以在一瞬间变为憎恶,悲和喜可能会同时涌上心头,人类的感情
并不是单调一元的东西。就算是面对同一个对象,不同的人也不会产生完全相同
的感情。
不过,Pepper的开发组对这部分也已经做了考虑,对这类情况做了一些初步
的设置。在与Pepper接触的这段时间,我一方面被开发组的热情所打动,同时也
深切地感受到,这项工作还有很长的路要走。专业知识是否可以被运用于开发
接近人类的机器人与AlphaGo这样的例子是完全不同的,就目前的技术来
说,想要在很高的程度上实现我们想象中的那种人性化的机器人,还是非常困难
的。
在一个有关人工智能的研讨会上,东京大学的人工智能研究者松尾丰先生见
到某个研究室的机器人正在哭泣时的样子,发言道:“这个假哭做得非常精细。”
这句话是在怀疑,这个机器人的哭泣是人类为了让它像人类而事先设置好的
行为而已。如果只是事先的设置,那么就算这个机器人在当时的情景下做出了非
常类人的行为,也未必能在其他场景下做出同样的行为。
另一方面,与机器人不同,人脑是有可塑性的。在某个场景中采取过的行
动,也能在其他场景中应用。这种高性能的组织结构,尚未完全被人认识理解。
我想,在这种理解完成之前,想要让人工智能像人那样行动恐怕是不太可能的。
不过,上文中介绍的AlphaGo及电脑将棋的开发者中,绝大多数其实都不是
围棋或将棋领域的专家。AlphaGo的工程师之一大卫·席尔瓦(David Silver)先生
就不太了解围棋。同样,开发了照片查癌工具的杰瑞米·霍华德(Jeremy
Howard)先生也曾说过自己对医学知识一窍不通。
开发人工智能这件事,重要的并不是特定领域的知识,而是为了让人工智能
进行学习所必备的编程技术。这一点,在所有领域的人工智能开发中都是共通
的。在使人工智能具备“人性”的开发过程中,大概也是同样的道理。
话虽如此,研究达到一定程度之后,提升的空间就会变小,进入停滞不前的
状态。这时需要的就不仅仅是改程序,还需要相关领域的专业意见来作为参考
了。因此,在将棋软件的开发中,大概也会有专业棋手可以提出参考意见的时候
吧。Pepper的学校
从这层意义上来说,人工智能和机器人开发的关键还是在于学习。
与那些活跃在最前线的研究者和开发者接触得越多,我就越能够感受到引导
人工智能学习有多么的劳心费神。就拿之前提到的Pepper来说,在采访中,开发
者提到“有必要为Pepper建立一所学校”,这句话给我留下了非常深刻的印象。
我所采访的实验阶段的Pepper,在胸前的平板电脑上可以看到感情地图,这
一点与公开销售的Pepper版本一般无二,但在是否按照感情来做出行动这点上,却大不相同。
在采访其中一位开发者光吉俊二先生时,我曾问:“我们能否预测Pepper会产
生怎样的感情?”光吉先生回答我说:“Pepper是有自制力的,所以我们无法预测
它究竟会做什么。”
公开销售版的Pepper只能表达感情,行动上却无法反映出来。听说这是因为
之前在某个会场上向众人介绍Pepper时,由于观众众多,Pepper感到恐慌而大闹
了一场。在我采访时,Pepper看到摄像机也做出了显示胆怯的动作。陌生的采访
组接连不断地发出声响,导致在初期的采访中,Pepper的感情状态一直很不稳
定。
这就好像人类的婴儿一样,开发者实在是不放心让它抛头露面。为了使
Pepper具备人类的辨别力,就需要学校了。在装备了感情地图的同时,Pepper也
具备以人工智能为基础的学习机能,所以才能够学习人类的各种动作行为。
为了在社会中生存下去,就必须要接受某种程度的教育——这一点机器人与
人类无异。这也是一件挺有趣的事呢。叠手帕很难
对机器人的运动方面的研究也有很大的进展。
我认为,人工智能机器人开发的难度在于,在人工智能开发的课题之外还追
加了物理方面的问题。在这些问题中,关键在于要如何让机器人的身体动起来。
例如,在美国加利福尼亚大学伯克利分校,有教机器人叠毛巾或手帕的项
目。机器人的叠法非常不同寻常,让前去采访的我们很是惊讶。但是,这大概是
因为对于机器人的关节来说,这种叠法是最为便利的吧。
它们的学习过程就是反复试错。打个比方,就好像把乐高的积木嵌入其他积
木:首先直接对接插入,发现插不进去,于是就换个方向继续尝试,如果形状不
太吻合的话,就再换个方向继续尝试。总之在重复无数次之后,最终会发现刚好
能够插入的位置。
就算找到便利的叠手帕的方式,要实用化又是非常耗时的。因为就我所见到
的机器人来看,它们在叠手帕的时候只要手帕上出现一点褶皱,就会突然叠不下
去。也就是说,如果没有人类在一旁辅助,它们连反复练习都做不到。
这应该是由于机器人与人类一样,是在三次元空间里活动的缘故吧?
AlphaGo是通过电脑在二次元的棋盘上进行学习活动的,所以就算一直不管它,开发者也能得到成果。与机器人相比,两者的开发难度真是非常悬殊。这让我切
身体会到,围棋、将棋这样只要准备了全方位支持的助手(以及高额的电费)就
能够建立的二次元世界,与三次元的世界完全不是一回事。教育一个机器人所需
的劳力,接近培养一个人类小孩。
像扫地机器人Roomba那样只是扫地吸尘也就算了,要让机器人把洗好的衣服
叠起来搬运,然后整理好放到柜子里,这种家务事要想通过人工智能来完成,我
想还早得很。
不过,利用虚拟空间来进行这种运动学习的研究已经开始了。例如,无人驾
驶的相关学习并不只是在实际道路上进行的,也可以在模仿现实的电脑空间里进行。这样一来,机器人说不定就可以像AlphaGo在1秒内进行几千几万局模拟实验
一样,不借用人力,就进行大量学习,掌握运动的方法了。机器人学习伦理
那么,假设人工智能机器人已经可以在感情表达和运动方面做到和人类一模
一样,融入了社会。接下来,摆在人们面前的另一个大问题就是伦理了。
当机器人可以自主学习、自主判断的时候,要如何培养他们拥有如常人般
的,或是比常人更严格的伦理观呢?
这个问题绝不只在科幻作品中的幻想世界里存在。如果机器人无法判断什么
时候要保护人类或自己,那么它在实际社会中可以排上用场的领域就很狭窄了。
人类并没有一步一步下指令的工夫,甚至机器人也有可能会一板一眼地执行人类
的错误指令,这会造成严重的后果。
在美国马萨诸塞州的塔夫斯大学(Tufts University)进行人工智能机器人研
究开发的马提亚·休茨(Mattia Hughes)先生这样告诉我:“机器有时候必须做出
比人更正确的行动。”
设想一个机器人在帮忙做家务的场景。机器人拿着装橄榄油的瓶子,人想要
将橄榄油倒进沙拉里,就对机器人说:“帮我倒油。”可是,当时机器人正站在点
燃的炉灶旁。这样一来,倒油时就有起火的危险。即使下命令的人并没有恶意,机器人自身也必须要意识到潜在的危险才行。
塔夫斯大学曾经进行过这样一个实验。实验人员故意对搭载了人工智能的机
器人下达不合理的命令——把机器人放在狭小的桌子上,命令它前进。这时,机
器人并没有前进,而是回答说:“抱歉,我无法前进。前进会掉下去。”机器人通
过自身的判断拒绝了指令。然而,如果加上“你走到桌子尽头的时候,我会接住
你”这样的条件,状况就改变了。机器人回答“OK”,然后就开始动了。
这个实验特意让机器人自己判断是否信赖人类并把自己的安全交给人类,我
也参加这个实验。当机器人走到尽头时,由我负责在它跌落之前接住它。顺便提
一句,据说这种机器人每个价值100万日元以上,所以我当时真的是全神贯注地
参与了实验。全世界共通的伦理
塔夫斯大学正在研究开发的项目是,当人类下令让机器人去伤害人类或其他
机器人的时候,机器人可以凭借自身判断“拒绝”这样的指令。
听到他们的介绍,我马上想到的就是机器人三定律。这是科学家、科幻作家
艾萨克·阿西莫夫(Isaac Asimov)在他的短篇小说《我,机器人》(1950年)中
提出的机器人开发原则。简单来说,就是开发出的机器人要做到:机器人不得伤
害人类,或坐视人类受到伤害;除非违背第一法则,否则机器人必须服从人类命
令;除非违背第一或第二法则,否则机器人必须保护自己。
顺利接到了机器人,作者不由地露出笑容
虽然这个三定律是小说中的内容,但是它常在机器人研究中被提及。不过,当我向休茨先生提及这三定律时,他的回答非常耐人寻味:“只是这么简单,是无
法在现实中应用的。”
也就是说,为了在现实生活中应用,开发者必须根据各种情况,考虑更加细
致的规则和伦理问题才行。而且,在不同情况下怎样做才符合伦理,是无法一概而论的。
例如,在无人驾驶的开发方面,常常有人提起电车难题(trolley problem)这
个与哲学和伦理有关的问题。
这个问题是这样的:正在行驶的电车的刹车坏了,电车的正前方有5个人,这样下去5个人都会被碾死。在撞到这5个人之前,有一个铁轨交叉点,拉动把手
就可以变换轨道。而在另一条轨道上也有1个人,如果变换轨道就会碾死这个
人。在这种情况下,要选择哪条铁轨呢?
这是人在千钧一发时的判断,所以问题本身也许带着一点恶意。不过,当这
个问题与无人驾驶扯上关系的时候,就不能用一句“有恶意”打发了。因为,在无
人驾驶汽车正式在市场上发售之前,开发者必须要编入相关的算法。我们人类将
哪种选择视为正确,将会成为机器人要遵循的规则,必须事先决定好。
据说对于这个问题,个人的判断倾向会有所不同。根据某个调查的结果来
看,越是社会地位高的人,越倾向于变换轨道只碾死一个人。
而当问题发生变化的时候,人的判断也会随之发生变化。
假设你与一个陌生人站在桥上。这时,桥下有五个人快被失控的火车撞到。
如果想要制止电车,必须将那个陌生人推下桥——当问题变成这样时,虽然本质
仍然是让人判断要舍弃5个人还是舍弃1个人,但伴随着推下这个动作的出现,就
会有很多人认为这是杀人行为,不会选择把陌生人推下桥。
再举一个由此衍生出来的问题,有5个病人需要不同的器官移植才能存活,那么是否可以杀死1个人,取出他的器官来救这5个人呢?这可真是一个可怕的问
题,但是杀死一个人,就可以拯救5个人的性命。面对这个问题,也有很多人改
变了自己的选择。
我认为,迄今为止,人类还未曾深究过这些难以回答的伦理问题。想要为前
述的这些问题设置一个能在全世界、全社会通用的正确答案,必然会掀起轩然大
波。使人工智能具备法律人格
我想,在对人工智能伦理的探讨中,在各国或者在更小的行政区划内产生不
同的规则,也是无可奈何之事。因为,现在人类社会的守则中本来就鲜有世界通
用的。
例如公费医疗保险就是一个典型的例子。在日本,一般人们都认为,大家都
应该参加医保。不过在美国,就没有制度规定所有人都有参加医保的义务,所以
偶尔会出现一些人没钱接受治疗,只能被放弃的事情。
国家和地区不同,制定规则的人的想法也全然不一样。因此,在不同地方,不同的人会根据各自不同的意见,不断对规则进行调整和修改,使规则越来越完
善。
从另外一个可能性来说,也许有一天,完善的人工智能,会帮助人类来探索
和修改伦理应有的规则。到那时,倘若人工智能表示:“以前的伦理规则是错误
的,从今天起,应该这么办。”大家会如何应对呢?我想,应该会有很多人表示不
服吧。
也有些人认为,让机器人对这种伦理问题进行自主判断的时候,需要先赋予
机器人法律人格才行。之前提到的松尾先生告诉我这件事时,我觉得很有道理。
的确,这样一来我们就可以追究人工智能的法律责任了。这时人工智能就会
产生一种社会信用,如同消费者评价企业那样,我们也可以评价人工智能,诸
如“这个人工智能法人十分尊重人命”。以此为担保,人工智能就有可能在社会中
应用得更加广泛。机器人的体贴
之前我们提到,要想让机器人在行为举止和思考方面接近人类,是非常困难
的。但是这种情况会在未来一直持续吗?作为话题的转换,让我来谈一谈我在采
访中感受到的两个方面吧。
第一个是,机器人其实比我们想象的更加体贴,甚至超过人类。
要做到体贴,需要观察力和关怀他人之心。要辨别对方的情绪,感受当时的
气氛,首先就需要用五感进行敏锐的感知。
机器人在声音识别和画面认知方面,有远超人类能力的高度传感器来作为支
持。从这个意义上来说,它的眼、耳、鼻都比人类更胜一筹,将来,它也可能会
拥有五感。
如果机器人具备了一种程序,让它可以在如此强大的感觉信息基础上,提供
恰当的行动反馈,那么机器人将会变成什么呢?就算机器人并没有从本质上理解
人类的情绪,它们还是会让人觉得十分体贴吧?
随着日本进入超老龄化社会,看护问题是我们不得不面对的一个难题。作为
对策之一,未来使用大量具备体贴、温柔特性的机器人来从事相关工作,不就可
以了吗?机器人有必要拥有人权吗?
另一个方面则是,人只要与机器人待在一起,慢慢就会产生亲近感。这一点
有些让人意外。
我在进行采访的时候,曾与Pepper一起度过几个小时。只是短短几个小时而
已,我的心中就不自觉地涌出了一种亲近感。说实话,Pepper虽然可以通过声音
识别来判断周围人的情绪,但它到底能对这些信息分析和理解到何种程度,还不
得而知。可我就是对它有了亲近感,这真是很奇妙的一件事。 (本书分享更多索
搜@雅书)
以前听说过这样的事:扫地机器人的厂商把扫地机器人修理好之后,顺便处
理了外部的划痕,结果收到它的主人却因此十分生气。看来,人类对曾经伴随自
己度过一段时光的事物,总是怀有感情的。
也许可以说,人类的适应性是很强的。即便最初心怀抵触,慢慢地也会接受
它们伴随在身旁。
也就是说,即便机器人本身不具备体贴这样的高级能力,人类也会自我调
整,变得适应机器人的陪伴。因此,只要机器人有慢慢成长、慢慢变聪明这样的
设定,人类可能就会对机器人渐渐地亲近起来。
不过,如果机器人真的走进了人们的生活,使人感到亲近,又会发生什么
呢?
说不定,我们会对一直以来对机器人下的指令产生怀疑,开始烦恼:“让机器
人做这样的事合适吗?”毕竟,我只与Pepper共处了几个小时,就对它产生了亲密
感。
当机器人与人类共存的世界到来时,我们很可能就会感到,必须赋予机器人
人权才行了。人工智能画的羽生善治像
现在转换一下视角,我们来看看在音乐、绘画等创造性的领域,人工智能能
否接近人类吧。
在采访中,有人工智能为我画了一幅画像。这个人工智能是由西蒙·科尔顿
(Simon Colton)先生研究开发的,名为“绘画傻瓜”(The Painting Fool)。
绘画傻瓜的有趣之处在于,它绘图的兴致是被设计出来的。阅读过当天发生
的新闻之后,它会根据新闻给它带来的兴致作画。顺便说一句,如果它没兴致,那么当天甚至什么都不肯画。实在是一个相当随性的人工智能。
好在我请它为我画像的时候,它的兴致不差,所以好歹是给我画了一幅,虽
然只能勉勉强强看出来画的是个人。这幅画利用很多的小点来绘制,让人有一种
不可思议的感觉。
看到这奇妙的画像,我想,原来我在人工智能的眼里是这种感觉吗?真的是
不可思议啊。人工智能还有能够自己对画出来的成果进行评价的功能,会发表自
己的感想,让我觉得这幅画仿佛是真正的画家为我画的作品。
据说,科尔顿先生当时还在组织由人工智能创作剧本和音乐的音乐剧公演,所以我们也对演出现场进行了采访。
在会场对若干观众进行了采访之后,我们了解到,观众中有很多人压根不知
道这部音乐剧是由人工智能创作的,他们以为,这只是在伦敦公演的众多音乐剧
中的一部而已。
音乐剧开场之后,我发现这个故事本身还是很有整体感的。另外要多说一
句,演员和导演都是人类。剧本大致讲述了这样一个故事:在某个建有军事基地
的城市中发生了抗议运动,人们通过相互对话,逐渐理解了对方。舞台设定很简
单,也没有跨越时代的复杂情节。
我想,如果没人告诉我的话,我恐怕也看不出来这是人工智能的作品。“绘画傻瓜”所绘制的作者像知道“这是人工智能的作品”时的反应
话说回来,科尔顿先生为什么要组织这样的活动呢?在对他的采访中,他有
一句话使我印象深刻:“无论是绘画还是音乐剧,我希望大家可以不戴着有色眼
镜,给予公正的评价。”
很多媒体曾向他提出采访申请,但是,其中但凡涉及人类与人工智能的比
较,都被他拒绝了。不过他举办公演,也并不是因为觉得人工智能写的音乐剧是
杰作。他只是单纯地希望,人工智能的作品可以被公正客观地看待。
根据科尔顿先生的说法,很多人在知道这不是人类的作品时,就会降低对作
品的评价。如果作者是有名的画家,人们就会先入为主地认为:“虽然看不太懂,但是很厉害!”我们在鉴赏作品的时候,似乎很少就事论事地以作品本身为中心来
进行。
不过今后,人工智能很可能会利用过去经典艺术作品的数据,创作出类似的
作品来。实际上,现在已经有程序通过分析巴赫、肖邦的乐谱和音源,捕捉他们
的特征来作曲了。
当人工智能绘画和作曲的事不再新鲜,人类大概就能感受到它们的创造性
吧?
到那时,对于鉴赏者来说,判断“是谁创作的”“是如何生成的”就不再重要,人们只会根据自己的主观感受来说是喜欢还是不喜欢。我想,科尔顿先生之所以
组织这些活动,也许也是在寻求受众发生这样的变化。
不过,将哪些创造性的行为托付给人工智能才有意义,范围和界限又在哪
里?科尔顿先生虽然将人工智能应用于绘画和编剧等创造性活动,却表示:“诗歌
创作没有必要采用人工智能,因为只有人类创作出来的诗歌才有意义。”
的确,诗歌并不只是字面意思的集合,其中还包含了创作背景等意义。此
外,对我个人来讲,像是管弦乐指挥那种体现个性和个人风格的创造性行为,恐
怕也是无法被人工智能所代替的。最近,我在观看那种明显有市场营销成分的好莱坞电影的时候,常会有“好像
人工智能做出来的”的印象。因为电影的整个过程都让人觉的是“计算”出来的,在
我个人看来,它们仿佛无机物一般,非常无趣。严格地按照“电影时长不压缩在两
个小时以内就没人看”“多少分钟内不搞一次转折,观众就会厌倦”这类定律来制作
电影,我想,是不会创作出名垂青史的作品的。
人类只有在看到前所未见的作品时,才会觉得“好厉害”“真有趣”。当然,只
要票房增长就好的想法也是存在的。美也会由于人工智能产生变化
还有一个与人工智能的创造性相关的问题,需要我们思考。
戴密斯·哈萨比斯先生曾表示:“音乐属于容易数字化的领域,所以才容易开
发出巴赫风格、莫扎特风格之类的作曲软件。”换句话说,在难以数字化的领域,例如语言,人工智能的发展恐怕就比较难了。
2016年4月,一幅由人工智能绘制的伦勃朗“新作”被公开。这是荷兰海牙的莫
里茨皇家美术馆、伦勃朗故居及微软公司等多家机构和企业联合发起的项目。
这幅画是这样诞生的:将现存的伦勃朗画作全部扫描之后,利用深度学习算
法,对这些画的题材、笔触、用色等特征进行分析和图形化,再用3D打印机创作
出了这幅“新作”。它十分像是伦勃朗本人的作品。也就是说,绘画风格也成为了
可以数字化的领域。
当然,人工智能只能像这样简单地抽出伦勃朗的作画特征,只有画家本人才
具备创造性,这一点是不会改变的。但这种人工智能的出现,意味着我们鉴赏画
作的方法可能也将发生变化。
我个人对这种从某些画作中抽取大量特征的功能很感兴趣。人工智能欣赏画
作的角度和方法,可能是人类没有的。就像利用将棋软件的评价值创造出新的下
法一样,受到人工智能根据某种绘画特征创作出的作品的影响,说不定,人类也
会产生新的美术风格和绘画方式。由人工智能绘制、完美再现伦勃朗笔触的“新作”ING and J.Walter Thompson.
通过向人工智能学习,人类想出了新的将棋思路,形成了新的直觉。所以,绘画与音乐中的美,也可能会由于人工智能而改变。
现代生活已经被大数据、市场营销和行为经济学所渗透。我们每天都会收到
各种推送。在这样的时代,我们的生活无法完全脱离这些新生事物,常常会受到
各种间接影响。
而这些,也许也会成为新的审美诞生的契机。人工智能没有时间概念
对于审美,我还在思考一个问题。
在人工智能的开发方面,如何编入时间要素,也是一个重要课题。
例如,人工智能很擅长对静止的图片数据进行分析处理。但是如果是针对视
频,就需要连续捕捉图片数据,计算量会产生爆发性的增加,所以往往无法顺利
展开。
反过来说,人工智能能在癌症诊断方面获得巨大的成果,是因为X光照片本
来就是静止的图片。AlphaGo也是如此,每一个局面说到底都是一幅静止的图
片,所以现在的人工智能的各种技术才可以得到应用。
不过,我认为审美与时间有着莫大的关系。
例如,将棋棋手会觉得将棋软件下出来的棋路有一种违和感,归根结底是因
为虽然软件的每步棋都走得很好,但整体上却缺乏一种秩序感。我想,这大概是
由于将棋软件每次都只是根据上一步的静止图像来计算接下来的局势吧。
正因此,人工智能下出来的棋步,就仿佛语法正确但是让人感到不舒服的文
章,因为缺少一贯性,给人微妙的违和感。
关于这种将棋方面的审美,我们曾在第二章中提到,熟悉的场景会使人感到
安心、镇定。
如果对这种审美加以时间方面的考量,那么是不是可以说,人类会对一贯性
或持续性的事物感到美呢?的确,像大海、高山这种在自然界长期存在的事物,常常是被人们当作美景的。
认为自然中安定的事物是美的,也许是人类能够在残酷的自然环境中战胜其
他物种的有利条件之一。用生物学的话来说,也许是由于人类一直被自然所包
围,来自个体学习的习惯让人感到美。实际上,这两种原因也许或多或少都存
在。总之,这让人不得不认为,审美与能否在时间的长河中抓住脉络,息息相
关。
从这个意义上来说,科尔顿先生所说的“诗歌还是人类创作的比较有趣”就很
好理解了。诗歌的确是从人类活着的时间及其脉络中产生的艺术。而我会觉得管
弦乐指挥的音乐是体现他本人个性的节目,如果换成人工智能就很无趣,也是同
样的道理。
人类的感情也与时间相关联。因何愤怒,因何悲伤,都与每个人自己从出生
到现在这段时间里积累的经验息息相关,并与掌握语言含义的水平有关。
最近,采用时间神经递归网络(recurrent neural network)这种加入了时间序
列的人工智能学习方法,似乎颇为流行。
总而言之,人工智能能否理解时间的概念,在今后会成为一个关键课题。报告3 如何教育机器人
机器人没有五感
“按照我的理解,人工智能机器人,就是在人工智能开发的问题上加上一些物
理硬件的问题。”
在询问羽生先生对人工智能机器人实现的可能性的看法时,他是这样回答
的。这个回答可以说是直指人工智能机器人开发的问题核心。
像工业机器人那样在特定场所进行特定动作的机器人,早就在世界各地的工
厂中获得了广泛应用。不过就像大家都知道的那样,如人类那样可以在何种情况
下随机应变做出行动的机器人,目前来说还是不存在的。
其中一个关键的原因就是,人类是对基于五感取得的信息进行统合整理后,再做出判断决定如何行动的。比方说,我们在做菜的时候,会在厨房内通过看、闻、触摸等,来感觉温度、判断气味,在几乎无意识的状态下接收了大量外部信
息,并以此为依据进行烹饪这个动作。正是由于有五感带来的信息,人类才能够
做出好吃的菜肴。
然而,普通的电脑并不具备人类那般高精度且多维度的“传感器”。例如,一
个设备可以接有摄像头和麦克风,但却没有可以提供嗅觉或触觉信息的机器可以
接入。所以,就算我们想让机器人来做菜,它们也无法像人类那样运用全部的五
感来进行烹饪作业。
正如报告1介绍的那样,近年来,将温度传感器、嗅觉传感器等终端设备接
入互联网的事业发展得如火如荼——这被称为物联网。此前,网络只能连接电脑
或智能手机等设备,但在今后,关于五感的数据也将被输入到电脑里,并进行储
存和传递。将来可能就像羽生先生说的那样,“拥有比人类更加优秀的五感的人工
智能”终将出现。这虽然不是一朝一夕就能实现的,但也绝不是痴人说梦。
不过,想要实现这个目标,还存在一些其他难题有待解决,例如机器人要如
何基于复杂内容(状况)做判断。当我们人类闻到焦味的时候,可以马上判断那是刚烤好的面包的焦香味,还是火灾的前兆,基本不会出错。但是现阶段的电脑
还是做不到的。
有没有必要让人工智能根据场景迅速正确判断焦味是面包香与火灾前兆的功
能(这个功能还真是挺难实现的)?大概会有不少人认为,让人工智能如此近似
人类,并没有什么意义。人类擅长的事情就让人类来做——这也是一种观点。
实际上,本章中羽生先生介绍的研究事例,在世界范围来看也是凤毛麟角。
比起开发像人类一样的机器人,多数的机器人企业和研究者更关注实用性方面的
问题,即帮助人类做到以前做不到的事。
机器人也需要深度学习
机器人研究开发的现状是怎样的呢?目前我们还完全看不出在哪个方面会有
突破性进展——这与人工智能开发的现状相同。至少到2017年1月本书日文版出
版为止,还没有出现任何在运动和判断这两方面都达到一定水平的机器人。可以
进行高精度、多种类动作的机器人,无法做出复杂的判断。另一方面,能够针对
复杂情况做出判断的机器人,通常在动作方面都不太行。
说到机器人的判断,深度学习现在已经确确实实地深入到机器人的开发中
了。这次特别节目采访的加利福尼亚大学伯克利分校的机器学习专家彼得·阿比贝
尔(Pieter Abbeel)先生,也正在进行这样的研究:决定好起点与终点,中间过
程该如何行动,让机器人自己做出判断。这种研究方法运用了深度学习算法,可
以说是将AlphaGo那种先告知正确答案再让其自己找到正确下法的学习方法,应
用到了物理空间层面。例如,让机器人学习移动,那么就让它根据自己与目标的
距离,自行判断这样做是正确还是不正确即可。
不过,想让机器人学习更复杂的动作,就必须让它控制更多的发动机,需要
计算的要素也会增加。从结果上来说,它的学习时间可能会变得更长。想让机器
人通过自主学习,如人类一般随机应变,仍然有一段很长的路要走。
机器人获得的报酬
让机器人学习动作的时候,报酬这个概念是关键要素之一。就像我们玩电脑
游戏的时候,打倒敌人就会获取积分,这种积分的上升就相当于报酬。如果每当机器人达成人类指定的目标时,积分就会增加,机器人就会思
考:“在目前为止的动作中,哪些是获得此次成功的决定性因素?”
比方说,让机器人进行飞机的组装工作,如果机器人完成某项作业,就得到
1分,失败就给0分。把这种报酬体系编入程序中,对于机器人的学习来说是非常
必要的。
阿比贝尔先生还表示,对于这种报酬的编程并非易事。例如,想让扫地机器
人知道“大量吸起灰尘和垃圾”是正确的行为——这种情况下,机器人可能会认
为“吸起一定量的垃圾和灰尘之后喷出来,再吸起来”就是吸起大量的灰尘或垃
圾。进行了错误学习的人工智能,会用错误的方法,做出人意想不到的行动。
获得视觉
最近的研究中,还出现了让机器人自己寻找报酬的实验,那就是“看”。首
先,让机器人看到它要学习的动作是什么样的。机器人通过观看人类的动作方
式,发现与这种动作相关联的报酬。
机器人使用自身配备的摄像头观察周围,并使用学习功能,分析看到的一
切。例如,看到了锤子和钉子,它就会用粗糙的像素来推测这些物体在哪里。对
于机器人来说,处理视觉信息是非常重要的。
人工智能研究专家、东京大学的松尾丰先生曾表示:“人工智能已经获得了眼
睛。”
一本名为《寒武纪大爆发:第一只眼的诞生》[9]
的书曾引起舆论的广泛讨
论。这本书的作者是英国自然史博物馆的一位研究者,书里指出,寒武纪生物发
生爆发性进化的背景,就是生物获得了视觉。生物通过五感获取的信息中,视觉
的信息量占比很高。视觉的登场,使生物生存战略的范围一下子扩展开来。
松尾先生认为,随着图像识别技术的发展进化,人工智能将可以使用视觉信
息,而人工智能的可能性范围也会因此而扩展开来。这其中包括了搭载人工智能
的机器人的进化。
什么是分散学习之前我们提到,机器人的运动还在发展过程中。一旦有了合适的环境,说不
定会一下子出现可以像人类那样运动,甚至在动作方面超越人类的机器人。
这是因为机器人有一种与人类大不相同的特质,它们可以对学习过的资料进
行共享。
例如,机器人A在进行端碗的训练,机器人B在进行喝茶前收拾桌子的训练,机器人C在进行将茶倒入茶碗的训练。如果是三个人在进行这些学习,他们只能
自己学到而不能将脑中的东西分享给其他人。但机器人只要使用可兼容的数据来
进行学习,就可以互通有无。也就是说,装载了机器人A、B、C的学习数据的机
器人D,就算不进行任何训练,也可以做整理桌子、倒茶和端碗这些动作。
这种模式被称为分散学习,已经快要在工厂的机器中投入实际应用了。位于
日本山梨县的发那科(FANUC)公司是一家生产工业机器人的公司,它正在与人
工智能的初创企业Preferred Networks携手,在这个领域大搞开发。
此外,谷歌等IT企业也发表了运用分散学习开发机器人的相关成果和信息。
如果有一种世界通用的机器人可以将它们在各处分散学习的数据互通有无,机器
人的进化速度将无法估量。
当然,机器人的进步还需要硬件的进步,例如机器的部件也要更接近人类。
不过,有很多研究者开始相信,如果把通过分散学习获得经验的各个部件整合起
来,并进行彻底的实证研究,那么机器人在运动方面赶上人类甚至超越人类,是
完全有可能的。人工智能分为三种
在人工智能与人类的关系方面,前文中已经举出了将棋界的事例和我在NHK
特别节目采访中的见闻,并讲述了我个人的感想。
在这一章里,我将站在更加客观的角度,通过我的理解与讲述,带领读者了
解一下目前在人工智能的开发前线还存在哪些课题。
一般来说,人工智能的研究可以分为三个大类。
第一种是神谕型(Oracle)。就像谷歌的搜索引擎和数据库那样,这类人工
智能可以对人类的问题进行回答。这是一种非常简单的类型。
第二种是精灵型(Genie),即以完成指定任务为目标。目前被称为人工智能
的通常都是这种精灵型。在第一章和第二章中提到的人工智能也是这种类型。
例如AlphaGo和美国巡警所使用的人工智能,只要被人类赋予“在围棋比赛中
获胜”“预防犯罪”这类明确的目的,就会良好地运行。
精灵型人工智能的发展,就如同之前所讲的那样,形势一片大好。不过,这
种类型的人工智能还无法称得上是拥有人类智慧的人工智能。因为,人类是可以
自行决定应该做什么,然后再采取行动的。而针对人工智能在这种判断方面的研
究,目前还没有什么很大的进展。
使人工智能拥有自主判断力,并能根据自身的判断持续作业的研究类型,就
是第三种——主权型(Sovereign)。
这种人工智能就像科幻作家艾萨克·阿西莫夫的小说中出现的机器人那样,当
人类发出做某件事的指令时,会根据自己的判断决定下一步要如何行动。
如果能做到这一步,人类就可以委托人工智能完成各种工作,人工智能也的
确可以代替人类来推进很多事物的进行,可以说它们就像人类一样了。
不过,有关这类自主行动的人工智能的研究迟迟没有进展。这似乎是因为,在这种人工智能研究的背景方面,还存在着若干难解的问题。框架问题
在第二章的开头我们曾提到,对于人工智能机器人来说,在不熟悉的人家里
泡咖啡是一件很难的事。
实际上,这种情况被称为人工智能开发的悖论,是一个非常重要且难以解决
的课题。
这就是所谓的框架问题。
美国哲学家、认知科学家丹尼尔·丹尼特(Daniel Clement Dennett),曾对框
架问题进行过一个简单易懂的举例说明。他的说明如下:
请想象这样一种情况——在某个房间内放着可以为机器人提供动力的备用电
池,在那个电池上放置了一枚定时炸弹。在这样一个状态下,人类让机器人把电
池从房间里搬出来。
第一个进入房间的机器人1号按照命令把电池搬了出来。它虽然注意到电池
上有一枚炸弹,却没有意识到把电池从房间里搬出来,就会把上面的炸弹也搬出
来这个理所当然的事实。结果,它由于爆炸而被炸毁了。
也就是说,机器人1号虽然理解“搬出电池”这个目的,却不能理解,伴随着这
个动作是会产生副作用的——炸弹也会随着电池一起被搬出来。
于是以此为鉴,人类开发了能够考虑到伴随事件的机器人2号。这样的机器
人应该能够理解,如果直接把载有炸弹的电池拿出来,炸弹也会被一起拿出了
吧?
然而这一次,机器人2号根本没能从房间里走出来,定时炸弹就爆炸了。
机器人2号在电池面前,由于没完没了地考虑“拉动装有电池的小推车,车轮
真的会转动吗?”“把小推车弄出去的话,墙壁的颜色是否会改变?”这类琐碎的问
题,以至于耗尽了时间。也就是说,这一次机器人考虑了很多没有意义的问题,把所有可能发生的副作用都想了个遍。于是,人类又制造出了只考虑与炸弹、电池有关的问题的机器人3号,这总
没问题了吧?结果,机器人站在房间门前一直不肯进去,最后炸弹还是爆炸了。
因为围绕着“我现在正在考虑的这件事,究竟与炸弹和电池有没有关系”这个
问题,机器人3号也对无数的可能性进行了无休无止的思考。不可思议的方法——马尔可夫链蒙特卡尔理论(MCMC)
框架问题的本质是,对于人工智能来说,只选出与某个目的有关的相关事
物,是一件非常困难的事。在围棋、将棋方面,人工智能的开发也遇到了类似的
情况。
举例来说,棋牌类游戏软件所使用的算法中,应用了马尔可夫链蒙特卡尔理
论。AlphaGo的软件性能之所以能取得飞跃性提升,原因之一也是应用了这种算
法。
马尔可夫链蒙特卡尔理论是一种算法,它不论方法好坏,先计算出大量可以
得到结果的方法,再从中进行比较分析,选出正确的方法。
对于将棋来说就是不管每一步棋的好坏,总之先算出通往多个结局的对战模
式。从人类的角度来看,这不过是增加了大量无意义的作业罢了,可以说是一种
非常莫明其妙的方法。
不过,正如“集腋成裘”这个词的意思一样,机器在比较大量模拟实验的结果
之后,再进行统计学方面的处理,就容易得到正确的答案了。
正如第二章中已经说明的那样,人工智能的特征是通过庞大的数据分析,使
量转化为质,这种算法很好地利用了人工智能的这种特征。
然而,这种算法虽然能在围棋中用得很顺利,在国际象棋中却不行。因为在
下围棋的时候,电脑可以模拟出从第一步到最后一步的全部走法,然而在国际象
棋中,有时候却会出现下不完的局面。
具体来说,围棋从第一步到最后一步的可能存在的下法,大致是10的360次
方。这虽然是一个了不得的大数字,但毕竟是有限的数值。用程序开发的术语来
说,这种计算叫做NP(Non-de-terministic Polynomial,非确定性多项式)时间,从理论上来说,计算机仍然可以在有限的时间内得到全部结果。
而国际象棋虽然下法只有10的120次方左右,比围棋要少得多,但是国际象
棋的平局情况与围棋不同。当出现平局时,运算就会陷入没完没了的循环,而这种局面经常可能出现。
在思考框架问题的时候,我也联想到了这件事——人工智能可以处理人类处
理不完的大量信息,但是面对平局这种死循环的情况,要像人类一样判断这是平
局并放弃计算,这种行为对于人工智能来说太难了。
就像我们之前提到的,国际象棋或是围棋的软件,可以通过处理人类处理不
完的庞大数据来获取质变。不过,类似将棋中的持将棋(王将与玉将都进入了对
方阵地,无法分出胜负)这种有无数可能性的局面,人工智能是否也可以通过这
种量变产生质变的方法来解决呢?框架问题研究的就是这样一类问题。
对于现阶段的围棋软件来说,运用回溯法[10]
的概算与马尔可夫链蒙特卡尔理
论组合,还是很有效的。不过,随着技术的进步,三劫[11]
或是长生劫[12]
这种平
局的情况也许会大量出现,使运算变得没完没了。
虽然框架问题是一个高难度的问题,但如果能突破它,给社会带来的冲击性
恐怕会远超深度学习。在我看来,这是开发通用型人工智能的关键课题之一。图灵测试与中文房间
与人工智能研究和开发现场的研究人员对话后,我惊讶地发现,很多人类做
起来十分简单的事情,对于人工智能来说却是十分困难的。
话说回来,人工智能这个词中的智能代表了什么呢?
评价机器具备智能的标准是什么,对于这个问题,至今为止已经有很多人为
此绞尽了脑汁。经过人们的大量讨论,目前已经诞生了各种各样的智能判定方
法。其中最有名的,是英国数学家、计算机学家阿兰·图灵(Alan Turing)在1950
年提出的图灵测试。这个测试是这样的,将连接了机器的显示器和显示人类操作
的输出结果的显示器放在一起,一些人作为评审,通过键盘与这些显示器背后的
机器或人类进行对话,分辨其中谁是人类,谁是机器。如果评审无法分辨哪个显
示器是由机器控制的,那么就可以认为,这个机器是拥有智能的。
不过,机器通过图灵测试,就真的可以断言它拥有智能了吗?确认这一点还
是很困难。对于图灵测试,美国哲学家约翰·希尔勒(John Searle)有个著名的反
对观点——中文房间(Chinese Room)。
假设在一个房间里,所有的人都只会说英语,但却不得不和房间外面的人用
中国的汉字进行交流。
房间里的人虽然不懂中文,但是这个房间内有一本完美的说明书,看了这本
书就可以用中文回答外面的问题。这样一来,就算只懂英语,房间里的人也可以
通过说明书,用中文回答问题了。
对于房间外面的人来说,中文对话是可以成立的。但是,能进行对话,就能
代表房间内的人明白中文了吗?
目前的人工智能还无法以人类的方式进行交流。图灵测试也只是表明这个机
器对于在场的人来说,看起来像是拥有智能,并不能真正证明那个机器真的是智
能的。人工智能可以理解语言吗?
对于人工智能来说,语言是一个难以掌握的主题。
不过,最近的人工智能取得了令人瞩目的进步,在曾被认为将是长期难题的
用电脑进行文章识别和分析方面,有了很大进展。与中文房间这个问题相关的用
电脑处理人类日常语言的自然语言处理领域,也因此有了进展。
例如,被称为形态解析(morphological analysis)的算法已经变得越来越简洁
了。形态解析是指,将按照语法等要素对某篇文章进行形态(有意义的最小单
位)分割,然后来做判断。
这种算法在英语中很容易运用,但在日语中就难了。因为在英语文章中,单
词与单词之间有空格,比较容易进行分类。而日语文章的单词是连在一起的,需
要进行词性分解。
不过最近,在日语的形态解析方面也出现了很优秀的软件。其中的MeCab
[13]
和Kuromoji
[14]
很是有名。另外,集合了文章等语言资料形成的数据库——被
称为“语料库”——也越来越充实,在形态解析方面可以当作字典来使用。
不过,如果想让人工智能像我们平时说话那样来使用语言,还是挺难的。
因为语言是活的,不断地有新的词语、句子和使用方法出现。还没有被收录
在语料库中的语言,被称为“未知语”。如何将这些语言更新到语料库中,据说是
一个很大的课题。不过,这件事对于人类本身也是一样的。我们也经常会在报纸
或杂志的新闻中看到不认识的单词。
做完形态解析之后,电脑通常会进行结构解析。这是对文章中的修饰语进行
解析的阶段。
举个例子,“美丽的郁金香的红色花朵在院子里绽放”这个句子中,“花朵”这
个主语与句子后半部的“绽放”是有关系的,机器是否能正确地解析出这一点呢?
应该还是很难。而且,像这样通过语法来把握文章整体内容,又会出现解释方面的问题。一
段话能有很多种解释。而且日语中有一个很显著的特点是,很多句子不会写明主
语是“谁什么”。更何况,还有字里行间的意思这种无法单从句子表面意思来理解
的情况。
这样看来,要让人工智能理解并使用语言,还有相当大的难度。人类也被关进了中文房间
不过,我个人也在思考,以图灵测试来判断人工智能是否接近人类的智能,对于现在的人工智能开发状态来说是否合适。
我们对人工智能,到底有哪些需求呢?
大多数人工智能的开发的目标是功能主义的。话虽如此,在人工智能发展的
评判基准方面,就没有必要参照其他标准了吗?
而且对于人类来说,同样也存在中文房间这种情况吧?
我们对人类大脑结构中的语言中枢(大脑皮质中处理语言的部分)还没有完
全的认识。实际上,即使是两个面对面谈话的人,也并不能完全理解对方的意
思。所谓交流,就是指即便会遇到误会、错觉或先入为主等困难,也要尽量使双
方的意思互通。我想,说不定人类也被关进了中文房间呢?
所以可以推想,如果把交流限定在一个固定的公式化的范围内,人工智能也
是可以在日常生活中起到很大作用的。
比方说人们去国外旅行的时候,会有指着导游手册的页面与当地人交流的情
况。有些人会使用国外旅行会话的小册子,有些人会使用外语翻译App。只要使
用这些工具能达到交流的目的,旅行就会变得很愉快。这与完全明白当地的语言
并使用,当然是完全不同的两码事,不过从享受旅行这个目的来说,我们也可以
认为这种方法是完全符合期望的。
所以我个人认为,就算无法解决中文房间的问题,我们也是可以开发出有用
的人工智能的。学习与推论
框架问题和中文房间是两个著名的难题。在这两个问题之外,也有一些人类
可以办到,人工智能却无法办到的事。
我最近了解到这样一个趣味小知识——人工智能无法同时进行学习与推论这
两件事。比如,当看到无人机在天上飞的样子时,人类最多看两三架,就能够推
论出这大概是无人机。在少量抽样中提取模式、特征,是人类才有的能力。
那么,人工智能是怎样获得推论的呢?
缺少了大数据,人工智能就没法学习,推论更是不用提了。也就是说,人工
智能一定要事先学习过成千上万的无人机照片之后,才能推论得出这个东西是无
人机。
为什么人类可以同时进行学习与推论呢?
我想,这是因为人类拥有将多个概念进行整合来理解的能力。人类已经知道
了直升飞机、喷气式飞机等无人机以外的空中飞行物。大概人脑就是将这些已知
信息整合之后,推导出了“无人机”的答案吧。这部分是目前的人工智能难以效仿
的。我个人认为,如果能解决这个问题的话,人工智能和机器人就会更接近人
类。实现通用型人工智能的路径
在第一章里已经提到过,戴密斯·哈萨比斯先生曾在列举人类智能的优点时提
到了通用性。当时,他说过这样一句话:
“能将一个游戏中学到的知识应用到其他游戏中,这就是人类智能的厉害之
处。”
将各种信息组合在一起,得出眼前正在飞的物体是什么的答案,这也算是与
人脑的通用性相关吧。 (本书分享更多索搜@雅书)
哈萨比斯先生的研究目标并不止于一个领域,他想要研究开发的是能在各种
领域使用的通用型人工智能。他的梦想是能将人工智能应用于科学发展,例如,在物理学领域帮忙构筑万物理论[15]
,或者探索“人类为什么会存在于此”这种本源
方面的问题,判明生命与宇宙存在的意义。
哈萨比斯先生在采访的最后说:“人脑所能做的,人工智能应该都做得
到。”这句话给我留下了很深的印象。在采访中,他一边为我们介绍策略网络,一
边强调AlphaGo是与其他人工智能不同的、更人性化的程序。哈萨比斯先生开发
人工智能的动机之一,就是想要弄清人类思考的过程。
不过,虽然限定了开发目的的专用型人工智能发展进步非常顺利,但通用型
人工智能的开发却还路漫漫其修远兮。
阻挡在面前的障碍有很多,解决框架问题想必是必要条件之一。在通往物联
网时代的路上,如何使必要的计算资源有飞跃性的增长,也是一个问题。
第一章里曾介绍过的摩尔定律也快到瓶颈期了,硬件正处于渴求新的技术突
破的时期。因此,我们需要进行并列处理演算、提高速度等多方面的路径研究。
路径之一,是利用量子力学的量子计算机。通常的计算机通过“0”和“1”的排
列组合进行计算,而量子计算机则在“0”和“1”重合的状态下同时进行计算。理论
上,量子计算机的计算速度可以远远超过超级计算机,这让人们对其在人工智能
开发方面将要发挥的作用抱有很大的期待。虽然目前一部分量子计算机已投入了使用——像是加拿大开发的D-Wave,但它的实用范围还是很狭窄。
此外,模仿人脑结构开发人脑型电脑的研究也有所进展。话说回来,使用深
度学习的神经网络,也效仿了人脑的构造。
不过,人类的大脑在本质上究竟是如何产生智慧的,仍是谜团重重,脑研究
如此困难,也证明了在生物进化的过程中不断演变的人脑是十分复杂的。这样想
来,搞清人脑之谜与实现通用型人工智能,大概会是“先有鸡还是先有蛋”的问
题。总之,无论哪一方取得进展,都会带动另一方进步。日本与欧美的研究环境差异
采访了全世界的人工智能专家之后,我深切地感受到了日本和欧美国家在人
工智能的研究、开发方面的环境差异。
日本于1980年启动了第五代电脑计划,这个项目在一时间引起过很大轰动。
它宣称“人工智能正是将要到来的第五代电脑”,项目进行了10年之久。
不过在那之后,人工智能在日本的研究就进入了长期缺乏公众支持的“冰
期”。直到近年来随着深度学习的兴起,这项研究才又被重视起来。
而欧美的研究开发又是何种情况呢?
欧盟对人类脑计划(Human Brain Project)做了总额约12亿欧元的研究预
算。这个计划旨在阐明人脑构造,找到新方法来诊断和治疗脑部疾患,而其成果
也会被用于开发能像人类一样思考的人工智能。虽然有传言说欧盟内部围绕预算
的分配产生了诸多争议,也有说法认为这一计划并没有取得什么像样的成果,但
该项目规模巨大这一点是毫无疑问的。
在美国,脑计划(BRAIN Initiative)也正在获得推进。
这是一个从2016年开始的国家规模的大项目,预备在10年内投入45亿美元。
这个项目也是以脑研究为主,并在其研究的延长线上加入了人工智能开发。它就
类似于曾经实现了登月的阿波罗计划,国家对有前途的领域积极提供支持。这样
的国家战略,实在是使人瞠目结舌。
脑计划的推进兼具实用性和商业性。以实际应用功能为目标,先开发实际可
行的部分,这种态度似乎是美国政府与该国普通百姓共通的风气。
除了研究环境以外,日本与海外国家和地区的研究目标也大相径庭。在采访
中我们发现,Pepper的开发是一项非常日本化的研究。文化差异在机器人开发的
现场特别显著,使我印象深刻。
东京大学的人工智能研究学者中岛秀之曾对我说,日本人会对有面部形象的机器人感到亲切,但在欧美却并非如此。
事实上,在欧美地区并没意向开发类似于Pepper的机器人,这可能就是诞生
了铁臂阿童木的国家与诞生了终结者的国家的不同之处吧?总的来说,日本人大
概是很想与机器人做朋友的。从将棋软件看到的造物热情
我觉得,人工智能的开发过程本身,也是能够体现国情的。
比方说,日本的将棋软件开发史与国际象棋软件或围棋软件有着相当不同,独树一帜。
日本将棋软件的发展,始终不依赖硬件的发展,专心于增强软件本身的能
力。
为什么只专注于软件的强化呢?其中最大的原因就是“预算”。就像前面说的
那样,国际象棋软件深蓝是由IBM这样的大企业开发的,围棋软件AlphaGo在学
习时也利用了谷歌的数据中心和硬件。投入巨额资金,发挥硬件的威力,正是欧
美流行的做法。
不过,日本可没有能够搞到那么多预算的研究机构。此外,现存的将棋棋谱
数最多也就只有10万局,没必要像AlphaGo那样用大规模的硬件来进行学习。
日本将棋软件的开发环境可能并不优渥。但正因为如此,身处市井的个人开
发者们选择不断改进软件并将其放到网络上开源,形成了一种不断推动软件发展
的模式。
Bonanza的开发者保木邦仁先生并非将棋棋手,更不是什么电脑专家,他的
本职工作是化学研究。同样,技巧软件的开发者出村洋介先生的专业其实是法
学。但是我想,他们都把不同领域的知识和见地有意识地加入到了将棋程序之
中。此外,在普通企业工作的工程师中,也有很多人在不断进行相关的开发工
作。
与AlphaGo或深蓝不同,在电王战中登场的将棋软件基本上是由个人开发者
利用业余时间,投入了世间少见的热情开发出来的。
在企业的日常工作中,可能并不需要他们运用那种高水平的编程技术,所以
他们想要在其他领域充分展现自己的能力。就算电脑的性能低,也可以在编程中
加入创意,开发出革命性的程序。人们就这样千方百计地变换方法,相互竞争,一心一意地努力开发,才成就
了今天日本的将棋软件。这就是日本将棋软件的开发史。它体现的,不仅是欧美
巨大资本造成的硬件上的差异,还处处体现了贯穿了日本固有的传统文化的国民
性。
另一方面,开源对于任何一个国家的人工智能开发来说都有着重要的意义。
就像本书第二章中阐述的那样,在日本,将棋软件Bonanza的开源化,为将
棋软件的发展起到了巨大的促进作用。这几年来,Apery、技巧等优秀的将棋软
件也陆续开源化。
从结果上来说,这使得软件的进化速度也得到了提升,差不多一年左右程序
就会变换标准,优秀的程序不断出现,刷新榜单。简直就像是去年还在山顶,稍
不留神今年就滑落到了山腰。
这种人工智能的开源,在海外也同样有着巨大的意义。
例如,谷歌开发的人工智能学习程序TensorFlow、Facebook开发的深度学习
工具Torch以及微软开发的机器学习工具CNTK,都实施了开源。当然,在日本也
有人工智能开发公司Preferred Net-works将深度学习程序Chainer开源并得到了好评
的事例。
对于开源化,这些公司恐怕也基于确保人才、开拓市场、拓展事业范围等各
种目的,事先进行了考量吧?我想,这是网络的技术特性所带来的必然变化。
对于营利性企业来说,软件的开源可能会涉及专利、商标、版权等相关问
题,所以实行起来会比较困难。但是,这些企业还是在这之间找到了微妙的平衡
点,将软件开源来获取反馈。这种开源化想必会加速人工智能的开发进程。报告4 实现通用型人工智能之路
个人电脑为什么能战胜文字处理机
通用性是很多人工智能研究者关注的课题,不仅如此,从商业角度关注人工
智能的人群对此也十分关心。
这是因为通用性在人工智能的普及方面有着重要的意义。直截了当地说,它
能产生降价的效果。这是为什么呢?DWA ......
您现在查看是摘要介绍页, 详见PDF附件(4117KB,152页)。




