尤瓦尔·赫拉利:马云说AI会引发世界大战,我可不同意[2017-06-25]

姜言东专访《人类简史》作者赫拉利:关于AI,马云错在哪里

尤瓦尔·赫拉利
以色列希伯来大学终身教授,《人类简史》
姜言东
驻以色列大使馆教育处主任、新闻学副研究员

2017-06-30 07:29:45 来源:观察者网

【本文为观察者网专栏作者姜言东对《人类简史》作者赫拉利教授的独家采访。
采访者按:《人类简史》的作者尤瓦尔·赫拉利教授是我的好朋友,一年多来我们在推特上讨论过许多问题,例如中国摩梭族对《人类简史》关于性别进化的借鉴,知识分子的学术自由与社会责任,AI时代教育的存在模式等。6月25日,笔者应约造访他在希伯来大学4平米简陋的办公室,开始长达2小时的请教。】

问:我认真的读完了你的《人类简史》和《未来简史》,除了新颖的观点外,书中涉及的宽广的领域和渊博的知识给人印象深刻,特别是关于AI时代的描述涉及很多学科领域。我认为你是人文社会科学领域跨学科研究最成功的学者。如何处理主题研究和相关知识积累的关系?
答:我专注于问题本身,而不是试图去创造答案。无论是历史、生物学、经济学,还是心理学,我都是从一个大问题开始,知识的收集是随之而来的事。只要我专注于这个问题,我就不会迷失。
很多时候,人们开始有一个问题,但是随后他们往往会发展出一种自己的理论,他们对于自我理论辩护的兴趣远远高于他们所提出的问题。一个人在许多不同的领域不可能都成为一名出色的专家,所以当你试图捍卫你的理论时,你通常只会坚持一个你最了解的学科。
另外,当你看不到这个问题本身的重要性,并把重点放在你自己的理论上时,你会越来越不承认自己的无知。承认自己的无知会带来研究的清晰度。如果不知道就说自己不知道,千万不要不懂装懂,自己发明解释来掩盖无知。
例如动物界性别统治的问题,母象统治像群,而其他动物和智人却是雄性统治。一个成功的物种首先取决于合作,为什么那些被认为是缺少合作精神的人(男人)控制那些被认为更喜欢合作的人(女人)?我不知道。我承认我的无知,而不是发明一些奇特的解释。这有助于我保持视野的清晰度。当然,你说中国的摩梭族母系社会,女性有更大决定权。这使我很受启发,我会尽快去看看。

问:你经常强调学术自由对人文研究的创新至关重要,你是希伯来大学的教授,在你的研究过程中,学术环境有什么帮助?如何处理教学和科研的关系?
答:主要的帮助是与学生自由交流想法。我现在每周只上课一天,共3节、每节课2小时,其他时间自由支配。我可以选择要上课的班级,我可以和学生谈谈任何题目,包括敏感的政治问题。这让我有机会测试学生的想法,并从他们的回答中受益。学生都喜欢选修我的课,很多人报不上名。
如上所述,教学生实际上对我的研究有很大的帮助,而不是阻碍。它让我有机会在一本书或文章中写下学生们的新想法。检验是否真正理解学科主题的最好方式是尝试教给学生。人们常常认为他们知道某些东西,但是一旦他们必须教导它们时,就发现他们不能做到清楚地解释,或者他们不能回答更多的问题。这表明他们不是真懂。

问:你在中国举办过很多讲座,与北大、清华等同行有过接触,如何评价中国的人文社科研究和教育的状况?
答:我在中国大学工作的经验非常有限,所以很难评说。但我所得到的一个印象是,在中国的大学里,人们不太愿意像西方大学一样讨论政治敏感问题。这些限制对物理、数学或计算机科学等领域的研究并不是一个大问题。但对人文科学研究,这是一个很大的障碍。哲学、历史、艺术等领域经常涉及到敏感问题,如果教师和学生不能够自由讨论,这势必妨碍他们交流和探索各种想法的能力。

问:学术自由对创新肯定十分重要,但是大学教授是不是也应负起应有的社会责任?
答:这是一个很复杂的关系。以色列的教授学者也面临很多敏感问题,但政府绝对不能直接限制教授讲什么或不讲什么。教育部门可以创造一种氛围,使得教授们明白哪些范围里他们的观点表达是自由和安全的,哪些是危险的。教育部门创造的这种气氛要允许教授们就某些问题表达不同的多样化的看法,并且在表达观点的同时会感到安全。这种管理方式是聪明的管理方式。
例如以色列大学最近公开讨论民族主义和法西斯主义,一些人认为政府现在有法西斯主义的倾向。我在授课的时候会告诉学生更多法西斯主义历史背景,告诉他们法西斯主义的特征和危害,而不是简单的纵容他们去游行示威推翻政府。但是如果把什么都上纲上线,教授们就无法开展有创造性的教学和研究了。
大学在聘任教授时一般从讲师、教授到终身教授要经过若干年,每一个等级都由专业委员会评定,这个委员会组成是秘密的,可以对不符合要求的教师及时终止聘任。正是由于有这种氛围,以色列大学里迄今为止没有教授因为政治错误被开除,但是以色列中学里也有教师因为教授不受欢迎的政治观点,受到家长抱怨而丢到工作。

问:你访问过中国很多次,很重视与中国的出版社、媒体和学者的合作。7月份又要访问北京和上海。我相信你去中国不仅仅是为了销售你的书吧?你如何看待中国的AI发展政策和现实情况?
答:我接触最多的是中国的商业伙伴和新闻记者,曾经访问过清华大学和北京大学,非常希望访问其他大学。我收到了中国很多大学的讲学邀请,但是确实没有时间去。当然,我对华合作的重点不是售书和讲座赚钱。中国是世界上最重要的大国,不仅具有经济和政治影响力,而且科技也取得了强劲发展。
以中国和俄罗斯比较,中国已经在AI领域、生物技术等方面取得了显著进展,成为世界的领导者。俄罗斯具有丰富的自然资源,经济依靠石油和天然气,但是至今没有看到在AI技术和生物技术方面他们有什么作为。21世纪有个类同现象,技术发展将塑造全世界的未来特性。目前只有少数国家在这方面领先,中国是其中之一。
作为历史学家,我很好奇新技术对世界和某些国家的发展产生什么影响。这是我对中国感兴趣的原因。技术总是与政治和社会密不可分,人们总是认为某种技术只可以为某种政治力量所利用,但是实际上科技发展会提供多种选择。我很清楚西方国家将怎样利用AI技术,但是东方的情况就难以说清楚。不同的政治社会制度可能会有不同的AI发展模式。硅谷的情况肯定会与中国的情况不同,也许技术是相同的,但是人们的视野和视角会完全不同。例如,西方人们很关心隐私,也许美国人觉得侵犯隐私的技术,中国人反而会觉得是一个好机会。所以,研究AI要跨越狭窄的视野,要多看看不同地区,多琢磨琢磨不同的设想,不能只看到美国等西方国家的发展模式。

问::最近,苹果公司的CEO 库克(Tim Cook)先生说,AI只会为人类服务,不会取代人类,而且这个时代来日方长,不可能很快到来,也许会几百年之后。中国阿里巴巴总裁马云先生甚至断言AI会引发第三次世界大战。你同意他们的观点吗?
答:这是两个十分复杂的问题。首先,我认为库克先生的说法是非常正确的。但是,如果考虑到劳动力市场,AI会很快替代很多的工种,特别是很多技术含量很高、专业面较窄的工作岗位。也许5到10年,AI将替代出租司机,因为目前的无人驾驶技术在高速进展,AI将比人工驾驶的更好更安全。不仅是工厂生产线的工人,就是医生和教师,在未来几十年内将完全被AI取代,这种AI取代人类劳动力市场的局面不需要几百年就会实现。
关于引发战争的观点,我认为如果未来会有战争的话,AI将是一种主要武器,更是主要玩家。但是这种说法存在很大不确定性,回头看看过去几十年,战争的代价在持续上升而利益却在减少。一个世纪前的第一次世界大战,那时候还没有核弹,战争的利益是物资和能源,所以打仗是一个不错的买卖。通过战争可以夺取别国领土,可以占领油田、金矿等。所以那时候战争能够带来更多的好处。
但是今天如果发生世界大战,由于核弹的普遍存在,对各方的损害都是致命的,而收益却微不足道。因为现代经济主要基于知识,而不是物质财富。你不能通过战争占领别人的知识,如果你想要硅谷的发明专利,绝对不能靠发动战争入侵硅谷去掠夺。
我认为世界主要大国都明白,国家的崛起不能再靠战争,一战和二战时期英国、德国、法国、俄罗斯、日本等世界主要强国都是依靠战争占领别国领土来建立自己的霸权。但是1945年二战后,世界主要大国越来越少的需要靠赢得战争去建立强权。日本、德国战后成为世界强国,是通过经济行为实现的,而不是靠发动新的战争。过去30年来,中国成为正在快速崛起的世界强国,中国最后一场战争是1979年对越战争,之后就没有发动过战争,也没有占领别国领土,而是靠发展经济成为世界主要大国之一。
过去30年中国的发展模式表明,要想成为世界强国无需通过战争。由于武器的升级,现代战争将比一战或二战的损失多的多,风险也大得多。现代很少有战争成功的例子,也许俄罗斯入侵克里米亚半岛是成功的,但是这不可复制,类似事件还有美国入侵伊拉克、阿富汗等。
拿以色列来说,1967年以来以色列就没有发动过大的战争,但如今已经成为中东地区的强国,是本地区地地道道的经济和政治强国,靠的不是发动战争,而是科技发展。
AI时代,大数据才是生产资料,计算能力是生产力。所以说,AI会引发另一次世界大战的说法,不符合历史事实,也是对AI的误解。

问:你说过,不同国家间工业革命造成的差距能够较容易追赶,但如果AI革命落后,将难以弥补。中国近年来也投入大量资源积极发展AI。但是中国是人口大国,有巨大的劳动力群体,如果技术取代人工将产生严重的社会问题。这个关系如何把握?
答:是的,未来国家间的竞争本质上依赖AI发展。中国追赶工业革命国家用了差不多100多年,但是一旦AI落后,500年可能都都追赶不上。因此,中国政府重视AI发展投入的政策是十分明智的。但是,我认为我们不能仅仅狭隘地关注技术发展,也要提前关注可能出现的社会和政治的后果。例如,如果仅仅关注技术发展,创造出先进AI,比如汽车自动驾驶技术,就可能出现大量失业,最终导致社会动荡。
AI时代变化是非常快速的,所以你必须预先设计。你需要计算机专家推动技术发展,你也必须关心和关注这种技术发展后产生的更广泛的影响。最理想的是,我们能够最大限度的受益于技术发展,而把损失降到最小。现在世界各国都在技术发展上投入很多的资源,但是在预防可能产生的、更广泛的后果方面投入甚少。

问:有的教育专家说,AI革命将最早在教育领域实现,人机学习将替代传统的学校教育。那时候将没有学校、教师,甚至教育这个行业。你怎么看待AI时代的教育?
答:是的,我同意这种看法。以色列和世界一些国家都在发展人机教育技术,这些技术也许在上个世纪是不成功的,但是本世纪肯定会实现。教育领域不久的将来一定会发生激进的AI革命,一个可能的选项是人类利用计算机系统教授不同学科,例如教历史、数学、生物等,一名教师在班级上教授30到40名学生。实现AI教学后,机器将教授所有学科,而且打破学科界限,而且不仅仅在学校,也可以在生活的任何时间和地点实现教学。
我一个朋友在发展“AI教师”技术,主要的思路是首先搞清楚为什么教,学生有什么优点和缺点,如何不断实现个人升级等。如今一个班级1名教师要教30多名学生,教师不可能了解所有的学生。这种技术可以深度了解学生的需要和缺点,及时的给予升级支持。
AI将在教育领域会很快取代部分学科的教学,实质上有的网络技术现在已经实现了,例如美国SAT考试,不需要学生去课堂学习,只要在计算机网上就可以完成。当然这是非常专业化的考试项目,AI替代相对容易。经济学、历史、艺术的教学就十分困难。如果学科非常复杂,要实现AI教学还不容易。总之,AI对个别学科的教学替代将非常迅速,但是整个教育领域实现AI不很容易,需要脑科学、生物学和AI的深度发展和紧密合作。

问:应对AI时代的教育,教育工作者和家长能够预做准备吗?
答:未来20年的教育领域AI革命,将是人类面对的崭新领域。因为我们不知道现在起应该教给孩子们什么知识、培养他们的什么能力。一些工作你可以等待20年才去做,但是教育必须从现在开始。无人知道今后20或30年劳动力市场和社会需要什么样的人才,所以,我认为最好的办法是教给孩子们始终保持学习的兴趣和应对不断变化的能力。因为这对未来的孩子至关重要。
过去随着年龄的增长,你不需要学习太多的知识,因为世界变化不快也不大,但未来青少年相对来说需要面对极其迅速的变化世界,人才培养的关键是保持学生的灵活性和终生学习的能力,建立心理平衡和稳定力,培养应对新情况和未知世界的能力。
对人类来说变化总是会产生压力,我们不喜欢变化,我们喜欢有序,但从现在开始我们必须要让年轻人知道今后变化就是人生。我今年41岁,我也不喜欢太多变化,但我不得不学习计算机新的操作系统,每次面临新的软件系统都会产生高度的压力感。
面对持续不断的变化,如何保持人的灵活性去应对变化,同时保持心理平衡,使得压力不要过大形成焦虑。我认为这是今后学校教育的重中之重。教育不再是给予学生更多的信息,因为信息已经够多了。教育者需要做的帮助学生实现心理平衡。为达到心理平衡,修炼太极、瑜伽、禅修等都是很重要的。我每天修炼禅修2个小时。

问:你的书中提出AI时代将会出现“无用阶级”。我相信世界上大多数国家的政府都不希望出现这样一个庞大的阶级,因为可能带来社会的动荡。你在考虑AI未来发展趋势的时候,是否考虑过不同宗教、文化甚至社会制度的影响?
答:我在阐述AI替代人类的时候,提出这个概念,但这是一个非常危险的一个概念。可以肯定的说,一个不致力于发展AI的国家必然会受到AI高度发达国家的影响。如今一些伊斯兰国家,如印尼、埃及、孟加拉等主要依靠廉价劳动力去发展纺织业,劳动者的主要收入是向其他国家出售衣物等。埃及、南非、美国、中国等国家。
如果AI发展后会发生什么?那时候在德国利用机器人生产一件T恤将比孟加拉还便宜。一些国家如果不注重发展AI,几百万劳动力就可能失去工作,因为那些大公司将把生产基地搬回欧洲等AI发达地区。百万失业工人就会成为这些国家动荡的力量。全球化的世界,即使很少一些国家发展AI,也会立即对其他国家产生极大影响。

问:按照你的设想,AI社会的统治者是AI的拥有者。那些“无用阶级”会不会成为新的奴隶?
答:“无用阶级”的概念是相对于机器人来说的,绝不同于传统的奴隶和劳动阶层,他们照样可以种地、建桥,从事经济活动,但是社会不再需要他们去生产财富和从事战争。确实,今后AI的拥有者的跨国公司将可能具有越来越多的影响力和控制力,成为社会最富有的少数阶层。这种趋势不会太久。
例如现在我们有成千上万的司机,20年后随着无人驾驶技术的发展,交通系统将归开发出先进驾驶技术的少数人所拥有。现在千万人靠驾驶谋生,到那个时候也许我们只需要极其少量的司机。
我所说的“无用阶级”不是“预言”,而是对未来发展前景可能性的描述。尽管有风险,但是我们可以采取行动来预防可能的威胁。例如,人们普遍关心的平均收入,一个可能的模式是,AI替代人工后,人类可以继续参与自动化的合作,并通过这种方式避免失业者陷于贫困。当然,这是政府的责任,私营企业如GOOGLE等,只可能致力于科技的发展,社会的稳定不是它们的首要目标。