翟振明:“强人工智能”将如何改变世界——人工智能的技术飞跃与应用伦理前瞻

来源:未知 作者:未知 时间:2017-04-24
  
AlphaGo的“胜利”与人工智能的演进
2016年,是人工智能(Artificial Intelligence,英文缩写为AI)议题高度亢奋的一年。谷歌DeepMind团队开发的AlphaGo程序以41的成绩“战胜”韩国棋手、世界冠军李世石,使这种亢奋达到了顶点。
AlphaGo程序利用“神经网络”来模仿专业棋手,并通过与其他同类程序比赛、加上程序自身的“对垒”进行“自我学习”,从而进一步提高其性能。AlphaGo对阵其他围棋程序的胜率达到了99%,并在过去的一场巡回赛中以50战胜了卫冕欧洲冠军樊麾。此番AlphaGo与李世石的对垒,五连胜还是负一赢四,并不妨碍我们对人工智能的发展作出进一步的评估。恰如本次赛前发布会上谷歌董事长施密特所表示的,输赢都是人类的胜利。因为正是人类的努力才让人工智能有了今天的突破,人工智能在围棋上“战胜”人类智能只是时间问题。
AlphaGo赢得围棋比赛,使得知识界科技界对待人工智能的两种典型态度再度引起关注:一种是霍金、比尔·盖茨式的“警惕人工智能”,一种是雷·库兹韦尔式的乐观兴奋与期待憧憬。201412月,英国理论物理学家史蒂芬·霍金警告说,人工智能的发展可能意味着人类的灭亡。20151月,比尔·盖茨在Reddit的“Ask Me Anything”论坛上表示,人类应该敬畏人工智能的崛起。盖茨认为,人工智能将最终构成一个现实性的威胁,虽然在此之前,它会使我们的生活更轻松。库兹韦尔是“奇点论”和“加速回报定律”主张的代表人物,他曾经表示:“要成为一位发明家或企业家,你必须得是个乐观派。对未来所存在的风险,我并非是浑然不觉,我只是对人类安然渡过奇点而无需以摧毁文明为代价持乐观态度而已。”①
自被1956年的达特茅斯学院会议正式确立为一个学科以来,“人工智能”的发展经历了多次起伏。到了1970年代,人工智能的发展开始遭遇更多的批评,随之而来的还有资金支持的锐减。研究者的过于乐观使得一些项目的承诺无法兑现,比较知名的诸如闵斯基(Marvin Minsky)对传感器技术的激烈批评,使得联结主义(即神经网络)近乎销声匿迹了10年。1973年,美国和英国政府更是严格控制对人工智能的投入,那些“没有明确目标的人工智能研究项目”被停止了拨款。
19801987年,人工智能重新迎来一个发展高潮,首先是日本投入了8.5亿美金研发机器人。受日本政府投资野心的刺激,发达国家进入了“人工智能”研究的竞赛状态,美国政府和企业再次在AI领域投入数十亿研究经费,但由于研究人员低估了人工智能研发的难度,进展有限,这些投资在80年代末再次受到质疑。19871993年,人工智能的发展又一次陷入低谷,美国研究机构DARPA(国防高等研究计划署)的主任甚至认为人工智能不再是研究的重要方向。卡内基梅隆大学移动机器人实验室主任莫拉维克(Hans Moravec)将这种挫败归咎于他的同行们不切实际的预言和承诺。②
1993年到今天,人工智能进入了加速发展轨道。2012623日,在位于米尔顿凯恩斯的布莱切利公园举行了纪念图灵百年诞辰的图灵测试。一个被设计为拥有“高度可信度”的个性化机器人“古斯特曼”在竞赛中获胜。这次竞赛主要有5台机器人、25名人类成员和30名评委参与,是有史以来规模最大的一次竞赛。经过一系列的5分钟对话后,29%的评委相信古斯特曼拥有类人的人工智能。③这次测试,使得人工智能乐观派相信,人工智能的飞跃式发展即将来临。早在2005年,雷·库兹韦尔在他的《奇点临近》一书中,预言机器的智能将在2045年超过人类的智能。④
在学术界,“奇点理论”遭到了强烈而持久的质疑。牛津大学哲学教授、人类未来研究院创始人和主任(人类未来研究院是一个多学科研究院,旨在帮助一些非常优秀的数学家、哲学家和科学家对人类大问题和全球大事务进行仔细的思考)波斯特姆(Nick Bostrom)在其出版于2014年的《超级智能:途径、危险与战略》一书中认为:“‘奇点’这一术语在很多不同领域被混乱地使用,并催生出一种不合理的技术乌托邦氛围,就好像我们会就此迎来太平盛世了。考虑到‘奇点’这个词所指的大部分涵义与本文的论述不甚相关,我们可以去掉这个词并代替以更精确的术语。”⑤波斯特姆使用“超级智能”(super intelligence)一词来描述机器“智能爆发”之后的智能状态。但是,波斯特姆的这个概念没有把工具性智能与人类的意识和自我意识等第一人称世界的内容区分开来,根据我们下面的讨论可以看出,这种混淆是误入歧途的,但这并不妨碍他的警示的有效性。
弱人工智能复杂化:人类的“超级秘书”
AlphaGo赢得围棋比赛,是不是像有些人惊呼的那样,人类智慧最后的壁垒即将坍塌,“人类应放下自己的骄傲”?⑥其实,人类以这种工具性智能为傲,本来就是概念错置。况且,以下围棋的能力来代表人类智能,也站不住脚。说到底,这是在单一的抽象博弈智能方面,体制化的学术集体战胜了天赋极高的自然个体。这种博弈,无论哪一方赢,都是人类在赢。
围棋作为一种古老的棋术,其规则简单明晰,却因组合可能性的数据庞大而令一些人感到痴迷。围棋棋盘上每一点,都有黑、白、空三种情况,棋盘上共有19*19=361个点,所以可能产生的合法棋局数为3361次方种。可能性的难以穷尽,催生了围棋朗朗上口的口诀式经验总结,其实就是快速对应胜负的概率计算,这与AlphaGo通过“深度学习”而减少计算量的逻辑是一致的。不同的是,计算机可以记住趋于无穷多的作为程序的口诀和案例,而人穷其一生,也只能记住有限的经验,很多时候就只能靠现场推算,甚至靠直觉领悟了。一些对围棋技艺痴迷且不愿意相信电脑能赢的人,陷入的恰恰是将围棋神秘化的有限经验当中。更有意思的是,有些棋手按照平时训练的围棋技艺来评价人机大战时,会认为AlphaGo哪招哪式在下“臭棋”,哪招是“失误”,其实,在以最终取胜为目的的电脑程序里,只要达成程序设定目标,就不能有所谓“臭棋”或“失误”之说。
那么,会“深度学习”、用“神经网络”打造的AlphaGo究竟算不算“强人工智能”或波斯特姆所言的“超级智能”呢?
波斯特姆在美国《连线》杂志20161月刊发表了看法。在他看来,这(指此前AlphaGo的发展)并不一定是一次巨大飞跃。波斯特姆指出,多年来,系统背后的技术一直处于稳定提升中,其中包括有过诸多讨论的人工智能技术,比如深度学习和强化学习。谷歌击败围棋大师不过是一项重大进程中的一部分。这一进程始于很久以前,也将延续至未来几年。波斯特姆说,“过去和现在,最先进的人工智能都取得了很多进展”,“(谷歌)的基础技术只是过去几年中的技术研发的技术正常延续”。⑦
看起来,虽然波斯特姆在总体上有关智能本质的理解是不成立的,AlphaGo的表现也没有出乎他的意料。在《超级智能:路线图、危险性与应对策略》一书中,他曾经这样表述:“专业国际象棋比赛曾被认为是人类智能活动的集中体现。20世纪50年代后期的一些专家认为:‘如果能造出成功的下棋机器,那么就一定能够找到人类智能的本质所在。’但现在,我们却不这么认为了。约翰·麦肯锡曾不无惋惜地悲叹:‘这种机器被造出来之后,人们就不称其为人工智能了。””⑧也就是说,能下棋能赢人类的机器,终究还是机器,与人类的心智本质无甚关联。感到不可思议或惊呼“聪明的人类输给了机器”的人,不是神化了下棋技艺的智力本质,就是给下棋程序横加赋予了“人性”特质。
初看起来,波斯特姆所谓的“超级智能”,应该是能够全面取代人类智能的一种“强人工智能”,区别于当前已经广泛应用中的“弱人工智能”(包括自动驾驶、下棋技能、机器视觉、指纹识别、人脸识别、视网膜识别、虹膜识别、掌纹识别、专家系统、自动规划,等等)。但他并没有深入探讨人类的智能现象的本质究竟是什么,对经典的“他心问题”也无涉及,这又让人觉得他说的“超级智能”还是属于工具性智能的“弱人工智能”的范畴。
就这一点,他本人也有所认识,他说:“用超级智能来指代在许多普遍的认知领域中,表现远远超越目前最聪明的人类头脑的智能。这个定义仍然十分模糊。按照这个定义,很多系统具有迥然不同的性能特质,都可以被视为超级智能。”⑨为了进一步解释他的构思,他试图通过区分智能层面的超级能力,将超级智能的这种简单定义分解。于是,他将超级智能分为三种形式:高速超级智能、集体超级智能和素质超级智能。由于未能把握人类意识现象的本质以及指出解释意识现象的方向,不管波斯特姆在展望“超级智能”时如何分类,都无法提供接近“机器人是人吗?人是机器人吗?”这个根本命题的方向乃至答案。
无论是谷歌的无人驾驶技术,还是如今的AlphaGo下棋程序,或者更早前的“微软小冰”,这些智能机器的发明,与人类从科技进步中期待得到的工具理性之间,并无根本的内在冲突,复杂程度日益提升、智能的日趋强大,与人们惊呼的“人类将要被机器消灭”的后果之间,并没有什么必然的关联。
可以说,迄今为止机器下棋技术的每一次重要进展,都可能是“弱人工智能”领域的路标,但其中涉及的主要并不是人工智能技术内部逻辑的断裂性突破,而这次AlphaGo赢了人类冠军所谓的重要意涵,是一些围棋爱好者把围棋和李世石预先设想为当然标杆后,标杆在某种光照中投下的张扬扭曲的影子。要超出这个,我们必须对人类意识的“整一性”难题和“他心问题”有了可操作的解释以后才有可能,就目前情况来看,玄机在哪里呢?不在棋局中,不在DeepMind的工坊里,也不在“阿法狗”的“神经网络”里,而在我们自己心智的幻影中。就“弱人工智能”范畴而言,智能再强大的机器,再像人的机器,也就是人类的一个不闹情绪的“超级秘书”而已。
价值失落:人类的身份认同危机与技术焦虑症
2014年,史蒂芬·霍金与麻省理工学院物理学家马克思·泰格马克(Max Tegmark)、诺贝尔奖得主弗朗克·韦尔切克(Frank Wilczek)、计算机科学家斯图亚特·罗素(Stuart Ressell)合写了一篇署名评论文章《在超级智能机器上超越自满》,该文引起了广泛关注。霍金在文章中表达了对人工智能的忧虑:“可以想象,人工智能会以其‘聪明’在金融市场胜出,在发明方面胜过人类研究者,在操纵民意方面将胜过人类领导人,研发出人类甚至理解不了的武器。尽管人工智能的短期影响取决于谁在控制人工智能,而它的长期影响则取决于人工智能到底能否受到任何控制。”⑩
关于人工智能的忧虑中,最为值得关切的是人工智能的应用伦理及其价值植入的技术限度。
人类的价值系统,粗泛地区分,可以分为外在价值和内在价值,即所谓“有用”与“无用”之辨。当我们说什么东西有用时,是就这东西对于它之外的某个目标、目的或者是功能而言的,比如钱可以拿来购买面包充饥,这叫工具价值。由于它把其他东西当作自己服务的对象,所以它没有内在价值,只有外在价值。外在价值即是那些工具性的价值,最终服务于人类的内在价值诉求。
那么,什么是内在价值呢?哲学家们或许会就某些含混地带进行争论,但无论如何,很少有人会把一些基本的要素排除出去,比如自由、快乐、尊严、情爱、创造、自我超越,等等。这些东西不是为了其它东西而存在,相反,生活中没有了这些东西,就等于失去了值得欲求的内容。当然,要有自由、尊严,需要一个最低版本的生存条件。这个条件,人和任何其他动物没有什么不同,不是人之为人的本质所在。如果我们谈论人类生活的内在价值及其意义系统,则必然集中在人所特有的东西上。康德的道德哲学已向我们表明,追求自由、尊严是所有理性存在主体的内在规定,鲜有其他哲学家会否认这一点。
在谈论人工智能对人的侵蚀和威胁时,有一部分研究人员会使用丧失“人类关切”(human-centric)一词来描述这种内在价值的亏损。比如法格拉(Daniel Faggella)采访了12位活跃在AI领域的权威专家和研究人员。其中,科尔奈(Kornai)博士和阿肯色大学的博尔林特(Daniel Berleant)博士都预见到了自动化金融算法被它们的所有者们用来作为赚钱工具所带来的潜在灾难性问题,他们说,这其中没有任何“人类关切”的目标。认知科学家巴赫(Joscha Bach)则说:“近期的人工智能引起的危机最终可能成为现在社会中已经存在的一样的危机。如果我们不能走出基于工薪的经济模式的话,人工智能的自动化会提高生产力,却不会改善我们的生存条件。”(11)这种忧虑不无道理,不过主要是基于财富分配的急遽变化而引起的社会阶层流动而言的,实际上,并不是技术进步和人工智能自身的问题。
如前所述,人类的内在价值并不在于谋生存的基本劳作,无论是体力劳动还是脑力劳动,都是为了解决问题来完成给自己设定的任务,这种设定源于我们的自我意识和意义系统。有了这种设定,才能知道什么是该干的“活”,什么是服务于我们的诉求的有效劳动。像下棋一类的智力活动,在人类这里刚好不是用来“干活”完成功利目标的技能,而是生活内容中的一部分高级游戏,这很有工具价值之外的意义。但是,这场人机大赛,引起哗然的并不是这个,而是人们感觉到的一种基于工具效能理解的自我认同危机。这种自我认同,其实是佣工思维,是一种价值上的自我贬损。
在单一的抽象博弈智能方面,体制化、学术化的集体战胜了天赋极高的自然个体。这令依赖这种禀赋的自然个体感到焦虑,正如有人马上反应过来:“以后还带不带孩子学围棋了?大街小巷的围棋兴趣班还有生意么?”围棋冠军们更是感受到一种职业性的惶恐:究竟我们此前对围棋的认知还有多少盲区?
其实,机器没有独立的意志,所谓“输”与“赢”的说法,都是我们人类单方面的投射,与AI“自己”无关,因为AlphaGo根本就没有所谓的“自己”。没有独立的意志,怎么和人发生“大战”呢?相反,棋盘之外,人们的反应,比如无名的焦虑,不可克制的兴奋,更具体点,汉语世界的看客几乎异口同声地把AlphaGo称作“狗”,这却是要超出现今任何人工智能可以“理解”的范围的。
一些围棋资深人士感到困惑,他们认为AlphaGo给出选点的思维方式与人类很不同,还有一个流行的说法是,“最可怕的不是AlphaGo战胜李世石,而在于它能赢却故意输掉”。这本来是个玩笑,但这个玩笑引出的问题确实切中要害的。什么叫“故意”输掉?AlphaGo并没有自我意识,没有自由意志,如何谈得上“故意”?“故意”可是一种截然不同的能力。这就要求我们理解“弱人工智能”与“强人工智能”的原则区别了。
波斯特姆似乎会把机器的所谓“故意”描述为“超级智能的意愿”,在他看来,智能大爆发将会导向一个叫做“背叛转折”的临界点。关于背叛转折,他这样定义:“当人工智能本来愚蠢时,变聪明是更安全的;但是当它本来就聪明时,变得更聪明则是更危险的。就像有一个轴心点,到这个点上,原来很有效的策略会突然产生相反的结果。我们把这个现象叫作背叛转折。”(12)
波斯特姆假想的人工智能厄运围绕的仍是人的动机,而不是机器真正有了意图。诸如他所列举的,“机器”为了使得开发人工智能的赞助者高兴,而“故意”表现得不那么“聪明”来蒙蔽人类,诸如在赞助者的大脑中植入负责快乐的电极,以使得赞助者被蒙蔽而不知觉,反而觉得很快乐。这里面涉及的,仍然是人与人之间的欺骗与控制。
只要没有出离人与人之间的关系,人工智能呈现的问题与危机,就没有超乎人类已经面对过的控制与反控制的议题。也就是说,人工智能的技术飞跃或者所谓“智能大爆发”带来的应用伦理问题,并不是新问题,而是一系列老问题的叠加。它会挑战我们过往的既有经验,却不是颠覆性的“消灭”;它会改变社会学阶层分析的经典框架,却不会产生什么新型的劫难。
对人工智能的过度期待或深度忧虑,大多基于缺乏学理根据的科幻想象或人们对自身的身份认同前景的恐慌。出版于1818年的《科学怪人》(13)就描述了“弗兰肯斯坦”这个科学狂人,他以“科学”的方式使死尸复活,结果那个被称为“弗兰肯斯坦的怪物”的人造人反过来控制了弗兰肯斯坦。文学作品展示人类的这种身份认同焦虑,已经源远流长,但今天的知识界科学界,如果还是止步于无的放矢的焦灼和恐惧,则无助于我们真正认识人工智能与人类意识的本质关系。
从人工智能目前的发展方向看,无论它再怎么“自动学习”“自我改善”,都不会有“征服”的意志,不会有“利益”诉求和“权利”意识。当前,无论从紧迫性上看,还是从终极可能性上看,“弱人工智能”问题都属于常规性问题,并且是渐进呈现的。如果说在可见的未来,技术发展领域有什么更值得担心、警醒、紧迫的事情,那么,或许基于虚拟技术的“扩展现实”的实现带来的影响将更具颠覆性。(14)
强人工智能的可能性与物理主义的困境
“弱人工智能”的机制比较清晰可控,那么,“强人工智能”会失控吗?这就要看我们究竟如何定义“强人工智能”。
在学界和业界,早有“强人工智能”相对“弱人工智能”的概念。这个命名容易让人误认为两者只是强弱程度的差别,但这种区别具有分立的性质——如果我们把“强人工智能”定义为出现真正有自主意识并且可确证其主体资格的“智能”,而不是AlphaGo这样仅仅比机械计算发展了更多层次的推理能力和学习能力的程序的话。这样定义下的所谓的“强”,指的是超越工具型智能而达到第一人称主体世界内容的涌现,还包括意向性、命题态度,乃至自由意志的发生。
这样的“强人工智能”是可能实现的吗?有的科学家哲学家说永远不可能,有的则说近在咫尺。
波斯特姆试图从“人工智能、全脑仿真、生物认知、人机交互以及网络和组织”等路径分析强人工智能或者他称之为“超级智能”的几种可能的实现方式,他详细评估了每种路径实现超级智能的可行性,并且认为“由于目前存在多条技术路径,因此至少有一条路径能实现超级智能的可能性很大”。(15)
波斯特姆的分析看起来庞大芜杂,但他给出的实现路径更多是在人脑上的直接迭代或高仿真,这很可能混淆了“强大的弱人工智能”与拥有主体性的“强人工智能”,他把通往不同本质的路径视为同一种性质的多种可能性。
在他看来,“若有足够先进的扫描技术和强大的计算机能力,即使只有很少的大脑理论知识也可以模仿全脑。极端情况下,我们可以想象采用施罗丁格(即薛定谔)量子力学方程在基本粒子水平来模拟大脑。这样我们就可以完全依靠现有的物理学知识,而不用任何生物模型。这种极端案例说明,没有计算机技术和数据分析也可以制造人工智能。一个听起来更合理的仿真水平是,将单个神经元和它们的连接矩阵合并,连带着它们的树状结构和每一个触突的变化状态。我们无法模拟单个的神经递质分子,但是可以粗略地将它们的波动浓度模型化。为了评价全脑仿真的可行性,人们必须理解成功的评判标准。我们的目的不是精确模拟出一个大脑,用它来预测在受到一系列刺激后,原始大脑会做出何种反应。相反,我们的目的是获得足够的大脑的计算机功能属性,以使最终得到的仿真进行智能工作。因此,真实大脑的很多复杂的生物学细节就无关紧要了。”(16)
这段论述是波斯特姆《超级智能:路线图、危险性与应对策略》一书中唯一一处提及量子力学,但他后面的分析却远离了量子力学才是对意识进行物理学研究的可能进路这一方向,回到了一般的计算主义/物理主义的“牢笼”。
在心智哲学和认知科学领域,的确有不少所谓的“计算主义者”“物理主义者”,他们认为,人的情感、意向性、自由意志等以及意识与自我意识直接相关的内容,在牛顿力学框架下的物理因果关系模已足具解释力,在人的第一人称主观世界与第三人称客体世界之间,也不存在最后的鸿沟。但是,也有一部分研究者持相反的看法,极力论证这种“计算主义”“物理主义”的悖谬本性,只承认从量子力学原理才有些许可能解决意识和自我意识这个真正的问题。
最近,美国量子物理学家斯塔普(Henry Stapp)、英国物理学家彭罗斯(Roger Penrose)、美国基因工程科学家兰策(Robert Lanza)都提出了人类意识的量子假设,中国清华大学副校长施一公院士、中科大副校长潘建伟院士等也大胆猜测,人类智能的底层机理就是量子效应。对于这个问题,笔者在出版于1998年的著作中尝试论证这个问题(17),同样的看法日渐增强。
不久前,笔者把这种论证进一步系统化,在《哲学研究》上发表了分析物理主义(包括计算主义)如何在研究中陷入“整一性投射谬误”,并论证定域性假设为何与脑神经元细胞层次对意识现象的解释注定要失败的文章。(18)
也就是说,以定域性预设为前提的物理主义和计算主义,在原则上就不可能解释人类的意识现象,量子力学已经不得不抛弃定域性预设,这就在逻辑上打开了其解释意识现象可能性之大门。
包括计算主义在内的物理主义有一个基本预设,即设定任何物理系统都能够被分解为单个独立的局部要素的集合,且各要素仅同其直接邻近物发生相互作用。这是经典力学的基本原则,也是当代神经科学默认的前提,从而也是物理主义心智哲学的预设。计算主义则强调符号关系,它与其他版本的物理主义相比,主要是分析要素的不同,但这种不同却无关宏旨。这是因为,符号关系试图解释的,也是意识现象或心智事件的产生和关联的机理,而不是纯逻辑的关系。基于这种认知框架,他们倾向于认为,大脑的符号系统的状态,就是各个单一独立要素的神经元的激发/抑制状态聚合起来的某个区域的总体呈现。
这样也就不难理解,波斯特姆为什么认为“获得足够的大脑的计算机功能属性”,就能最终使得仿真大脑进行智能工作。于是,在计算主义/物理主义这里,神经元系统可望实现的某个整一性功能,就被他们完全等价于各个分立神经元符号功能的关系的总和。
但是,笔者和斯塔普都详细论证过,这样的出发点,连最基本的意识感知现象(比如说双眼综合成像)都解释不了,因为这类现象中涉及的同一时空点的变量的个数远远超出在局域性预设中每个空间点可容纳的物理变量个数。他们无视这种困境的存在,正是他们混淆了“内在描述”与“外在描述”功能而陷入“整一性投射谬误”的结果。(19)
尽管从量子力学效应解释人类智能的顶层机理尚未取得突破性成果,但意识导致坍塌这一原理似乎是量子力学与身心问题的最为接近的终极解释,研究者们正试图检测与物理事件相关的意识事件(20),相对明确的结论暂时付诸阙如。
但无论如何,基于上述讨论,我们可以得知,所谓的“图灵测试”对判定“强人工智能”毫无用处,不能作为智能意识产生的推演依据,无论试验中的以假乱真效应有多么逼真。有鉴于此,本文拟提出一个“人工智能逆反图灵判据”,陈述如下:
任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。
这里说的“充足理由”,在人类现有的科学视野中,按照笔者和斯塔普等人的论证,唯有量子力学才有可能提供。
因此,无论是图灵测试中的机器人还是新近由日本软银公司研发、富士康代工的所谓“情感机器人”Pepper,抑或如今被惊叹有了“深度学习”能力的AlphaGo等有了多么强大的所谓“超级智能”,也无论它们及其未来的升级版看起来多么像具有人类的情感,除非有人确凿证明,在制造或升级这些机器的过程中,在哪一个关节点把人类情感、人类意识整合了进去,否则,我们就只能认为把Pepper称作“有情感的机器人”只是一种比喻。
结语:“强人工智能”与人类繁殖伦理前瞻
如上所述,没进入量子力学之前,所有的人造机器,包括AlphaGo,必然只是在某些方面具备高于人类的能力。这本来就是人造机器的目的,即人为了自身的内在价值实现同时不断改进人类的生存处境而作出的努力。在现有条件下,人造机器不会失控,如果有所谓“失控”的话,这与我们对飞机、高铁、大坝、核能之类的失控基本上属于同类性质。
AlphaGo的确有隐喻意义上的“学习”能力,自行调整累积迭代的能力,但说到底仍是一种工具能力,是“弱人工智能”。这种“弱人工智能”很可能通过图灵测试,但这与人的意向性(intentionality)及主体感受内容(qualia)不相干。
当然,基于人类理性和道德能力的限度,我们有理由相信,即便是弱人工智能,在其应用中也应当秉持审慎的人文理性态度。
不少比较理性的研究者提出,由于人工智能的发展呈“加速回报”的态势,人类既有的道德资源和伦理框架或许难以覆盖技术飞跃变革提出的新议题。他们提出应当发展一种叫做机器伦理(Machine ethics)的道德态度,(21)加利福尼亚大学伯克利分校计算机学教授拉塞尔(Stuart Russell)在美国时代杂志发表观点认为,避免机器的不当使用威胁人类的生存,就应该考虑如何把人类价值变成可编程的代码,把人类的道德转化为人工智能语言。他认为,在机器人领域,“道德哲学将是一个非常重要的产业部门”。(22)
归根结底,这些诉求跟当前的一系列技术推进所遭遇的伦理困境并无实质上的差异,就像我们已经提出的在虚拟现实、扩展现实领域应当引起重视的“大宪章”问题一样,指向的都是如何避免少数人掌控技术以更便捷更隐蔽的手段损害人的自由与尊严的问题。其中需要的关键要素有两点:第一,如何更准确更敏锐地分析科技推进中的结构性变革,以技术手段防范技术暗箱操作,这需要技术的发展始终在一个社会开放空间中进行,使技术不被少数人的权力和资本所垄断;第二,如何在技术推进中注入人文理性,这需要哲学家、艺术家以及社会科学各界在技术变革中积极参与,及时发现技术当中隐合的道德议题、社会议题,向科学界、技术界和企业界发出他们观察慎思后的最强音,以起到建立一个人文伦理防火墙的作用。
此外,我们需要着重提出的是,弱人工智能和强人工智能之间,鉴于其生发机理性质的全然不同,在应对的伦理规则方面,也必然需要在认清本有的界限的基础上分别制定(23)
如果让我们对“强人工智能”的可能实现做一点伦理前瞻的话,那么,基于上述分析,“强人工智能”实现以后的这种造物就不能被当做纯粹的工具了。这时,它们已经具有自主意识,具有与人类对等的人格结构,今日人类成员所拥有的权利地位、道德地位、社会尊严等等,他们就应该平等地拥有。
与我们平起平坐的具有独立人格的“机器人”,还是机器吗?不是了,这才是真正的“奇点”和“智能大爆发”。但是,有人会认为,最为关键的问题是,这样的“强人工智能”主体,不就可以与人类对抗,毁灭人类了吗?
要理解这种担忧的实质,就需要我们以价值理性和科学理性出发进行自我反思。所谓的人类毁灭恐惧与人类身份认同焦虑,实际上是把基于个体经验形成的一己情怀,等价于有效的价值判断了。我们主动设计、制造了某种新型主体的存在,但并不对他们的个体特质进行设计,不就等于以新的途径繁殖了我们的后代吗?我们千万不要以一时的人文情怀来遮掩甚至拒斥可普遍化的人文理性,将人类引入迷途。
首页 |  中心概况 |  中心通知 |  中心讯息 |  中心成果 |  飓风论坛 |  人才培养 |  学界动态 |  景德书讯 |  招生信息
您是访问本站的第 位嘉宾
Copyright 2013-2016.ethics.hunnu.edu.cn,All rights reserved