为什么“人工智能教父”害怕自己所打造的东西
Geoffrey Hinton 用一生教会计算机学习。现在他担心,人工大脑可能比我们的人脑更强。
在你的大脑里,神经元被组织成大小不一的网络。每一个动作、每一次思考,都会让这些网络发生改变:有的神经元被纳入或排除,彼此之间的连接会变强或变弱。这个过程时时刻刻都在发生 — — 就像你正在阅读这些文字时 — — 而它的规模超出想象。你的大脑大约有八百亿个神经元,彼此之间共享一百万亿个以上的连接。你的颅骨里装着一个堪比星系的“星群”,永远在变化。
计算机科学家 Geoffrey Hinton — — 人们常称他为“人工智能之父(教父)” — — 递给我一根手杖。“你会用得上这个,”他说。然后他沿着一条穿过树林通向岸边的小路走去。小路蜿蜒穿过一个阴凉的空地,路过两间小棚屋,再沿着石阶下到一个小码头。“这里很滑,”当我们开始下行时,Hinton 提醒道。
新知识以细微的调整形式,融入你现有的网络。有时它们只是暂时的:比如你在派对上遇见一个陌生人,他的名字也许只会在你的记忆网络里短暂留下印迹。但它们也可能伴随一生,比如说,那位陌生人后来成了你的配偶。由于新旧知识会融合,你已经知道的东西会塑造你接下来的学习。如果派对上的某个人跟你聊起他去阿姆斯特丹的旅行,第二天你在博物馆里,你的网络可能会轻轻把你“推”向维米尔(Vermeer)。通过这种方式,微小的变化为深刻的转变创造了可能。
“我们当时在这儿烧了个篝火,”Hinton 说。我们站在一处突入安大略省乔治亚湾的岩石台地上,海湾向西连着休伦湖。水面点缀着岛屿;Hinton 在 2013 年、他 65 岁时买下了这座岛 — — 当时他把一个三人初创公司以 4400 万美元卖给了谷歌。在那之前,他在多伦多大学做了三十年的计算机科学教授 — — 是一个并不光鲜的分支“神经网络”的领军人物,这一分支受大脑中神经元连接方式的启发。由于人工神经网络在所承担的任务上(图像分类、语音识别等)只是取得了“中等程度”的成功,多数研究者认为它们充其量略有意思,最糟也不过是浪费时间。“我们的神经网络就是干不过小孩子能做的事,”Hinton 回忆道。二十世纪八十年代,当他看《终结者》时,他并不介意片中那个毁灭世界的人工智能“天网”被设定为神经网络;他反而很高兴看到这种技术被描绘成前景可期。
在篝火燃烧过的小坑里,热量在石头上烙下的裂纹从中心向外辐射。身材高挑、瘦削、带着英伦气质的 Hinton 用手杖戳了戳那个位置。作为一个“从头到脚的科学家”,他总是随口点评物理世界正在发生的事:动物的生活、海湾里的水流、岛上岩石的地质。“我在木柴下面铺了一层钢筋网,这样空气能进来,结果火烧得足够热,金属真的都软了,”他带着惊叹的口吻说。“这才叫真篝火 — — 值得自豪!”
几十年来,Hinton 一直在“鼓捣”,以巧妙的方式构造更大的神经网络。他设想训练它们、帮助它们改进的新方法。他招募研究生,说服他们神经网络并非无可救药。他把自己看作是在参与一项可能要到他去世后一百年才会结果的事业。与此同时,他丧偶,独自抚养两个年幼的孩子。在一个尤其艰难的阶段,家庭生活与科研的双重压力让他不堪重负,他觉得自己能贡献的已经都贡献完了。“我在四十六岁时就已经无以为继了,”他说。他没有预料到,大约十年前神经网络技术会突然飞速进步。计算机变得更快,而神经网络利用互联网上可得的数据,开始转写语音、玩游戏、翻译语言,甚至驾驶汽车。就在 Hinton 的公司被收购前后,一场人工智能热潮启动了,催生出像 OpenAI 的 ChatGPT 和 Google 的 Bard 这样的系统,许多人认为它们正在以不可预测的方式改变世界。
Hinton 沿着岸边出发,我跟在后面,脚下碎裂的岩石在晃动。“现在看这个,”他说。他站在一块鼓包状、与人差不多大小的巨石前,挡住了我们的去路。“这样过去。你把手杖扔过去 — — ”他把手杖丢到了巨石另一侧,“ — — 然后这里和这里有落脚点,这里有个抓手点。”我看着他轻车熟路地翻了过去,然后我也更为小心地一步步照做。
每当我们学习,神经元网络都会发生改变 — — 但究竟如何改变?像 Hinton 这样的研究者借助计算机,试图为神经网络找到“学习算法”,也就是一种让人工神经元之间连接的统计“权重”发生改变、从而吸收新知识的过程。1949 年,心理学家唐纳德·赫布提出了一条关于人如何学习的简单规则,常被概括为:“一起放电的神经元会连在一起。”当你大脑中的一组神经元同步激活后,它再次同步激活的概率会更高;这有助于解释为什么同一件事做第二次更容易。但人们很快发现,要让计算机化的神经网络解决复杂问题,还需要另一种方法。作为一名年轻研究者,在 20 世纪六七十年代,Hinton 会在笔记本上画出神经元的网络,想象新知识抵达它们的边界。一个由几百个人工神经元构成的网络如何存储一个概念?如果事实证明这个概念有瑕疵,它又该如何修正?唐纳德·赫布(Donald Hebb)是一位加拿大心理学家,他在1949年提出了一条关于人如何学习的简单规则,常被概括为:“一起放电的神经元会连在一起。”
具体来说,赫布学习规则(Hebb Learning Rule)指出,当一个神经元A重复地、持续地使神经元B兴奋时,A和B之间的突触连接将得到加强。这表示如果两个神经元的活动经常同时发生,它们之间的连接会变得更强。这种机制简要概括为“同时激活则连接加强”。
我们沿着岸线走到 Hinton 的小屋 — — 岛上唯一的一栋。整栋屋子是玻璃围合的,架在支柱上,坐落于一段由宽大黝黑岩石构成的“台阶”之上。“有一次,我们到这儿来,一条巨大的水蛇把头伸了出来,”当我们走近房子时,Hinton 说道。这是一段温暖的回忆。他的父亲是一位著名的昆虫学家,曾命名过一种鲜为人知的变态阶段,父亲也让他从小就喜爱冷血动物。孩提时,他和父亲在车库里养着一坑蝮蛇、乌龟、青蛙、蟾蜍和蜥蜴。如今,只要 Hinton 在岛上 — — 暖和的季节他常来 — — 他有时会捉到蛇带进屋里,好在玻璃箱里观察。作为一个“自下而上地思考思维”的人,他也善于观察非人类的心智。
今年早些时候,Hinton 离开了谷歌 — — 自那次收购以来他一直在那里工作。他开始担心人工智能可能带来的危害,接受采访时谈到这项技术或许对人类物种构成的“生存性威胁”。他使用 ChatGPT(一个以海量人类文本训练的人工智能系统)越多,心里就越发不安。一天,福克斯新闻有人写信给他,想就人工智能采访他。Hinton 喜欢用一句话的俏皮回信 — — 收到加拿大某情报机构的一封冗长来信后,他曾回复:“斯诺登是我的英雄” — — 于是他开始尝试几句“一句话”。最后,他写道:“Fox News is an oxy moron.” 随后,他心血来潮,问 ChatGPT 能否解释他的笑话。该系统告诉他,这句话暗示福克斯新闻是假新闻;而当他指出 “moron” 前面的那个空格时,系统又解释说福克斯新闻像药物 OxyContin(奥施康定)一样让人上瘾。Hinton 大为震惊。这种层面的理解似乎代表着人工智能的一个新时代。
对人工智能的到来感到担忧,理由有很多。比如,人类工人被计算机取代,这种担忧就很常见。但 Hinton 与包括 OpenAI 首席执行官 Sam Altman 在内的许多知名技术人士一道发出警告,认为人工智能系统可能会开始自主思考,甚至试图接管或消灭人类文明。听到人工智能领域最杰出的研究者之一表达如此令人警惕的观点,的确令人震惊。
“人们会说,这不过是被美化的‘自动补全’,”他站在厨房里对我说。(他一生大部分时间都饱受背痛困扰;病情最终严重到他放弃了坐姿。自 2005 年以来,他从未连续坐超过一小时。)“现在,让我们来分析一下。假设你想把预测下一个词做得非常好。若要真的做到非常好,你就必须理解正在说些什么。只有这条路可走。所以,当你训练某个东西把预测下一个词做得非常好时,实际上就是在逼迫它去理解。没错,它是‘自动补全’ — — 但你并没有想清楚,‘一个真正非常好的自动补全’意味着什么。”Hinton 认为,“大型语言模型”(例如为 OpenAI 聊天机器人提供动力的 GPT)能够理解词语与观念的含义。
那些认为我们高估了人工智能能力的怀疑者指出,人类心智与神经网络之间存在大量差异。首先,神经网络并不像我们那样学习:我们通过亲身经历、把握其与现实及自我的关系,有机地获得知识;而它们则通过处理关于一个它们并不真正栖居其中的世界的海量信息库,抽象地进行学习。但 Hinton 认为,人工智能系统所展现的智能超越了其“人工”的出身。
“当你进食时,你把食物吃进去,然后把它分解成这些微小的成分,”他对我说。“所以你也可以说,我身体里的这些小碎片是由其他动物的碎片构成的。但那会非常具有误导性。”他认为,通过分析人类的写作,像 GPT 这样的大型语言模型会学会世界如何运作,从而生成一个能够思考的系统;写作只是这个系统所能做的事情的一部分。“这就类似于毛毛虫如何变成蝴蝶,”他接着说。“在蛹里,毛毛虫被化成一滩‘汤’ — — 然后就用这滩‘汤’造出蝴蝶。”
他开始在厨房旁边的小橱柜里翻找。“啊哈!”他说着,夸张地把一个物件放到台面上 — — 一只死去的蜻蜓。保存得完好无损。“我在游艇码头捡到的,”他解释说。“它刚在岩石上羽化,正晾干翅膀,所以我把它抓住了。看底下。”Hinton 抓到这只蜻蜓时,它刚刚从若虫(幼体)形态里脱出。若虫看起来完全是另一种昆虫,有自己的一双眼和足;它背上有一个洞,蜻蜓就是从那里爬出来的。
“蜻蜓的幼虫是个生活在水下的‘怪物’,”Hinton 说。“而且,就像电影《异形》里一样,蜻蜓是从怪物的背上破体而出的。幼虫进入了一个阶段,被化成‘汤’,然后用这滩‘汤’构建出了一只蜻蜓。”在他的隐喻里,幼虫代表用于训练现代神经网络的数据;蜻蜓象征从中被创造出的那种敏捷的人工智能。深度学习 — — Hinton 参与开创的那项技术 — — 引发了这场变态(蜕变)。我俯身靠近些以便看得更清楚;Hinton 依旧挺直站着 — — 他几乎总是这样 — — 小心维护着自己的姿势。“它很美,”他轻声说。“而且你明白我的意思了。它起初是某种东西,而现在变成了别的东西。”
几周前,当 Hinton 邀请我去他的岛上造访时,我在脑中设想了几种场景。也许他是个渴求独处的内向者,或者是一位有着“上帝情结”的科技领主,住在一个充满未来感的院落里。在我抵达前几天,他给我发来一张照片,是他在岛上草丛里拍到的一条盘着身子的响尾蛇。那一刻我不确定自己该是欣喜还是害怕。
事实上,就私人岛屿而言,Hinton 的这座相当朴素 — — 总共两英亩。Hinton 本人也与“硅谷技术弥赛亚式人物”完全相反。如今七十五岁的他,长着一张仿佛出自约书亚·雷诺兹油画的英式面庞,白发勾勒出宽阔的额头;他的蓝眼睛常常平静,把情绪留给嘴角去表达。作为一位言辞辛辣的讲述者,他颇享受谈论自己 — — “‘Geoff’ 是 ‘ego fortissimo’ 的字母重组(anagram),”他对我说 — — 但他并不是自我中心者;他的人生被太多悲伤的阴影所笼罩,不容他那样做。“我大概应该跟你说说我几任妻子,”我们第一次交谈时他说。“我结过三次婚。一段友好结束,另外两段以悲剧收场。”他与第一任妻子 Joanne 仍然关系友好,那是他的早婚;但第二任与第三任妻子 Rosalind 和 Jackie 分别于 1994 年与 2018 年因癌症去世。过去四年里,Hinton 一直与退休社会学家 Rosemary Gartner 在一起。“我觉得他是那种总需要一个伴侣的人,”她温柔地对我说。他是一位浪漫的理性主义者,具有在科学与情感之间保持平衡的感受力。小屋里,在构成底层大部分面积的那间大房间里,放着一只酒红色的独木舟;他与 Jackie 曾在岛上的树林里发现了它,当时已破败不堪,而 Jackie(她是一位艺术史学者)在自己患病的那些年,与几位造舟的女工匠一道把它修复了。“首航是她完成的,”Hinton 说。此后再无人使用过它。
他把那只蜻蜓收好,然后走到一张小小的站立式书桌前,桌上放着一台笔记本电脑,旁边堆着一摞数独谜题,还有一本写着电脑密码的笔记本。(他很少用那本笔记,因为他自创了一套助忆系统,能在脑中生成并回忆起极其冗长的密码。)“我们来看看家谱?”他问。用两根手指 — — 他不会盲打 — — 敲入“Geoffrey Hinton family tree”,然后按下回车键。2013 年谷歌收购 Hinton 的初创公司,部分原因就是这个团队找到了用神经网络显著提升图像识别的方法;而今,无尽的家谱信息蜂拥铺满了屏幕。
Hinton 出身于一种很典型的英国科学世家:政治上激进,创造力不安分。在家谱中,他的上一辈有叔外祖辈 Sebastian Hinton(儿童攀爬架的发明者),还有表亲 Joan Hinton(在“曼哈顿计划”中担任物理学家)。再往上,有 Lucy Everest(首位当选“皇家化学学会”成员的女性);Charles Howard Hinton(提出“四维超正方体(tesseract)”概念的数学家 — — 电影《星际穿越》中就出现过一个);以及 James Hinton(开创性的耳科外科医生,同时是多配偶制的倡导者)。“基督是男性的救世主,而我是女性的救世主,”据说他这样评述自己。十九世纪中叶,Hinton 的一位高曾祖是英国数学家乔治·布尔,他建立了如今称为“布尔代数”的二值推理体系,这是全部计算的根基。布尔的妻子 Mary Everest 是一位数学家与作家,同时也是乔治·埃佛勒斯特的外甥女 — — 那位测量家,其姓氏被用来为珠穆朗玛峰(Mt. Everest)命名。
“Geoff 生在科学之家,”Hinton 的学生兼合作者、如今负责 Meta 人工智能业务的 Yann LeCun 对我说。然而 Hinton 的家族比这还要“古怪”。他的父亲 Howard Everest Hinton 在 1910 年代的墨西哥革命时期长大,生活在由其父亲管理的一座银矿上。“他很硬气,”Hinton 说起父亲时说道:家族传闻里,十二岁的 Howard 曾因拳击教练下手太重而威胁要朝对方开枪,而那位教练把这事当真到直接离开了小镇。Howard 的第一语言是西班牙语,上大学去到伯克利时,因为口音被人嘲笑。“他就和一群同样受歧视的菲律宾朋友混在一起,于是成了伯克利的激进派,”Hinton 说。Howard 成熟时期的政治立场不仅是马克思主义,还是斯大林主义:1968 年,当苏联坦克开进布拉格时,他说:“早该这样了!”
在学校里,Hinton 倾向于学习科学。但出于意识形态的原因,他的父亲不允许他学生物;在 Howard 看来,基因决定论的可能性与关于“人性最终可塑”的信念相抵触。(“我憎恨一切形式的信仰,”Hinton 回忆那段时期时说。)在布里斯托大学任教的 Howard,是昆虫学界的“印第安纳·琼斯”:他把世界各地的稀有生物悄悄装进行李带回英国,并编辑过本领域的一本重要期刊。中间名同样是 Everest 的 Hinton,感到自己肩上背负着要闯出一番名堂的巨大压力。他记得父亲对他说过:“如果你比我更努力两倍,那么当你年纪是我两倍时,你也许能做到我一半好。”
在剑桥,Hinton 尝试了不同领域,却沮丧地发现自己在任何一门课里都不是最聪明的学生。他曾短暂退学,去伦敦“阅读令人沮丧的小说”和打零工,随后回到学校尝试学建筑 — — 大约只持续了一天。最终,在物理、化学、生理学与哲学之间辗转、寻找重心之后,他选择了实验心理学学位。他常常泡在道德哲学家 Bernard Williams 的答疑时间里,而这位学者恰好对计算机与心智感兴趣。一天,Williams 指出:我们不同的思想必然对应着我们大脑内部不同的物理排列;这与计算机内部的情形截然不同 — — 在计算机里,软件独立于硬件。Hinton 被这个观察击中了;他想起高中时一位朋友对他说过,记忆可能以“全息”的方式储存在大脑中 — — 也就是说,它是分布式的,但任何一个部分都能访问到整体。他所邂逅的,正是“联结主义”(connectionism) — — 一种把神经科学、数学、哲学与编程结合起来,探索神经元如何协同“思考”的方法。联结主义的一个目标,是在计算机中创造一个类脑系统。这个方向已经有了一些进展:20 世纪 50 年代,由一位名叫 Frank Rosenblatt 的心理学家、联结主义先驱建造的“感知机”,用简单的计算机硬件模拟了一个包含数百个神经元的网络。连接上光传感器后,这套装置可以通过追踪不同光模式激活了哪些人工神经元,来识别字母与形状。
在小屋里,Hinton 站着来回踱步,在厨房操作台后面和一层四处走动。他烤了些吐司,给我们每人拿了一个苹果,然后用一个小阶梯给自己搭了个临时的增高小桌。家庭压力的效应,是把他从那些“短暂满足”里往外推。“我一直很喜欢木工,”我们吃着东西时,他带着惆怅回忆说。“在学校,晚上可以自愿去做。我常在想,如果我做了建筑师会不会更快乐,因为那样我不必逼迫自己去做。至于科学,我一直得逼迫自己。因为家族的缘故,我必须在这方面成功 — — 我必须找到一条路径。做科学也有快乐,但大多是焦虑。如今我终于成功了,这让我如释重负。”
Hinton 的笔记本“叮”地响了一声。自从离开谷歌以来,他的收件箱就不断被各种关于人工智能评论的请求塞满。他慢悠悠走过去看了看邮件,然后又迷失在那片家谱的“森林”里 — — 每一份看起来都在某个方面有错。
我走过去探身看屏幕。那是一张“学术家谱”,上方是 Hinton,自他的学生以及学生的学生层层铺陈在下方。家谱铺得太宽,他得横向滚动,才能看到自己影响力的范围。“哦,天哪,”Hinton 一边浏览一边说,“她其实并不算是我的学生。”他继续往右滚动。“他很聪明,但做导师不太行,因为他总能自己做得更好。”Hinton 是个细心的“育才者”,似乎还乐于被学生超越:他以往评估求职者时,会问其导师一句话 — — “但他们比你更强吗?”回忆起 1977 年去世的父亲,Hinton 说:“他极其好胜。我常在想,如果他还在世,看到我成功了,他会不会真的感到完全高兴。因为现在我的成就已经超过了他。”
据 Google Scholar 统计,Hinton 目前在心理学者中引用次数位列第二,在计算机与认知科学家中位列第一。如果说他在剑桥的起步既缓慢又离经叛道,部分原因是他当时正围着一个新兴领域打转。“神经网络 — — 当时名校里做这个的人极少,”他合上笔记本说,“你在 M.I.T. 做不了,在伯克利也做不了,在斯坦福也做不了。”而成为一个“初生网络”的枢纽也有好处:多年来,许多最优秀的头脑都被他吸引而来。
“今天天气不错,”第二天早上 Hinton 说,“我们该砍一棵树。”他把衬衫扎进卡其裤里,看起来一点也不像伐木工;不过他还是搓了搓手。在岛上,他总在砍树,以营造更整齐、更美观的“景框”。
这栋房子本身也还在“施工中”。很少有承包商愿意跑这么远的地方,而 Hinton 雇来的人又犯了一些不必要的错误(把排水管往上游方向铺、地板只做了一半),直到今天都让他气不打一处来。几乎每个房间里都有一个“纠错”的小项目;我拜访时,Hinton 都在这些项目上附了小纸条,方便新的承包商,常常直接写在建材上。在一楼浴室,靠墙支着的一段踢脚板上写着:“浴室应使用这种类型的踢脚板(仅在淋浴前侧使用枫木饰条)。”在客房的衣橱里,一条美纹胶带沿着搁板粘着,上面写着:“不要给搁板刷底漆,只给搁板支撑刷底漆。”
给心智给事物贴标签是有用的;它能帮助我们把握现实。但如果是一个人工心智来这么做,又意味着什么?在爱丁堡大学攻读人工智能博士期间,Hinton 思考过,大脑中的“知晓”如何能在计算机里被模拟。当时,在 20 世纪 70 年代,绝大多数人工智能研究者是“符号主义者”(symbolists)。在他们看来,关于番茄酱的“知晓”,可能涉及许多概念,比如“食物”“酱汁”“调味品”“甜味”“鲜味”“红色”“番茄”“美国式”“薯条”“蛋黄酱”“芥末”;这些概念合在一起,可以搭出一个脚手架,把“番茄酱”这样的新概念挂上去。一项名为 Cyc、资金雄厚的大型人工智能计划就以构建一个庞大的知识库为中心,科学家用一种特殊语言将概念、事实与规则录入其中,并附带它们不可避免的例外。(鸟会飞,但企鹅不会;翅膀受损的鸟也不会,或者 . . .)Cyc 是 1984 年由 Douglas Lenat 在美国 MCC(Microelectronics and Computer Technology Corporation)启动的一个“常识工程”长期计划,后来由他创办的 Cycorp 公司持续开发。它的目标不是用统计模式学习世界,而是把人类的常识用形式化语言编码进一个庞大的本体与知识库,再用推理机进行演绎、归纳与溯因推理,从而获得“像人一样”的理解与判断。
但 Hinton 对这种路径存疑。它看起来过于僵硬,且过分关注哲学家与语言学家所擅长的推理技能。在自然界里,他很清楚,许多动物在没有可用语言表达的概念时也能表现出智能。它们只是通过经验学会了如何变得聪明。驱动智能的引擎是学习,而不是现成的知识。
复杂的人类思维常常似乎通过符号与语言发生。但 Hinton 及其合作者 James L. McClelland 与 David Rumelhart 认为,大量“行动”发生在次概念层面。他们写道,请注意这样一种现象:“如果你学到关于某个对象的一条新事实,你对其他相似对象的预期往往也会改变”:例如,若有人告诉你黑猩猩喜欢洋葱,你可能会猜大猩猩也喜欢。这表明,知识很可能在心智中是“分布式”的 — — 由更小的“构件”组合而成,这些构件可以在相关观念之间被共享。对于“黑猩猩”和“大猩猩”这两个概念,并不会各自有两套完全分离的神经元网络;相反,代表各种具体或抽象“特征”的一簇簇神经元 — — 如毛茸茸性、四足性、灵长类属性、动物性、智力、野生性等等 — — 可能以某种方式被激活来指示“黑猩猩”,又以稍有不同的方式被激活来指示“大猩猩”。在这朵特征“云”上,还可以再加上一项特征:喜欢洋葱。以这种方式构建的心智有陷入混淆与错误的风险:如果把性质以错误的方式混搭,你可能会得到一种既非大猩猩也非黑猩猩的幻想生物。但若大脑拥有合适的学习算法,它就能通过调整神经元之间的权重,让合理的组合胜过前后不一的组合。
Hinton 继续探索这些思想,先是在加州大学圣地亚哥分校做博士后(并与他在计算机视觉上辅导过的 Joanne 结婚);随后回到剑桥,在应用心理学领域做研究员;再后来到匹兹堡的卡内基梅隆大学,1982 年成为计算机科学教授。在那里,他把研究经费的大头都花在了一台足以运行神经网络的单机上。不久,他迎来第二段婚姻,娶了分子生物学家 Rosalind Zalin。在卡内基梅隆,Hinton 取得了一次突破。他与兼具计算机科学家与神经科学家身份的 Terrence Sejnowski 合作,提出了一种名为玻尔兹曼机(Boltzmann Machine)的神经网络。这个系统以 19 世纪奥地利物理学家路德维希·玻尔兹曼命名 — — 后者以数学方式刻画了气体的宏观行为如何与其组成粒子的微观行为相关联。Hinton 与 Sejnowski 将这些方程与一种学习理论结合了起来。玻尔兹曼机(BM)是一种会“自己对照”的神经网络:先看真东西(清醒/正相)把对的规律记住,再自己做梦(睡眠/负相)把不该学的东西忘掉。久而久之,它就把“像真的组合”变成更深的能量谷,把“瞎想的组合”铲平。
Hinton 起初不太愿意向我解释玻尔兹曼机。“我告诉你这像什么,”他说,“就像带着一个小孩去散步。前面有一座山,你得把这个小孩带到山顶再带回来。”他看了看我 — — 在这个隐喻里我就是那个小孩 — — 然后叹了口气。他担心(这担心不无道理)我会被过度简化的解释误导,进而再去误导别人。“试图解释自己没弄懂的复杂观念是没用的。首先你得真正理解它如何工作。否则你只会产出胡言乱语。”最后,他拿出几张纸,开始画用箭头连接的神经元示意图,又写下方程式,我努力跟上。(在来之前,我上过可汗学院的线性代数课程。)
他提出,理解玻尔兹曼机的一种方式,是设想一个 Identi-Kit(合成画像)系统:把面孔的各种特征 — — 浓眉、蓝眼、鹰钩鼻、薄唇、大耳朵,等等 — — 组合起来,生成警方使用的那种拼接画像。要让 Identi-Kit 起作用,特征本身就必须被恰当地“设计”。玻尔兹曼机不仅能学会如何拼装这些特征,还能学会如何设计这些特征 — — 方法是改变人工神经元之间连接的权重。它会从看上去像电视雪花的随机特征开始,然后在两个阶段 — — “清醒(waking)”与“睡眠(sleeping)” — — 中逐步细化。在清醒期,它会微调特征,使之更贴合一张真实的脸;在睡眠期,它会虚构一张并不存在的脸,再据此调整特征,让它们对这张虚构之脸的拟合更差。
它的“梦”告诉它不该学什么。这个系统自有其优雅之处:随着时间推移,它能远离错误、逼近真实,而无需任何人告诉它对错 — — 它只需要看清存在的,再去梦见不存在的。
Hinton 和 Sejnowski 在 1983 年的一篇论文(Optimal Perceptual Inference)中描述了玻尔兹曼机。“我在开始读研时读到那篇论文,就对自己说:‘我必须要去找他们聊聊 — — 全世界只有他们意识到我们需要学习算法,’ ”Yann LeCun 对我说。八十年代中期,如今担任魁北克人工智能研究机构 Mila 科学总监、在自然语言处理与计算机视觉领域开创性的 Yoshua Bengio,把玻尔兹曼机训练用于识别口语音节,作为他硕士论文的一部分。“Geoff 是外审之一,”他回忆说,“他写了类似‘这不应该有效’的话。”Bengio 的玻尔兹曼机版本比 Hinton 预想的更有效;Bengio 花了几年才弄清原因。此后这将成为一种熟悉的模式。接下来的几十年里,神经网络常常表现超出预期,或许是因为在训练过程中,神经元之间形成了新的结构。“实验部分先于理论,”Bengio 回忆说。很多时候,就是尝试新路径,看看网络能“自己搞出什么来”。
Hinton 说,部分因为 Rosalind 厌恶罗纳德·里根,他们搬去了多伦多大学。他们从拉丁美洲领养了两个孩子,一男一女,住在城里的一所房子里。“我就是那种把自己奉献给工作的社会主义教授,”Hinton 说。
Rosalind 曾长期与不孕不育抗争,并与冷漠的医生有过糟糕的经历。或许因此,当她后来被诊断患有卵巢癌时,选择了顺势疗法的路径。“这根本说不通,”Hinton 说。“不可能把东西稀释得越厉害,它就越有力量。”他无法理解一个分子生物学家怎么会成为顺势疗法者。尽管如此,Rosalind 仍决意自行治疗癌症;即便检查发现她体内有一个西柚大小的肿瘤,她也拒绝手术;后来她同意了手术,但拒绝化疗,转而先在加拿大、后在瑞士,追求价格日益昂贵的顺势疗法。她出现了继发肿瘤。她让 Hinton 卖掉房子,好支付新的顺势疗法治疗费用。“我在那儿划下了界线,”他眯起眼,带着新近涌上的痛楚回忆说,“我说:‘不,我们不卖房子。因为如果你去世了,我得照顾孩子们,留在这里对他们会好得多。’ ”
Rosalind 回到加拿大后立刻住院。她又坚持了几个月,但直到去世前一天才让孩子来看她,因为她不想让他们看到自己病得如此严重。在整个患病期间,她始终坚信自己很快就会好起来。叙述这段经历时,Hinton 仍似乎难以自持 — — 他愤怒、自责、受伤、困惑。Rosalind 去世时,Hinton 四十六岁,儿子五岁,女儿三岁。“她因为拒绝接受自己将要死去这一事实,而伤害了他人,”他说。
海浪声充盈着午后的寂静。强烈的金黄色阳光透过落地窗泼洒进屋;几缕淡淡的蜘蛛网横跨其上,在光线勾勒下成了剪影。Hinton 站了一会儿,平复情绪。
我们从前门走出去,沿着小路来到几间棚屋旁。Hinton 从其中一间取出一把绿色小电锯和一副护目镜。
“Rosemary 说我不许在这里没有其他人的时候砍树,免得把胳膊什么的锯掉,”他说。“你以前开过船吗?”
“我不想让你以为我很懂这个,”他说。“但基本思路是,你切出很多个 ‘V’,然后树就倒了。”
Hinton 穿过小路走向他选好的那棵树,我们行进间他还查看灌木里有没有蛇。那是一棵枝叶葱茏的雪松,大约二十英尺高;Hinton 抬头判断它的倾斜方向,然后启动电锯,从倾斜的一侧切入树干。随即他抽出电锯,再切一刀与前刀汇合,形成一个 “V”。
Hinton 默默地操着电锯,偶尔停下擦一擦额头的汗。日头很晒,阴影里的每个角落都挤满了蚊虫。我打量着棚屋的一侧,蚂蚁和蜘蛛正进行着难以看懂却不曾停歇的活动。小路尽头,水面在发光。这里美极了。即便如此,我仍觉得自己看懂了 Hinton 想要改造它的原因:一座漂亮的圆丘向下延伸至一个柔缓的洼地,如果把那棵多余的树移走,光就能流进来。那棵树,是一个错误。
最终,他在树的另一侧开始了第二刀,让切口朝向第一刀。随即他停下,转向我解释道:“因为树的倾斜方向背离切口,随着你切得更深,这个 V 会自己开合,锯片就不会卡住。”他继续在上方切割,轻推这棵树走向一个熵增的瞬间。突然间,几乎无声,重力接管了一切。树在自重下倒下,出人意料地轻柔地落在洼地底部。光涌了进来。
Hinton 痴迷于玻尔兹曼机。他希望它,或与之相近的某种机制,能成为真实大脑中学习的底层基础。“它应该是真的,”他对我说。“如果我是上帝,我会让它是真的。”但进一步的实验显示,随着玻尔兹曼机变大,它们往往会被其内在的随机性所淹没。“在玻尔兹曼机这事上,Geoff 和我意见不合,”LeCun 说。“Geoff 觉得它是最美的算法。我觉得它很丑。它是随机的 — — 也就是说,部分基于随机性。”相较之下,LeCun 说,“我觉得反向传播(backprop)非常干净。”反向传播就是:把最后的错误,沿着网络从后往前一层层“分账”,算清每条连接对错误的“责任”,再按责任大小把连接调一点点对的方向。长期重复,网络就学会了。
“反向传播”(backpropagation)是一种从 20 世纪 60 年代起就被若干研究者探索的算法。即便在与 Sejnowski 合作玻尔兹曼机的同时,Hinton 也正与 Rumelhart 以及另一位计算机科学家 Ronald Williams 合作研究反向传播。他们怀疑这项技术在学习上有尚未开发的潜力;尤其是,他们希望把它与跨越多层运行的神经网络结合起来。
理解反向传播的一种方式,是想象一个卡夫卡式的司法系统。把神经网络的上层想象成一个必须永无止境地审案的陪审团。陪审团刚刚作出裁决。在这套反乌托邦式的机制中,法官可以告诉陪审员他们的裁决是错的,并且他们将被惩罚,直到改正为止。陪审员们发现,其中三个人在把集体带向错误道路上尤其“影响巨大”。这种归咎的分配,就是反向传播的第一步。
下一步,这三名误入歧途的陪审员要查清他们自己是如何被误导的。他们会回想自身所受的影响 — — 父母、老师、评论员等等 — — 并找出那些误导了他们的人。随后,这些应受指责的“影响者”又必须识别各自的上游影响,并在他们之间分配责任。于是递归的“互相指责”轮次随之展开:每一层影响者都要追究其上游影响者的责任,形成一个自上而下反向席卷的级联过程。最终,一旦明确“谁误导了谁、误导了多少”,网络就会按比例调整自身,使个体对“坏影响”的听从稍微减少、对“好影响”的听从稍微增加。整个过程周而复始、以数学般的精确度不断进行,直到裁决 — — 不仅是这一桩案件,而是所有案件 — — 在集体层面都尽可能“正确”。
1986 年,Hinton、Rumelhart 与 Williams 在《自然》上发表了一篇三页的论文(Learning representations by back-propagating errors),说明这样的系统如何在神经网络中工作。他们指出,反向传播与玻尔兹曼机一样,都不是“大脑学习的一个可信模型”:与计算机不同,大脑不能像倒带一样回放以审计过去的表现。但反向传播仍能促成类脑式的神经专门化。在真实大脑中,神经元有时会以针对特定问题的结构方式排列:比如在视觉系统里,不同的“柱(columns)”负责识别我们所见中的边缘。在反向传播的网络中也会出现类似现象:高层会对低层施加某种“进化压力”;于是,一个被指派去“破译手写体”的网络的某些层,可能会高度聚焦于识别线条、曲线或边缘。最终,整个系统会发展出“恰当的内部表征”。网络“知道”,并且会利用它的“所知”。反向传播:先“算结果→对错”,再把错精准分责给每条连接,梯度下降去改它。
玻尔兹曼机:把“像真/不像真”变成“能量深/浅”,通过“看真题(正相)—做梦(负相)”拉真降假,不直接用链式法则分责。
在 20 世纪五六十年代,感知机与其他联结主义探索曾引发巨大兴奋;随后几年,对联结主义的热情逐渐消退。反向传播这篇论文是一次兴趣复苏的一部分,并获得了广泛关注。但真正构建反向传播网络的工作进展缓慢,既有现实也有概念层面的原因。现实上,计算机速度迟缓。Hinton 回忆说:“进展速率基本上就是:一台电脑一夜之间能学多少?答案往往是:不多。”在概念上,神经网络是神秘的。你无法用传统方式去“编程”一个网络;你也不能直接进去手工编辑人工神经元之间连接的权重。而且,不管怎样,权重的含义也难以理解,因为它们在训练中会自适应地改变自身。
学习过程可能出错的方式有很多。比如在“过拟合”中,网络实际上是背熟了训练数据,而不是学会从中泛化。避免这些陷阱并不总是直观,因为“学习”要靠网络自己来完成。这就像伐树:研究者可以在这里那里开刀,但之后得放手让过程自行展开。他们可以尝试“集成(ensembling)”(把弱网络组合成强网络)或“提前停止(early stopping)”(让网络学习,但别学过头)。他们也可以“预训练(pre-train)”一个系统:先让玻尔兹曼机学点东西,然后在其上叠加一个反向传播网络,这样系统的“有监督”训练要到它先自行获得一些基础知识之后才开始。接着就让网络去学,盼着它最终落在他们希望的位置上。
新的神经网络“架构”被提出:“循环”(recurrent)与“卷积”(convolutional)网络,使系统能够以不同方式在自身工作之上不断推进。但那情形仿佛是:研究者们发现了一种不知如何使用的“外星技术”。他们像转动魔方那样左拧右拧,试图从噪声中理出秩序。“我始终确信这不是胡扯,”Hinton 说。“这并非信仰 — — 对我而言它就是不言自明。”大脑用神经元来学习;因此,通过神经网络实现复杂学习必然是可能的。为此,他愿意付出双倍的努力,用双倍的时间。
当网络通过反向传播进行训练时,必须“告诉”它们何时出错、错了多少;这需要海量且精确标注的数据,以便网络分辨手写体中的“7”和“1”,或金毛寻回犬与红色塞特犬(爱尔兰雪达犬)之间的差别。但足够大又标注良好的数据集难以寻得,扩充它们是一件苦差。LeCun 及其合作者建立了一个庞大的手写数字数据库,后来用它来训练能够识别美国邮政署提供的邮政编码样本的网络。斯坦福大学的计算机科学家李飞飞发起了一项名为 ImageNet 的巨型计划;要构建它,需要收集超过一千四百万张图像,并手工将它们归入两万多个类别。
随着神经网络越来越大,Hinton 设计出一种把大网络中的知识“转移”到小网络的方法,使后者可以在手机等设备上运行。“这叫蒸馏(distillation),”他在厨房里解释道。“上学时,美术老师会放几张幻灯片,说:‘这是鲁本斯,那是梵高,这是威廉·布莱克。’ 但假如美术老师这样告诉你:‘好的,这是一幅提香,但它有点特别,因为其中一些方面很像拉斐尔 — — 对提香来说这很少见。’ 这就更有帮助了。他们不仅告诉你正确答案 — — 还告诉你其他看似有理的答案。”在蒸馏学习中,一个神经网络给另一个网络的不只是正确答案,还有一系列可能答案及其概率。这是一种更为丰富的知识形态。
在 Rosalind 去世几年后,Hinton 与 Jacqueline Ford 重新联系上了 — — 她是一位艺术史学者,Hinton 在移居美国前曾与她短暂约会过。Jackie 有教养、温暖、好奇、漂亮。“她远远超出你的‘段位’,”他妹妹说。即便如此,Jackie 还是放弃了在英国的工作,搬到多伦多。他们在 1997 年 12 月 6 日结婚 — — 那天是 Hinton 的五十岁生日。接下来的几十年,是他一生中最幸福的时光。他的家庭再度完整。他的孩子们也爱上了他们的新母亲。他与 Jackie 开始探索乔治亚湾的诸多小岛。回忆起那段日子,他望向客厅里的那只独木舟。“我们在树林里找到它,翻扣着,被帆布盖着,完全朽坏了 — — 每一处都烂透了,”他说。“但 Jackie 还是决定把它救回来,就像她拯救了我和孩子们一样。”
Hinton 并不“爱”反向传播。“从智性上讲,它太不令人满足了,”他对我说。与玻尔兹曼机不同,“它完全是确定性的。不幸的是,它就是更好用。”随着一项项实用进展叠加,反向传播的力量变得不可否认。Hinton 告诉我,七十年代早期,英国政府曾聘请一位名叫 James Lighthill 的数学家评估:人工智能研究是否有成功的可能。Lighthill 的结论是否定的 — — “而且他是对的,”Hinton 说,“前提是你接受当时大家共同的假设:计算机或许会快一千倍,但不会快一十亿倍。”Hinton 在脑中做了个估算:假设他在 1985 年把一个程序跑在一台快速的科研计算机上,让它一直跑到现在;如果他今天在当前用于 A.I. 的最快系统上运行同一个程序,只需不到一秒就能追上。
在 2000 年代初期,伴随强大计算机加持的多层神经网络开始在更大规模的数据集上训练,Hinton、Bengio 与 LeCun 开始谈论“深度学习”的潜力。2012 年,这项工作跨过了一个门槛:Hinton、Alex Krizhevsky 与 Ilya Sutskever 提出了 AlexNet,一个八层的神经网络,最终能以接近人类水平的准确度从 ImageNet 中识别物体。Hinton 与 Krizhevsky、Sutskever 一起创办公司,并将其卖给谷歌。他与 Jackie 在乔治亚湾买下了那座小岛 — — “我唯一真正的奢侈,”Hinton 说。
两年后,Jackie 被诊断出患有胰腺癌。医生给出的寿命预期是一到两年。“她无比勇敢、无比理性,”Hinton 说。“她并没有深陷否认、拼命想逃避。她的看法是:‘我要么为自己感到难过,要么就承认我所剩时间不多了,最好竭尽所能把它过好,并让一切对别人来说都安好。’ ”她与 Hinton 在决定疗法前反复研读统计数据;主要通过化疗,她把“一两年”延长到了三年。后来她在小屋里已经无法上下楼梯时,他用绳子做了个小篮子,这样她就能把二楼的茶水放下到一楼,他再用微波炉给她加热。(“我其实应该把微波炉搬到楼上去,”他评论道。)
当日将尽时,我们倚在 Hinton 的站立式书桌旁,他在笔记本上给我看 Jackie 的照片。有一张是他们的婚礼那天,她与 Hinton 和他的孩子们站在邻居家的客厅里,彼此宣誓。Hinton 看起来光彩焕发、神情放松;Jackie 用双手轻轻捧着他的其中一只手。在他给我看的最后几张照片之一里,她坐在那只酒红色的独木舟上望向镜头,正划着桨,船在码头附近斑驳的水面上滑行。“那是 2017 年的夏天,”Hinton 说。Jackie 在次年四月去世。同年六月,Hinton、Bengio 和 LeCun 获得了图灵奖 — — 计算机科学领域相当于诺贝尔奖的荣誉。
Hinton 坚信,从某种真实意义上讲,神经网络是可以拥有情感的。“我认为,情感是关于会导致某个行为之事的反事实陈述,”当天早些时候他对我说。“比如我说我想打某人的鼻子。我的意思是:如果没有社会性抑制 — — 如果我不去阻止自己 — — 我就会一拳打在他鼻子上。所以当我说‘我感到愤怒’,其实是一种简写,表示‘我有实施攻击性行为的倾向’。情感只是一种谈论行动倾向的方式。”
他告诉我,早在 1973 年他就见过一个“沮丧的人工智能”(Freddy II)。一台计算机连接着两台电视摄像机和一只简易机械臂;系统的任务是把桌上摊开的积木装配成一辆玩具车。“这很难,尤其是在 1973 年,”他说。“视觉系统在积木分散时还能识别,但你把它们堆到一小堆里,它就认不出来了。那它做了什么?它先退了一点儿,然后‘砰!’的一下,把积木全拍散开,摊得满桌子都是。基本上,它无法应对当下的情形,于是就暴力地改变了情形。如果一个人这么做,你会说他沮丧了。计算机看不清积木,所以它就一巴掌把它们拍开了。”拥有一种情感,就是在渴望自己得不到的东西。
“我爱这所房子,但有时它也是个令人悲伤的地方,”我们看着照片时他说。“因为她那么喜欢待在这里,而她已经不在了。”
太阳几乎落下去了,Hinton 打开了书桌上的一盏小灯。他合上电脑,把眼镜往鼻梁上推了推。随后他挺直肩膀,把自己拉回到当下。
“我之所以想让你了解 Roz 和 Jackie,是因为她们是我生命中重要的一部分,”他说。“但其实,这也与人工智能密切相关。对 A.I. 有两种态度:一种是否认(denial),一种是斯多葛(stoicism,‘达观的忍受’)。每个人对 A.I. 的第一反应都是‘我们必须阻止它’。就像每个人对癌症的第一反应是‘我们要怎么把它切除?’”但关键在于,要能识别什么时候“切除”的想法只是幻想。
他叹了口气。“我们不能活在否认里,”他说。“我们必须面对现实。我们需要思考:如何让它对人类造成的糟糕程度没有它本来可能那么糟?”
A.I. 最终会有多有用 — — 或多危险?没人能确定,部分原因在于神经网络本身就如此奇特。20 世纪,许多研究者希望建造模仿大脑的计算机。但尽管像 OpenAI 的 GPT 这类神经网络在“拥有数十亿个人工神经元”这一点上看起来类脑,它们其实与生物大脑截然不同。当今的 A.I. 依托云端,安置在耗电量达工业规模的数据中心。在某些方面茫然无措、而在另一些方面则近乎学者型,它们为数百万用户进行推理,但只有在被提问时才会启动。它们并不是活的。它们很可能已经通过了图灵测试 — — 这是计算先驱艾伦·图灵提出、被长久宣扬的标准:能在对话中以令人信服的方式模仿人类的计算机,可以被合理地称为“会思考”。然而我们的直觉也许会告诉我们:驻留在浏览器标签页里的某个东西,怎么可能以我们那样的方式真正“在思考”?这些系统迫使我们追问:我们这一种思维,是否是唯一“算数”的思维?
在谷歌工作的最后几年里,Hinton 将精力放在用更贴近大脑的硬件来打造一种更“传统意义上类心智”的人工智能。如今的 A.I.,人工神经元之间连接的“权重”是以数值形式被存储的;这好像是大脑在“给自己做记录”。但在真实、类比(模拟)的生物大脑里,权重是“嵌入”在神经元之间的物理连接中的。Hinton 试图用专用芯片去构建这种机制的人工版本。
“要是能做到,那会非常惊人,”他对我说。这样的芯片可以通过改变其“电导(conductances)”来学习。由于权重被整合在硬件里,就不可能把它们从一台机器复制到另一台;每个人工智能都必须自己学习。“它们得去上学,”他说。“但(能耗)会从一兆瓦降到三十瓦。”他说着前倾身体,眼神灼灼 — — 我瞥见了“布道者 Hinton”。因为每个 A.I. 一旦被拆解,它获得的知识就会消失,他把这种路径称为“凡人计算(mortal computing)”。“我们要放弃不朽,”他说。“文学里常有这样的桥段:你为所爱之人放弃神格,对吧?在这里,我们换来的是更重要的东西 — — 能效。”能效还带来别的好处:它鼓励个体性。人脑靠一碗燕麦粥就能运行,因而世界可以容纳数十亿个彼此不同的大脑;而且每个大脑都能持续学习,而不是“训练一次就被推向世界”。凡人计算=把“知识/权重”长在硬件里(例如用元件的电导当作权重),不能复制、不能备份;这台机器拆了,知识就随之消失。代价是“放弃不朽”,换来的是极低能耗、持续在机学习、强个体差异。
作为一项科学事业,“凡人式 A.I.”或许能让我们更接近复现人脑本身。但 Hinton 后来也遗憾地认为,数字智能可能更强大。在类比式智能中,“大脑死去,知识也随之消亡,”他说。相反,在数字智能中,“哪怕一台电脑坏了,同样的连接强度(权重)还能在另一台电脑上使用。甚至就算所有数字电脑都坏了,只要你把权重存放在某处,就可以再造一台数字电脑,把同样的权重重新跑起来。一万个神经网络可以同时学一万件不同的事,然后共享它们学到的东西。”他认为,不朽性 + 可复制性的组合意味着“我们应当担心数字智能取代生物智能”。
一个没有肉身、没有个体身份的数字智能的“心灵生活”该如何描述?近几个月,一些 A.I. 研究者开始把 GPT 称作“推理引擎” — — 或许是为了绕开“思考”这个难以下定义的词的重负。Bengio 对我说:“人们责怪我们使用这些词 — — ‘思考’、‘知道’、‘理解’、‘决策’等等。但即使我们并不完全理解这些词的全部含义,它们作为类比工具极其有力,帮助我们理解自己在做什么。谈论‘想象’、‘注意力’、‘规划’、‘直觉’,有助于澄清和探索。”在 Bengio 看来,“我们做的很多事情,其实是在解决心智的‘直觉’这一侧面。”直觉可以被理解为我们说不清其来由的想法:心智通过把当下遭遇与过往经验相联结,在无意识中为我们生成它。我们往往把理性置于直觉之上,但 Hinton 认为我们比自认的更直觉。“多年来,符号派的人说我们的本性是‘推理机器’,”他对我说。“我觉得那纯属胡扯。我们的本性是‘类比机器’,上面再搭一小层推理,用来注意到当类比给出错误答案时把它纠正过来。”
总体而言,当下的 A.I. 技术“能说会道、偏脑力”,一到物理世界的边界就容易绊倒。LeCun 对我说:“任何一个青少年,二十小时的练习、几乎不用监管,就能学会开车。任何一只猫都能沿着一串家具跳上去,登到某个架子顶上。今天我们没有任何 A.I. 系统能接近做到这些事情,除了自动驾驶 — — 而它们是过度工程化的,需要‘把整座城市都做成高精地图、上百名工程师、数十万小时的训练’。”解决这些“扭来扭去”的物理直觉问题,“将是下一个十年的大挑战”,LeCun 说。尽管如此,基本想法很简单:神经元能做到的,神经网络也能做到。
Hinton 怀疑,对 A.I. 潜力的质疑 — — 尽管让人感到安慰 — — 往往源于一种不必要的人类特殊论信念。研究者抱怨 A.I. 聊天机器人会“幻觉”(hallucinate),也就是在答不上来时编造看似合理的答案。但他反对这种术语。“我们应该说‘虚构性陈述’(confabulate),”他对我说。“‘幻觉’是你以为有感觉输入 — — 听幻觉、视幻觉、嗅幻觉。而纯粹编出来 — — 那叫 confabulation(随想编造)。”他举了尼克松总统白宫法律顾问 John Dean 的例子:在他知道相关谈话被录音之前,针对水门事件接受采访时,Dean 出现了编造 — — 细节出错、把“谁说了什么”混淆。“但要点是对的,”Hinton 说。“他对发生过的事有一个回忆,并把这种回忆安在他脑海中的若干‘角色’身上。他写了一出小戏。而这正是人类记忆的样子。在我们心里,‘编出来’与‘说真话’之间没有明确边界。说真话,只是正确地编。因为一切都写在权重里,不是吗?”从这个角度看,ChatGPT“会编”既是缺点,也是一种类人智能的征兆。
人们常问 Hinton 是否后悔自己的工作。他并不后悔。(他最近给一位记者回了一句“一首歌送你”,并附上伊迪丝·琵雅芙《Non, Je Ne Regrette Rien(我无怨无悔)》的链接。)他说,自己开始研究时,没人相信这项技术会成功;即便开始成功了,也没人以为它会这么快成功。正因为他认为 A.I. 具有真正的智能,他预期它会对许多领域做出贡献。然而他也担心,比如当有权势的人滥用它时会发生什么。“你大概可以想见弗拉基米尔·普京打造一种自主致命武器,给它设定的目标是杀害乌克兰人,”Hinton 说。他认为应当禁止自主武器 — — 而美国军方正在积极研发它们 — — 但他也警告说,即便是善意的自主系统也可能造成巨大破坏。“如果你想让一个系统有效,你就得赋予它自创子目标的能力,”他说。“问题在于,有一个几乎对所有目标都有帮助的普遍子目标:获得更多控制权。研究问题是:如何防止它们产生夺取控制权的欲望?没有人知道答案。”(他指出,控制不必是物理性的:“它可能就像特朗普只借助言语就能鼓动闯入国会那样。”)
在这一领域内,Hinton 的观点既被认同也被质疑。LeCun 对我说:“我不害怕 A.I.。我认为要让它们的目标与我们的目标对齐相对容易。”他接着说:“有人认为,如果一个系统足够聪明,它就会想要支配他人。但支配欲与智能无关 — — 而与睾酮有关。”我想起在小屋里见到的蜘蛛,以及它们的蛛网如何覆盖了 Hinton 的窗面。它们也并不“想支配”,但那种昆虫式智能仍驱使它们扩张领地。缺乏中心化大脑的生命系统(如蚁群)并不“想”做什么,却仍能寻找食物、涉水过河、并成批杀死竞争者。Hinton 与 LeCun 谁都有可能是对的。蜕变尚未完成。我们不知道 A.I. 将会变成什么。
“那为什么我们不直接把它拔掉?”我就 A.I. 整体这样问 Hinton。“这完全是个不合理的问题吗?”
“说‘没有这个我们会更好 — — 不值得’并非不合理,”他说。“就像如果没有化石燃料,我们也许会更好。我们会原始得多,但风险或许不值得。”他以一种斯多葛的口吻补充道:“但这不会发生。因为社会的结构如此,也因为各国之间的竞争。如果联合国真的有用,或许能把它停下来。尽管即便那样,A.I. 也实在太有用。它在医学等领域有巨大行善潜力 — — 当然,也能通过自主武器为一个国家带来优势。”今年早些时候,Hinton 拒绝在一份呼吁“至少暂停研究六个月”的热门请愿书上签名。“中国不会停六个月,”他说。
“我不知道,”他说。“要是这件事像气候变化那样就好了 — — 有人可以说,‘看,我们要么停止燃烧碳,要么就得找到一种有效的方法把二氧化碳从大气中移除。’在那种情况下,你知道解决方案的大致样子。而在这里,并不是那样的。”
Hinton 正穿上一件蓝色的防水外套。我们要去码头接 Rosemary。“她带来补给了!”他笑着说。走出门时,我回头望向小屋。那间大房里,酒红色的独木舟在阳光抚慰下闪着光。它前面摆着一圈半弧形的椅子,透过窗子面向水面。小茶几上堆着几本杂志。那是一栋美丽的房子。人类的心智不只是会推理;它存在于时间之中,它与生死算计、并在自身周围建造一个世界。它把意义聚拢过来,仿佛靠着引力。我想,A.I. 也许能够想象出这样的地方。但它会需要一个这样的地方吗?
我们沿着林间小路前行,经过棚屋,沿台阶下到码头,然后爬上 Hinton 的小船。那是一个完美的蔚蓝之日,疾劲的风让水面起了皱。Hinton 站在舵位。我坐在前面,看着其他岛屿掠过,思考着关于 A.I. 的故事。对一些人来说,这是一个哥白尼式的故事:思考机器正在撼动我们关于人类心智之特殊性的直觉。对另一些人来说,它是普罗米修斯式的 — — 我们偷来了火,便冒着被火灼伤的风险。还有人认为我们在自欺,被自己的机器以及寄望从中牟利的公司所迷惑。从某种奇特的角度,它也可以是一则关于人类局限的故事。若我们是神,或许会造出另一种 A.I.;而在现实中,这个版本只是我们所能做到的。同时,我也忍不住以伊甸的光泽来看这则故事。试图重建我们头脑中的知识系统,我们抓起了禁果;如今我们冒着被逐出这片受眷顾世界的风险。可又有谁会选择不去知晓“知晓如何运作”呢?
到了码头,Hinton 熟练地借风行船:先加速前进,再转向,随后让风把船带进泊位。“我在学习,”他自豪地说。我们上岸,在一家小店旁等 Rosemary 到来。过了一会儿,Hinton 进店去买一个灯泡。我站着,享受着暖洋洋的日光,忽见一位高个、目光明亮、长着银白长发的女子从停车场大步朝我走来。
我与 Rosemary 握了手。随后她越过我肩头望去。Hinton 正从店旁的绿丛中走出来,脸上带着笑。
Hinton 举起一条黑黄相间的袜带蛇,约一米长,像弹簧一样不断盘绕。“我带着礼物来了!”他以一种彬彬有礼的语气说。“我在灌木丛里找到的。”
他把蛇从一只手换到另一只手,然后伸出一只手掌。上面覆着蛇分泌的黏滑麝味。
我们轮流闻了闻。气味很奇异:矿物般刺鼻、爬行动物式又带着化学感,毫无疑问是生命的味道。
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。