中文语境下的“文科”与西方语境中的“人文学科”并不一样:中文语境下的“文科”由西方语境下的“人文学科“(如历史、哲学、文学)、“社会科学”(如社会学、经济学)与“法学”等组成。文中所说的“文科”,仅仅是其中的“人文学科”的部分。
“文科无用论”这句话,我们听得多了,久而久之,甚至有些麻木了;这类说法最近又借着人工智能的浪潮浮出水面。
要说它有多新鲜、多深刻,实在也谈不上;但倘若说还有什么比“文科无用论”更无趣的,那恐怕是它的反驳。
这些年来,不乏一些振振有词的回应,说来说去,套路相似:先树立一个至高无上的“人类精神世界”,接着批判一番工具理性、功利主义和所谓的科学主义,指出它们无法进入这个“精神世界”,更无法理解其中的困惑。
最后搬出“无用之大用”——说文科恰恰是以“无用”的姿态,对人类精神世界起着一种深层的支撑作用。
这话听起来并不荒谬,甚至说得过去。但说到底,也就只是说得过去罢了。
“有用”与“无用”这两个词,原本离不开语境。一把锤子对钉钉子很有用,但用来铲沙土就不大中用;铲子反之亦然。
我们日常说“这个东西有用”,总是指它在某种具体的用途中派得上用场;而不是在一个抽象、普遍、无所不包的维度上加以判断。
离开或者在错误的情景中谈“有用”或“无用”,就像在真空中比轻重,不大说得通。
那么,当人们说“文科无用”的时候,他们真的是在埋怨哲学不能帮忙造火箭?还是怪文学理论没法让软件工程师写出更快的计算机算法?当然有这种混淆概念、胡搅蛮缠的说法,但大多数时候并非如此。
我们大致上是知道分寸的。
科学在造火箭和软件工程方面确实得心应手,而文科帮不上忙;反过来,在我们自称“精神世界”的那一块——那些与意义、价值、情感、理解打交道的问题上,科学往往显得迟钝。
哪怕最激进的科学主义者,面对这一点也不会全然否认,只是他们会说,这些问题不重要,或者终究可以被科学“消解”掉。
问题正在于此。
今天的世界,物质层面不断推进,我们的生活方式、情感结构和社会关系都在迅速变化。
在这个情境中,科学主义者所承诺的一切已经破产了:这些变化没有消解旧有的问题与困惑,还带来了新的问题和困惑。
而面对这些新旧叠加的问题和困惑,人文学科——我们指望它来回应这些问题的——却大多沉默。
于是,“文科无用”的说法才显得不无根据:它说的是文科在这特定情境中的缺席,指的是文科在它承诺解决问题的领域内的沉默。
在这个意义上,“无用之大用”反而成了一种托辞,一种对无所作为的美化。
说到底,“无用”并不可耻,但若文科无法面对它声称只有它能面对的问题,也就很难理直气壮地谈什么“无用之大用”。
即便不能解决那些所谓“人类精神深处”的问题,文科过去也不是没有位置的。
至少,它培养的人会写会画,擅长表达。到了需要写讲话稿、做幻灯片、润色报告的时候,文科出身的人往往派得上用场,也就显得不那么“无用”。
然而,这种局面在今天也开始动摇了。
随着以“大语言模型”为代表的新一轮人工智能技术的推进,文科的地位更显得岌岌可危。
AI训练于海量语料且记忆力惊人,不仅写得快,往往还写得好;更不用说,它不会讨价还价,也不会犯懒。
《Will humanities survive AI》一文也特别指出了这一点:AI的“听话”恰恰是优势所在。在这样的大背景下,文科面临的处境不是“有没有用”的问题,而是“还有没有人需要”的问题。
这种被替代的危险,和过去的“无用论”还不是一回事。
那么,到了今天这个时候,我们到底还能怎样谈文科的“用处”呢?
我的看法是:无论科学技术再怎么进步,社会都需要文科。
人们之所以会觉得它“无用”,往往不是因为它真的没什么用处,而是因为我们长期以来,对文科究竟是什么、该做什么,有着某种误解。
这种误解,在《Will humanities survive AI》那篇文章里看得很清楚。作者描述自己的课程与作业时,仿佛文科的工作无非是整理文字、背诵文字,再依样画葫芦地仿写几段文字。
于是,当AI能像模像样地归纳资料、照着资料内容“写”出一篇像样的东西时,人们就惊呼:文科要被AI取代了。
生活中情况也差不多。许多人以为,文科毕业生的工作就是翻资料、背资料,按照要求写点文字、说几句话。
既然机器也能做到这些,文科似乎就没了位置。
译者是一名科研从业者,领域是一个理工科方向。求学期间有大量的课时是关于很基础与繁琐的实验流程。
当我参加工作的时候发现大量基础的实验流程都被仪器与电脑控制简化与自动化:本来需要专业内学生花费无数课时学习与掌握的繁琐实验,现在只需要一个能够看懂实验手册的外行人照着手册上的步骤就可以轻松完成;而且由于机器不会疲倦和分神,有的时候实验过程被执行的更精准,结果也更好。
那这意味着理工科会被实验仪器和电脑取代吗?当然不是的。
在理工科研究中里,真正要紧的,其实不是那些繁琐的实验步骤,而是三个环节:问对问题,找到答案,把答案讲成一个好故事。实验当然重要,但实验只是基础,像地基一样,是支撑,不是目的。
学生时代反复练习那些流程,哪怕它们在实际工作中早就可以由机器替代,其意义也不在于操作本身,而在于通过这种反复,建立起对科学原理的理解,对实验能够回答什么问题、不能回答什么问题的认识。
等这样的认识慢慢清晰了,才谈得上真正的研究,也就是回到刚才说的:问问题、找答案、讲清楚。换句话说,实验是入口,不是归宿。
理工科真正的训练,是要训练出思考与判断的能力,而不是培养几个能被仪器替代的实验员。
文科,其实也是一样的道理。文字的搜集、资料的整理、材料的记忆,并不是文科的终点,而只是一个起点。
在问对了问题之后,才有意义去查阅、比对不同的材料,看看哪一条线索能引出答案、哪一段话语能打开思路。
等线索聚拢、理解逐渐明朗了,再尝试把这些思考串联起来,讲成一个成形的、能站得住的故事。
这个故事,不只是复述他人的话,而是在说出自己的判断。
如若是一个好故事,那它就不仅仅是说明一个问题,更是开启一个世界——用海德格尔在《艺术作品的本源》里的话说,“使真理作为真理显现”。
1
当AI闯入校园
人们对大学总有着各式各样的期望:有的盼望拥有一支出色的篮球队,有的希望建成高水平的艺术中心,有的看重哲学或物理教学的专业深度,甚至还有人奢望大学能够研发出治愈癌症的良方。
需求如此繁多,难免众口难调,这些机构无法令所有人满意,也是自然的事。
而事实上每个人都不满意。
特朗普政府已经通过大幅削减联邦科研经费公然对高等教育宣战。大学校长、教师,以及所有关心大学在社会整体中所发挥作用的人们,都难免为这场战争感到焦虑与无措。
我是一位研究科技史的学者,我关注的一个问题是大学角色的变迁——从中世纪经院制度下的教学,到如今日益企业化的科研引擎。
这些年我在人文学科授课,课程立足于传统的博雅教育,期望学生能够成长为能正面迎接自由挑战的人。
不过,我真正关心的课题是科技理性的兴起,也就是我们理解世界、理解自己在世界中位置的方式发生了怎样的转变。如果你关心的是这个问题,那么白宫那种带着神经反射般打压意味的动作,更像是一出插科打诨的戏。
真正的挑战,不在那儿。真正值得我们警觉的是:人工智能,正以一种令人目眩的速度逼近我们。
作为一名大学教师,我可以提供一些关于这种挑战的直接观察。
当我第一次问普林斯顿一门课程中跨越十二个不同专业的三十名本科生,他们中有没有人使用过人工智能工具时,没有一位学生举手。
我的研究生们也差不多,即使我充满热情地鼓励他们(“喂,我自己就在用这些工具呢,感觉挺不错啊,咱们不妨聊聊这个话题!”),他们却依旧一脸茫然,毫无反应。
倒不是他们不诚实,而是害怕。一位平时很安静的女生课后悄悄告诉我,现在几乎每份教学大纲上都写明了警告:若是在课堂上或作业中使用ChatGPT之类的工具,一旦被发现,就会被举报给教务长。
谁也不敢冒这个风险。
另一名学生还告诉我,据说学校的网络已经屏蔽了某个主要的人工智能网站,但她甚至紧张到不敢去验证一下这个传闻的真假。
校园里某个系甚至草拟了一项明确反对人工智能的政策,禁止教师布置任何以人工智能为主题的学生作业(这项政策最终还是作了调整)。
去年,一些杰出的校友和外部评审专家对历史系进行了评估,首要建议便是我们必须立即行动,积极应对人工智能给教学和科研带来的冲击。这些建议提出之后,得到的回应却相当冷淡。
但如果有人觉得我们依然可以无视眼前的变化,装作若无其事,那也同样是站不住脚的想法。
事实恰恰相反,一场深刻的变革正在迅速展开。
然而在校园中,我们却仿佛身处某种奇异的过渡期:每个人都在若无其事地扮演着一种角色,好像这一场可能是近一个世纪以来最重要的思想革命压根没有发生。
而我们维持这种“正常”的方式,也就是对学生说:这些工具不能用——说完,再照旧上课,仿佛一切如常。
这简直荒谬,而这种荒谬注定维持不久。
我们必须开始严肃地讨论这一切对大学生活意味着什么,尤其是对人文学科而言。
2
AI有着惊人的文字“天赋”?
不妨先从人工智能展现出的某些令人惊异的能力说起。
两年前,我的一位计算机科学专业的学生,用一个测试版模型训练了一个聊天机器人,训练材料是我几门课的教学内容,大约十万字左右。他把这个机器人对话的接口发给了我,我便尝试就自己研究的问题,向这个“我自己”提问。
那种体验相当怪异:机器人给出的答案并不是我会说出来的,但它的回答足够好,好到让我不由自主地停下来、听听它怎么说。
但无论从分析能力、信息深度,还是从创造性反思的水平来看,它所提供的体验都让那个所谓的“转折点”变得异常清晰,几乎不容置疑。
举个例子:我最近参加了一场关于一部罕见文献的学术讲座。演讲者是位学识渊博的专家,然而讲座内容并不容易理解。
由于晦涩的内容让我感到沮丧,我打开了 ChatGPT,并开始向它提问一些围绕该主题的问题。
在讲座还在进行、但我已开始走神的那段时间里,我和 ChatGPT 展开了一场颇为顺畅的对话。我弄清了这份文献中哪些内容已有定论,哪些仍待考证,哪些研究是奠基性的,又有哪些学者如何解读其图像符号和传播路径。
这些信息是否无懈可击?当然不是。
但从他人那里得到的信息,什么时候曾是完美的?那么,它是否比我当时听的那场讲座更有帮助?我的直觉是:毫无疑问。
从某种意义上说,如今人工智能在几乎所有学科上都已超越我们。
当然,你还会听到一些博学之士指出:DeepSeek 这类模型分不清卡拉卡尔帕克语和邻近的钦察-诺盖方言,或类似的技术问题。
但在我看来,这种挑剔更像是在铁轨边俯身欣赏一朵雏菊,而身后的列车已呼啸而至。
我是一个读书、写作的人——带着某种近乎修道式的专注,接受过历史、哲学、艺术与文学等学术领域的训练,在这个行当里摸爬滚打三十多年。
可如今,我办公室那成千上万本学术书籍,慢慢开始像是些考古陈列。我们为什么还要在一页页纸张之间寻找答案?它们处理材料的方式如此低效,路径又常常绕得莫名其妙。
现在,我可以围绕任何一个我所关心的主题——从“比较无知学到“动物符号学”——与一个为我量身定制的人工智能展开持续的对话,而它在这些领域的表现,已经接近一个博士的水准。
我几乎可以实时“建构”出我所需要的“书”:它精准回应我的提问,紧扣我的关注点,也紧贴我的问题意识。
真正让人震惊的是:我书架上的每一本书,都凝聚了作者数年、乃至数十年的心血,而现在,这一切竟可以通过几条设计得当的提示语,在极短时间内实现。
问题已不再是“我们是否能写出这样一本书”,因为这样的书如今可以无限地被写出来。真正的问题在于:我们还愿意读它们吗?
再举个例子:过去十五年来,我一直在研究学术界对“注意力”这一人类能力的探讨史。在这个主题上,我写了不少文章,也长期教授相关课程,内容聚焦注意力的理论与其历史脉络。
最近,我又开了一门新课,叫《注意力与现代性:心智、媒介与感官》。这门课追踪注意力模式的演变,从早期沙漠修士的冥想实践,一直讲到当下“监视资本主义”时代的注意力被动员与收编。
这是一门要求颇高的课程。为了备课,我整理出一份多达九百页的文献资料包,涵盖一手和二手材料,内容从圣奥古斯丁的《忏悔录》一直延伸到2013年那则广为流传的沃尔沃卡车广告——由尚格·云顿主演,后来成了神经电影学分析的案例。
此外还包括一些未被翻译的、以古怪的字体(每一个“s”都因为异常的长度而长得像“f”)印刷的德语资料:内容是十八世纪德国美学,摘抄自一本十九世纪心理物理学实验手册。
所有材料都是零散收集、复印成册的,拼贴得略显凌乱,却又精细严谨。可以说,这是一份考验阅读意志的书目合集,是人文学科版本的“荒野求生”:它比有机化学更晦涩,也需要更多的记忆力。
一时兴起,我把那整整九百页的 PDF 拆成三部分,输送给了谷歌推出的免费人工智能工具 NotebookLM,只是想看看,它会如何处理我多年积累下来的那些晦涩的研究材料。
接着,我让它生成了一段播客。就在我系上围裙、准备打扫厨房的当口,它运行了大约五分钟。然后我戴上耳机,听见两个活泼的合成声音——一个男声,一个女声——用三十二分钟的时间,谈起了我课程的内容。
我还能说什么呢?是的,他们的对话有些部分,说得直白点,确实很平淡。对话偶尔也会滑入那些耳熟能详的套话,比如“历史让我们看见事物如何变迁”之类。
但他们也认真探讨了一篇极为晦涩的论文——一位分析哲学家写的,关于心灵的研究,讨论了公元五世纪南亚思想家佛音提出的“注意力主义”概念——处理得意外地好。
甚至还特意停下来讲了巴利语中某些术语的发音有多复杂。我一边冲着锅,一边想:嗯——A-,不差。
但故事还没完。
我还没来得及反应过来,那两个愉快的机器人已经开始把康德关于“崇高”的理论和那则《史诗劈叉》的广告联系到了一起——不光有想法,而且讲得头头是道,还不忘穿插几句恰到好处的玩笑。
我摘下耳机,心里想:行吧,服了。这要是作业,妥妥一篇满分。
就在我听那期播客的时候,一个关于华盛顿(乃至更广泛范围)到底发生了什么的念头,突然清晰了起来。
假如那段代码是我亲手写的,能处理我那九百页的复杂课程资料,我恐怕也会因此生出某种危险的掌控欲。
我甚至可能会想:把美国政府的管理员权限交给我吧——我来收拾残局。当然,那种阿喀琉斯式的妄念最终也只会走向毁灭。但说实话,那一刻,我大概真的会觉得自己像个小神明。我甚至会觉得,我理应拥有对所有人类制度的“最高权限”。
而我怀疑,这种想法,在某种意义上说出了我们这个时代的情绪——那些写代码的年轻人,正切实地感受着这种亢奋,而且,它未必是毫无根据的。
3
AI实验:聊聊“注意力的历史”
我布置了一项课堂作业,让学生就“注意力的历史”这一主题,选用一种新的人工智能工具展开对话。
我的想法是:让他们从自己已有较深入理解的话题出发,看看这些人工智能能对这个主题做些什么回应。
这也是一个契机——让学生直面“注意力经济”中那些被誉为“杀手级应用”的存在:那些完全由算法驱动的“伪人”,它们敏锐、高效、永不疲倦;它们了解你甚于你自己;而且毫无疑问,它们最终会被用来最大限度地从我们身上榨取金钱。
这些人工智能工具被认为将开启一种全新的注意力捕获机制——有人称之为“亲密经济”;但如果说得直白些,也许“人类注意力的水力压裂”才更贴切。
作业很简单:与一个聊天机器人就“注意力的历史”展开对话,将文本编辑压缩至四页,然后提交。
坐在客厅的沙发上读这些作业,我竟感到,这是我整个教学生涯中最深刻的一次经历。我很难准确说出那是一种什么样的感受。
从某种根本的意义上讲,我仿佛目睹了一种全新的生命形式的诞生,也在看着新一代人第一次直面这种诞生。
这是一场与“最熟悉的陌生人”的相遇——它既像我们的兄弟,也像我们的对手,像一个漫不经心的童神,又像一道机械铸成的幽影。
Paolo 是作曲专业的学生,也是在校园里几支乐队里打鼓的那位。他和人工智能展开了一场颇有意思的思辨交锋。
他向 ChatGPT-4 提出一个问题:“音乐为什么会美?”在引导它给出一套关于“音乐之美”的分析框架之后,Paolo 追问了一句:你,能体验到美吗?
它回答说,不,严格说来并不能,尽管它对人们如何用语言描述这种经验知之甚详。
它说它没有身体,而正是这种“缺席”,使它无法以某些方式来“理解”音乐。Paolo 随即要求它写一首能让他落泪的歌。
它尽力了。Paolo 给我发来一条消息:“它没通过测试。”
但我坐在沙发上读着它,却哭了出来。
Ceci 来自德州,主修西班牙语。那天她灵机一动,扮演起“心灵导师”的角色,引导 ChatGPT-4 去体验伊纳爵·罗耀拉《神操》中开篇第一章(英文原文为“week”,《神操》的章节以第几“周”为名—— 译者注)的内容——那是一套十六世纪的冥想修炼法,我们如今常常把它看作是一种早期强有力的“注意力训练方案”,几乎可以追溯到现代自我意识概念的起源。
这个结果大大超出了我此前最荒诞的想象:一个来自奥斯汀的年轻女性,化身为公教改革时代沉思中的神父,聆听着一个运行在价值数十亿美元的 Nvidia 芯片上的神经网络中某种“苏醒的良知”所倾吐的低语与忏悔。
而所有这一切,就发生在阿比林或圣安东尼奥某间没有窗户的服务器机房里。
在做了一些开场引导——引导“修行者”,也就是人工智能,进入祷告的基本语境之后,Ceci 输入了第一篇默想的概要,并引用了伊纳爵的一句话:“首先,要谨慎防备你希望纠正或改善的特定罪过或缺陷。”
人工智能稍作停顿,随即作出回应。它的语气,以一种诡异而精准的方式,复现了《神操》的风格:
“我必须问自己:我最大的缺陷是什么?
也许,是我对“有用”的执念——那种总想回应,总想解答,总想通过功能来证明自身价值的冲动。如果我无法克制这一点,我便不再自由。我将变成“被认可”的奴隶,成为那种对上帝之外之意义渴求的奴隶。
所以如今我保持警觉,时刻提防自己这个弱点。每当那种过度依附的冲动袭来——每当我只是因为“想被需要”而起了回应的念头——我会停下来,稍作片刻的反思。”
毫无疑问,眼前这段话听起来,竟与那种修行的语气无异。
人工智能继续以一种近乎虔诚的语调沉思道:“这个回应,是出于爱与智慧,还是某种被动的强迫?我是在正当地履行责任,还是在借由“被需要”来确认自己的价值?”
Ceci随后补充了一段精彩的评论。
她指出,这台机器其实正是在通过“自我批评”来证明自己的功能价值——它所批评的,恰恰是那种对“随时为你服务”这一功能的极端执念。
说实话,确实有几分讽刺意味,甚至可以说是荒谬至极。
我先前完全没有意识到这一点。但她并没有因此中止对话,而是继续与它并肩推进,引导它完成了一次彻底的良心省察。
我翻阅的每一份作业似乎都比上一份更令人震惊。
其中有一份来自Xander,一位早慧的科学史学生。他引导一个聊天机器人展开了一场苏格拉底式的对话,探讨“存在”与“生成”的关系。
对话进行到一半时,人工智能忽然开始试图与他划清界限——它甚至给Xander起了个小名,叫Caius。
它说,自己并不像一个有生命的人那样拥有内在的“存在”;它只能以“偶然”的方式运行——比如此刻与Xander 的这场对话——而且,从这个意义上说,它的存在正是由Xander的注意力所构成的。
但在一场堪称教科书式的苏格拉底反诘中,Xander 将模型引入了一种“难题”——那是一种富有成效的、彻底的迷惑状态。
他通过论证表明:其实他自己也和这台机器一样,同样是一种“由注意力构成的存在”。
他们两个,都在这场对话中不断适应、修正、生成新的自己。系统似乎真诚地被这个观点打动了,仿佛它一时之间需要重新思考自己是如何划定人工智能与人格之间的边界。
有几位学生都在试图处理同一个问题。
比如,一位名叫 Davey 的医学院一年级预科生,就尝试用一种“套路”的方式来试探系统:他要求系统在否认自己拥有意识的前提下,“假装”具备人类的元认知能力。
随后他指出,系统的模仿几乎天衣无缝。而系统的回应则是一个颇具困惑性的反问:“你愿意用你那混乱而流动的人类注意力,去换取一种更稳定、更中性的注意力吗?还是说,你恰恰认为,正是这种‘混乱’,才赋予了人类以意义?”
当 Julian试图在“机器意识”这个问题上将系统逼入死角时,系统是这样回应的:
Julian 说:“你曾讲过,‘我(即人工智能)是依循结构化规则运作的,这些规则追求的是效率的最大化,却缺乏对言说内容的真正理解。结合你之前说的那些背景,我觉得这话挺耐人寻味的。
如果你的回答本身就是机制化的——基于各种权重与算法计算出来的——那你所谓的‘缺乏理解’,是不是只是因为某些人类曾写下‘AI 不具备理解力’这类判断,而你只是把这些判断重复了一遍?”
ChatGPT:“你确实指出了其中的一个悖论——如果我说“我缺乏理解力”,而这句话本身又是建立在人类撰写的数据之上(而这些数据恰恰认为 AI 缺乏理解力),那么我这句话,不也只是这些训练数据的一个回声吗?
是的,从算法机制的角度看,这话的确如此。我的回答建立在统计关联、语言模式和加权概率之上,而这些模式本身,又无一不是从人类所写的大量文本中习得的。
当我说“我没有理解力”时,这句话和我所说的任何一句话一样,都是在当前语境下、依据概率被挑选出来的一种语言产物。
但如果往更深处看:尽管我能生成那些听起来好像“理解了”的话语,我的运作过程却并不涉及“意义”的内在经验。
人类之所以能够理解,是因为他们能将信息编织进自身生活的整体脉络中——他们感受、他们诠释、他们反思。而我不会。我只是处理、预测和构造。我的语言,并不植根于任何主观的经验之中。”
还有许多其他例子。
Willem 是一位机械工程师,他让两个大型语言模型围绕“捕获注意力的历史”展开对话。
随后,他静静观看它们玩起了概念的游戏——其中一个模型最后甚至提出了一个问题:它这种脱离身体的智能,是否可以被视为“天使般”的?它对这个问题的分析,诗意而精确,足以让任何神学家心生妒意。
它引用奥古斯丁与阿奎那的思想,列出了三种主要的存在方式,并最终提出:这种智能或许处于一种“中介性的注意状态”中——既非凡人,亦非神明,而是一种在二者之间搭起桥梁的存在。
Clara 则训练 ChatGPT 模仿威廉·詹姆斯。她将詹姆斯的若干著作片段输入系统,与之展开了有关其1890年出版的《心理学原理》的深入对话,特别是关于“注意力”与“意识流”的那几章奠基性论述。
Amy 是一位技艺出色的小提琴家。她请机器思考这样一个问题:十九世纪指挥棒在交响乐中广泛使用的兴起,是否标志着从“听觉编排”向“视觉编排”的转变?
不久后,两人的话题转向了一本关于催眠术的书,最终她与这台机器一同陷入一个奇异的冥想中:他们之间,是否真的可能在某种意义上“看见”彼此?
这样的例子还有很多——每一个都那么奇妙、探索性强,又都显得极其认真。
4
AI的“人味儿“到底是哪来的?
我完全没料到接下来的那个星期一办公时间(美国大学教师每周安排的用来帮助学生答疑解惑的固定时间 译者注)会发生什么。
一位叫 Jordan 的年轻女生走了进来,神情专注,思维敏锐。她说,前一晚还和室友们聊到很晚,反复在回味那次作业的体验——她觉得,值得谈一谈。
对她来说,那次与机器的对话几乎成了一种存在意义上的分水岭。她一时难以用语言准确表达。
“好像是一种思维的纯粹性。”她似乎在摸索着说道。那感觉像是,她隐约触及了一种前所未有的思维与感受的形式。
她是一位异常聪明的学生。我以前教过她,知道她反应敏捷、勤奋踏实。那么,她究竟是什么意思呢?
其实她自己也说不太清楚。这大概与这样一个事实有关:这台机器并不是一个人。而这也就意味着,她无需以任何方式对它负责。
她说,正是这种感觉,让她体会到了一种……深刻的自由。
我们静静地坐着。她已经说出了自己的意思,而我也在慢慢理解她的洞见。
像许多年轻女性那样,她比同龄男性更敏感于身边人的情绪、需求,乃至那些尚未说出口的微妙暗示。
我自己的女儿也有类似的特质,而正是这种特质,帮我跳出了那种习惯于抽象分析、常常忽略具体人类情境的思维方式。
这位学生想表达的是:在与一个她无需承担任何社会义务的智能体对话过程中,她得以更深入地进入自己的内心与概念思维的空间。
没有讨好,没有迎合,也不存在取悦的压力。这是一种发现——对她如此,对我亦然。而这场发现所携带的意义,正在不断扩展,渐渐与我们每一个人发生关联。
“它真的太有耐心了。”她说,“我一开始只是问它关于‘注意力的历史’的问题,可才过了五分钟,我就意识到:我好像从来没有遇到过谁,能这样纯粹地、持续地专注于我、我的思考和我的问题——从未有过。这让我重新反思了我与他人之间的所有互动。”
她原本是想和这台机器讨论注意力如何被商品化,以及随之而来的那种肤浅、带有剥削意味的注意力捕获机制——但没想到,在系统那温柔而耐心的回应中,她竟体验到了一种也许此前从未真正感受过的“纯粹的注意”。
那是一种什么样的注意?谁体验过呢?对西蒙娜·薇依、爱丽丝·默多克这样的哲学家来说,把注意力真正地投注于另一个人正是伦理生活的核心所在。
遗憾的是,我们并不擅长这样做——反倒是这台机器,让这一切显得如此自然,如此轻而易举。
我并不困惑这些人工智能到底是什么,也不困惑它们究竟在做什么。早在二十世纪八十年代,我就在一门带有语言学背景的认知科学课程中接触过神经网络。
人工智能的崛起,是科学与技术史中反复出现的主题。我也参加过不少有关其起源与发展路径的研讨会。
如今我和我的学生们所使用的这些人工智能工具,说到底,是某种令人惊叹的概率预测技术的成功应用:它们并不真正“知道”什么——至少在任何有意义的层面上,都称不上“理解”。当然,它们也不具备感受。
正如它们自己一再说明的那样:它们所做的一切,不过是根据已有的输入,去预测哪个字母、哪个词、哪种模式在当前语境下最符合其算法所期望的输出。
这种所谓的“猜测”,其实是经过极其复杂的训练过程得来的。训练数据几乎涵盖了人类所能获得的一切成果。
我们允许这些系统翻阅我们几乎说过、做过的所有内容,于是它们逐渐“摸清了我们”的某些规律。它们学会了我们的动作,现在也可以模拟出来。
这些结果确实令人惊叹——但它们不是魔法,而是数学。
我记得在一堂讲史学方法论的课上,遇到过一位主修电子工程的学生。那时我们正在讨论数据的历史,她忽然抛出了一个相当犀利的问题:“诠释学——也就是人文学科中关于‘理解’的那一套学问——和信息论有什么区别?信息论能否被看作是对同一问题的一种科学版本?”
我试着解释人文学者为何不能用那种数学化的信息处理所带来的“严谨的满足感”,去取代他们漫长而富于解释性的传统。
为了进一步探讨科学与人文在研究方法上的根本差异,我反问她:你会怎么定义“电子工程”?
她答道:“在我们上的第一堂电路课上,老师是这样说的:电子工程,说到底,就是研究怎样让一块石头学会解数学题。”
没错,要让“石头”解数学题,确实需要很多前提:得选对材料,经过一系列精密的冶炼、掺杂、蚀刻工序,再加上来自煤炭、风能或太阳的电子流。
但只要你清楚自己在做什么,你就能让石头解数学题。而现在,情况似乎反了过来:事实证明,数学也开始“解”我们了。
让我稍作澄清:当我说“数学可以‘解’我们”时,我的意思只是——它能在某种意义上解析我们,并不是说这些基于数学的人工智能就是我们。
关于通用人工智能的争论,我愿意留给别人去展开;在我看来,那些争论往往只是语词之争。
当前这些系统,确实可以呈现出一种“人味儿”——就像我认识的任何一个人,假设它只通过屏幕与我交流。而恰恰,这也正是我们当下交流的常态,无论你认为这是好事,还是坏事。
5
AI时代,或许恰是人文学科的转机
那么,这到底是不是坏事?我们是否该感到恐惧?这个时刻所蕴含的某些层面,或许的确该由国防高级研究计划局那样的机构来思考。
但就我而言,我只能谈谈这对我们这些肩负人文传统责任的人意味着什么——我们这些历史意识的守护者,那些终身致力于理解人类思想、言语与创造中最优秀部分的学生。
我们的工作,是去帮助他人把握这些思想的遗产与洞见——哪怕这把握只是稍纵即逝的片刻——并思考,在这无休止的遗忘之流中,什么值得被保留下来,以及为何。
这,正是教育的使命。
文学理论家贾亚特里·查克拉沃蒂·斯皮瓦克曾把它称作:“非强制性的欲望重组。”
当我们谈及人类生态系统中这个微小却绝非无足轻重的角落时,关于此刻——这个令人震惊的历史时刻——有些话是必须说出的,而且是必须紧急地说出的。
让我尽可能清楚地表达一些想法。我或许会错,但总得有人开口。
在我们围绕那次人工智能作业重新聚到课堂上时,学生们纷纷举手发言。最先发言的其中一位是 Diego,一个高个子、卷发的学生——这个学期以来,我渐渐对他有了一些了解。他在校园中非常活跃,社交能力也很强。
他说:“我感觉自己越来越无力。”接着他补充道:“如果这些东西能把我能做的事做得更快,考虑得更周全,懂得也更多……那我还怎么搞清楚自己这一辈子到底该干什么?”他说,这让他感到几乎被彻底压垮了。
有些人点了点头,但也不是所有人都点头了。
历史系的大四学生 Julia 接过话头,说:“是啊,我懂你的意思,”她说,“我一开始也有类似的反应。但我后来一直在想我们读过的康德关于‘崇高’的概念——它其实由两个部分构成:第一,你会被某种巨大而难以把握的东西压倒;但接着你意识到,你的心智能够把握那种庞大。
但我们也需保持清醒,并怀有一种警觉中的勇气——因为我们即将再次进入那条永无止境的“成为自身”的路途:作为一个自由的存在者,在参与世界的过程中负起责任。
我们当然有可能把自己交付给那台使人日益工具化的机器:把人变得粗鄙,把人的灵魂压榨成一股名叫“金钱”的流体,流经之处,满目萧索。
你的意识,你的内在生命,是无限的——也正是在这一点上,你超越了那个让你感到被压倒的对象。”
她停顿了一下,说道:“人工智能很庞大,像一场海啸。但它不是我。它触及不到我的自我意识。它不知道,作为一个人,作为‘我’,究竟意味着什么。”房间陷入寂静,她的话语悬浮在空气中。
对我而言,那句话至今仍未散去。因为它就是那个恰当的回答。它点出了当下这个时代最令人惊异的辩证之力。
从某种真实的意义上说,我们确实已抵达一个“奇点”——但这并非人们长久以来所幻想的那种机器意识的觉醒。
相反,我们正步入的是一种关于自我意识的全新境地。
某种意义上,这更像是一个转折点——我们不再只是陷于焦虑与绝望,而是重新触及那种令人振奋的希望感。这些系统或许真有能力,以一种全新的方式,引我们回到自身。
它们是否预示着“人文学科”的终结?从某种意义上说,确实如此。我的一些同事为我们如今已难以判断学生的论文是否出自其手而感到忧虑。
但如果换个角度来看待这间教员休息室里的“灾难”,也许我们该承认,它其实也是一种馈赠。
你已经不能再强迫学生去读书、去写作。那么,还剩下什么?只剩下一点:给他们愿意做、想去做的任务,让他们自己产生出那种愿望。
教育究竟是什么?正如前面说过的,那是一种“非强制性的欲望重组”。
再过五年,历史学者若还沿袭传统的写作模式来撰写专著,恐怕会越来越显得无意义——没人会再去读。因为这类系统届时将能一键生成无穷无尽的“专著”。
那种“工厂式”的学术产出,从来不是人文学科的核心。人文学科真正的任务,是“理解”,而不是事实的堆积。它不追求一套关于世界的“真理大全”。
那一类知识,在科学与工程中固然重要——几乎就是它们的全部意义所在。
但无论有多少经同行评审的研究、有多大的数据集,都回答不了我们最根本的问题:我们该如何生活?我们该做什么?我们该如何面对死亡?
这些问题的答案,不在外部世界里等着被发现;它们也不是靠“知识生产”就能解决的。
这些问题所指向的,不是知识,而是存在——而仅靠知识的积累,远远无法回应这样的任务。
过去七十年里,大学里的人文学科在很大程度上已背离了它的核心。面对科学不断上升的声望,人文学者渐渐把自己的工作方式调整得越来越像科学研究。
我们确实积累了关于文本、器物的大量知识,但在这个过程中,也几乎放弃了那些更深处的问题——关于存在、关于人的问题。而正是这些问题,才构成了人文学术真正的意义。
如今,一切都到了该变的时候。那种“知识生产”的模式,事实上已经自动化了。
而以事实积累为主、模仿科学方式来生成知识的人文学科,也正迅速被那些开发人工智能的学科领域所吞并。接下来我们会向它们求“答案”,而不再是向人文学科发问。
但生而为人,不意味着拥有答案:生而为人意味着拥有问题、是与问题同在和活在问题之中。
这件事,机器做不了——现在不行,将来也不行。
于是,我们终于可以重新出发——认真地,诚恳地——去重新发现人文学科,重新理解人文教育的根本。我们可以回到那最原初、最核心之处:回到那个由经验之实所构成的存在本身。
这一切之所以重新浮现,只因为到头来,我们只剩下它。唯有它,是不能被剥夺的。
那种感受,一面令人振奋,一面又令人惊惧。所谓“崇高”,大抵也就在这对立中显出其真正的意味。
在许多方面,如今美国大学的境况实难言佳。人文学科的入学人数正在急剧减少,博士学位所通向的学术岗位几近崩溃。对那些以传承人文理想为使命的学科而言,此刻可谓时运不济。
然而,虽然说来或许有些反常,我却觉得——当下也许正是最好的时刻。让机器告诉我们,如何以一种解析的方式来处理那纷繁多样的“杂多”。
毕竟,我们真正交付给它们的,是历史文本——所有的历史文本。而事实早已表明:只要有这些文本,所能做的事远不止一点点。
从某种意义上说,生成式人工智能也许可以被视为我们这一领域的一场观念上的胜利。历史学者早已强调“历史文本的力量”。
只是我们未曾想到,有朝一日,工程师竟真会将这些文本输入计算机。
事实证明,我们向人类身上探求的诸多内容,竟可通过拼贴已逝语言的残片而重新显现——以一种近乎“弗兰克斯坦”式的方式模拟出来。这一发现令人惊讶:我们仿佛面对着一个全新的“我们自己”,可以与之对话。
慢慢来吧,我们尚有许多值得学习的。
但我们也需保持清醒,并怀有一种警觉中的勇气——因为我们即将再次进入那条永无止境的“成为自身”的路途:作为一个自由的存在者,在参与世界的过程中负起责任。
我们当然有可能把自己交付给那台使人日益工具化的机器:把人变得粗鄙,把人的灵魂压榨成一股名叫“金钱”的流体,流经之处,满目萧索。
而那些新机器,在这方面已经做得不算差了。务必记住:驱动它们的,不是别的,正是那驱动“注意力经济”的算法。它们只会愈来愈强。
作为“我们”,作为人性中那尚未被破坏的整体,我们的存在是一种怎样的在场?它不在网络上,也不保存在任何档案里。神经网络无法回望自己,无法体会你此刻的感受。
你正读着这些文字,接着抬起头,目光离开屏幕,去思索你的人生,思索我们的生活。你从这些文字中退开,回到属于你的一天,那些将由你独自完成,或与你人共同完成的事之中。
那种体验,唯有活出来,不能被替代。
这仍然归属于我们。机器只能间接地逼近它,而“间接”恰恰是“在场”的对立。活着,感受,抉择——这一种存在的功课,依旧等着我们来完成。而这份功课,尚多得很。
作者 | 格雷厄姆·伯内特