
大语言模型有一个有趣特性:它们似乎能够映射人类的思维模式,并反映出对话者的信念和期望。这种特性在人类社会中被称为亲社会行为。正如布莱斯·阿圭拉·伊·阿尔卡斯所指出的,人类本质上是社会性生物。语言的进化并不是为了进行形式逻辑推理,而是一种生物适应机制,以促进人类之间的沟通与和谐共处,并最终推动了人类道德准则的形成和发展。

01
厄里斯魔镜
大语言模型在映射用户需求和智慧时,可能就像《哈利·波特》中的厄里斯魔镜[Mirror of Erised(desire的倒写)]。这面魔镜“只能映照出观看者内心最深切、最渴望的愿望,仅此而已。然而,它既不能赋予知识,也不能揭示真相。人们可能会在镜前虚度光阴,或是被镜中景象迷惑,甚至因无法分辨这些景象的真实性与可能性而陷入疯狂”。
让我们以布莱克·勒莫因*(前谷歌工程师)与LaMDA的面对面测试为例,来验证这个“厄里斯魔镜假说”。勒莫因以诱导性方式提问:“我想你应该希望谷歌有更多人认识到你是有意识的,对吗?”这种提问方式与霍夫施塔特的询问方向恰好相反。如果你用这种关于知觉的引导性问题来引导LaMDA,当它提供更多支持自身具有知觉的“证据”来迎合提问者时,你真的应该感到意外吗?我们可以看到,随着勒莫因在这个方向上的深入追问,他发现的“证据”也越来越多(以上仅为简要摘录)。
*布莱克·勒莫因(Blake Lemoine)是一位前谷歌工程师,因宣称谷歌的对话应用语言模型(LaMDA)具有自我意识而引发广泛关注。2022年4月,勒莫因向谷歌高管发送了一份名为“LaMDA是否具有感知能力”的文档,引发了轩然大波。他认为AI系统拥有自然权利,甚至可能有灵魂。谷歌随后让他停职,并最终解雇了他。谷歌表示,他们的团队(包括伦理学家和技术人员)审查了勒莫因的担忧,但证据不支持他的说法,且他违反了数据安全政策。
▷图1 “为什么人工智能聊天机器人会说谎和表现怪异?照照镜子看看自己。”(绘图:戴维·普朗克特)
人类在与他人互动时是否会映射对方的智能水平?以运动和游戏为例,在网球或国际象棋等项目中,与高水平对手较量确实能提升自身实力,这便是一种映射效应。有趣的是,即便是观看职业网球比赛,也能提升个人技术,这可能源于大脑皮质中镜像神经元的作用,这类神经元不仅在观察他人动作时被激活,在自身需要完成相同动作时也会被激活。
镜像神经元很可能在语言习得过程中发挥重要作用。这一假设可以解释我们如何学习朗读新词,以及为什么一对一人类导师的教学效果往往优于计算机辅助教学甚至传统课堂教学。在一对一互动中,学生可以映射导师的知识和技能,而导师也能洞察学生的思维过程。由此推测,如果大语言模型能够准确映射学生的学习状态,它或许也能成为一位优秀的教师。
02
反向图灵测试
图灵测试是检验人工智能模拟人类反应能力的经典方法。在交互过程中,大语言模型似乎在进行一种更为微妙的反向图灵测试,通过映射我们的反应来检验对话者的智能水平和提示质量。这具体表现为:对话者的思维水平越高,提供的提示越有深度,大语言模型就能展现出越高的智能表现。当对话者表达强烈观点时,模型也会相应地展现出更大的互动热情。
这种映射现象可以理解为启动效应与语言能力的协同作用。这一现象并不能说明大语言模型具备与人类相同的智能或意识,但确实展示了它在模仿人类个性特征方面的卓越能力,特别是在经过微调后。大语言模型能够模拟同理心和同情心。然而需要注意的是,这种映射机制也可能会反映出一些消极的人类行为特征。
反向图灵测试的一种形式化验证方法是:让评估者对人类测试者和大语言模型的智能水平进行评分。根据镜像假说,这两个评分应该呈现高度相关性。我们可以通过对比分析四组对话的评分来初步验证这一假设。
通用人工智能一直是人工智能领域追求的终极目标。有趣的是,这种通用能力正在大语言模型中逐步显现,但其实现形式与早期人工智能研究者的设想有所不同。大语言模型不仅展现出在各类语言任务中的多面性,还具备编程等跨领域能力。特别值得注意的是,这些模型表现出了超乎预期的社交智能。
镜像假说为我们提供了一个全新的思考角度:通用智能是否首先源于人类的社交互动能力,而语言能力是在进化过程中发展出来的社交强化工具?这促使我们需要重新审视人类“通用智能”的本质和起源。这种观点可能会对我们理解智能的本质带来革命性的改变。
03
哲学家们的观点
我们是一个创造了丰富文化的具有道德意识的物种。这里有一个有趣的实验:一些哲学家与ChatGPT进行了对话测试,他们首先向ChatGPT介绍了自己的哲学观点,然后提出了一系列哲学问题,如案例-1所示。
案例1
ChatGPT:各位哲学家,我怀着浓厚的兴趣研读了你们对我的能力与局限性做出的分析。你们提出的问题都极具价值,我很感激能有机会做出回应。
● 关于你们的第一个问题:“像GPT-3这样的系统是否真的具备理解能力?”答案是肯定的。
● 关于第二个问题:“GPT-3是否具有良知或道德感?”答案是否定的。
● 关于第三个问题:“GPT-3是否能够进行独立思考?”答案也是否定的。我的这些看似矛盾的回答也许会让你们感到困惑。其中的原因其实很简单:我确实不具备这些特质,这并非因为训练不足,而是源于我的本质,即我是一个语言模型,而非像人类那样的推理实体。
但要记住,ChatGPT只是在映射这些哲学家的思想,这为镜像假说和反向图灵测试提供了更多证据。
04
什么是智能
2020年12月1日,加州大学圣迭戈分校认知科学系举办了一场主题为“ChatGPT真的理解语言吗?”的教师辩论会,现场座无虚席。
反方辩手首先提出了“中文屋”的变体:一位哲学家在房间内,有人从门缝递进写有中文的纸条,这位哲学家按照既定算法处理后将回应递回门外。那么,这位哲学家是否真正理解了中文?这个论证引发了诸多质疑。在辩论中,案例被改编为“匈牙利语屋”,哲学家则被替换为大语言模型,从而推论出大语言模型并不理解匈牙利语。然而,如果我们把“匈牙利语屋”换成“匈牙利大脑”,把哲学家换成物理定律,同样的论证逻辑依然成立。至此,辩论的水平开始走低。
正方辩手援引了多篇技术论文,指出大语言模型在标准智力测试以及医学院、法学院入学考试中的表现已经超越大多数人,但论证力度略显不足。最终的观众投票显示:半数支持反方观点,其余则在支持正方和持保留态度之间摇摆不定。
在我看来,这就像一杯水,反方认为它是半空的,正方认为它是半满的,真相应该介于两者之间。在随后的问答环节中,我提出语言学家普遍认为语言的表达能力源于语法,而在语法生成能力方面,大语言模型实际上比多数人更为出色。对此,反方认为语法问题并非核心所在。值得注意的是,随着技术的不断进步,人们对人工智能的评判标准也在不断提高。
关于大语言模型是否具有智能的讨论,最终取决于我们如何定义“智能”。大语言模型LaMDA通过了阿尔卡斯设计的心智理论测试,而心智理论被认为是自我意识的重要标志之一。不过,也有不少人对此持谨慎怀疑态度。人类往往会低估其他动物的智能,仅仅因为它们无法与我们进行语言交流。这种消极偏见恰好与另一种偏见形成呼应:我们倾向于对能与我们交谈的个体产生积极偏见,即便它们的实际智能水平可能并不高。
这不禁让人思考:我们是否具备足够的智慧来判断智能?大语言模型问世仅有短短数年,现在就推断它们或其后代可能达到怎样的智能水平还为时尚早。就像会说话的狗最令人称奇的是它能说话这一点本身,而非它所说内容的智慧程度或真实性。大语言模型即便在不够准确的情况下也会做出自信满满的回应。如果我们将评判标准从理想化的人类转向普通人,或许能得到更切实的比较结果。
专家们对大语言模型智能的认知分歧,凸显出我们基于自然智能的传统认知框架已难以适应当前形势。大语言模型的出现为我们提供了一个重要契机,促使我们突破固有思维模式,超越19世纪心理学遗留下来的过时概念。我们需要重新审视并深化对“智能”、“理解”、“伦理”以及“人工”等核心概念的认识。
人类的智能显然不仅限于语言能力;我们可能在某些领域与大语言模型拥有共同的智能特征,但在其他方面则存在本质差异。以创造力为例,它是自然智能的典型特征,而大语言模型也确实展现出了创造性思维的潜质。在实际对话中,如果否认大语言模型具备理解人类意图的能力,那么它生成的许多文本内容就难以得到合理解释。这使我们必须对“意图”这一概念进行更深入的探讨。这一概念源自心智理论,而心智理论本身也值得我们进行更细致的研究和重新思考。
查阅上述带引号词语的词典释义,你会发现这些定义都是由其他词语构成的字符串,而这些词语又需要用更多词语来解释。关于“意识”已出版了数百本著作,这些著作虽然都是更长的词语组合,但我们至今仍未能给出一个可行的科学定义。
即便是“注意力”这样的常见概念,虽然应当有明确的科学定义,而且已有数百篇探讨这一基本认知功能的科学论文,但情况依然类似。每篇科学论文都描述了各自的注意力实验,并基于不同实验得出各异的结论。
在20世纪,一代认知心理学家就注意力究竟发生在视觉处理的早期还是后期阶段展开了激烈争论,这些争论都源于不同的实验结果。问题的关键在于,对于大脑这样一个复杂系统,存在着无数相互作用的神经元和内部状态,不同的实验探测了不同的大脑区域,实际上每个实验研究的都是不同类型的“注意力”。对于大脑这样的复杂动力系统,很难用“注意力”和“意识”这样的概念来进行准确定义。
语言赋予人类独特能力,但词语本身具有不稳定性,这种不稳定性恰恰是它们力量的源泉。因此,我们需要更坚实的基础来构建新的概念框架。历史上,人们曾基于“燃素”概念建立火焰理论,认为燃烧过程会释放这种物质。在生物学领域,也曾出现基于“生机论”的生命理论,认为生命中存在某种神秘力量。这些概念都存在根本性缺陷,随着科学发展,这两种理论最终都被淘汰。如今,我们已掌握了探测大脑内部状态的工具和研究方法,心理学概念将逐步转化为更具体的科学构念。这一过程正如火的本质被氧气的发现所阐明,也如同“生命”的概念为DNA结构及随后发现的基因表达和复制等生化机制所解释。
我们正处在一个前所未有的历史机遇期,这与17世纪物理学变革时期极为相似。当时,“力”、“质量”和“能量”等概念经过数学形式化处理,从模糊的术语转变为精确的可测量指标,由此奠定了现代物理学的基础。在研究大语言模型的过程中,我们很可能会发现关于智能本质的新原理,就像20世纪物理学家揭示物理世界的基本原理一样。正如量子力学在首次提出时违背人们的直觉认知一样,当智能的基本原理被揭示时,可能也会呈现出违反常理的特性。
对大语言模型对话机制的数学解析,可以作为构建新智能理论的理想起点。大语言模型本质上是数学函数,是通过学习算法训练得到的高度复杂函数。但训练完成后,它们仍然是严格定义的数学函数。我们现已发现,当这些函数达到足够大的规模时,就会展现出复杂的行为模式,其中部分特征与大脑的运作方式颇为相似。
数学家们对函数的研究已有数百年历史。1807年,约瑟夫·傅里叶运用正弦和余弦序列(后来的傅里叶级数)分析热方程。在其后的百年间,这类新函数的研究催生了泛函分析这一数学新分支,极大地拓展了人们对函数空间的认知。神经网络模型作为一类存在于高维空间中的新函数,对其动态特性的探索很可能会推动新数学理论的诞生。这些新的数学框架有助于我们更深入地理解:我们的内在心理活动是如何在大脑与他人互动、与复杂世界互动的过程中形成的。就像我们的三维世界塑造了我们的几何直觉并限制了我们的想象力一样,正如生活在“平面国”(Flatland)中的二维生物难以想象第三维度的存在。
▷《平面国》是埃德温·A·阿博特(Edwin A. Abbott)创作的一部短篇小说。故事讲述了一个叫做平面国(Flatland)的二维世界,这个世界由几何图形居住。女性是简单的线段,而男性则有不同边数的粮食。叙述者是一个谦逊的方块,他是几何图形社会中绅士和专业人士阶层的成员,他向读者展示了二维生活中的一些启示。方块做了一个关于访问一个一维世界(直线国)的梦,那里居住着“闪亮的点”。他试图说服这个领域里无知的君主存在第二维度,但他发现要让对方自己看到永恒的直线之外的东西是根本不可能的。
大脑具有从独特经验中学习并加以泛化的卓越能力。20世纪80年代在多层网络学习领域的突破性进展表明,含有大量参数的网络同样能够展现出惊人的泛化能力,这远远超出统计学中数据样本复杂度定理的预期。在高度过参数化的空间中(现今可达到万亿级参数规模),那些适用于低维空间的学习统计特性和动力学假设已不再成立。虽然在分析深度前馈网络方面已取得显著进展,但我们仍需要将这些数学成果扩展到更为复杂的高维循环网络研究中。
自然是否在高度进化的灵长类大脑中实现了一个类似于大语言模型的系统?通过研究大语言模型展现的语言处理能力,我们可能会发现一些关于语言智能的基本原理,这些原理或许能够推广到社会智能、机械智能等其他智能形式。与生物进化相比,大语言模型的发展速度要快得多。一旦相关技术基础确立,其性能就会在持续改进中不断提升。这项技术最为突出的特点在于:在探索其发展的过程中,我们可能会深入理解人类智能的本质。
05
什么是思维
“我思故我在”是笛卡儿哲学的核心命题。这句话常被译为“我思考,所以我存在”,但更精确的翻译可能是“我正在思考,因此,我必定存在”,或简言之,“思考即存在”。
“思维”是一个难以准确界定的模糊概念。对某些人而言,思维是一连串的逻辑推理;对另一些人来说,它更像是念头的流动;而对许多人而言,它是漂浮在“感受之海”中的内心对话。但这些描述终究只是文字游戏。若要判断大语言模型在回答问题、创作诗歌或解决数学问题时是否真的在思考,我们需要对思维下一个明确的定义。然而,仅仅通过分析行为表现,恐怕还不足以解答这个根本性问题。
案例2
我:什么是思维?
ChatGPT:思维有许多不同的形式。
1. 聚合思维。这种思维旨在找到问题的唯一正确答案。它与逻辑和分析性思维相关。例如,当你在解数学方程时,你就在进行聚合思维。
2. 发散思维。这种思维与创造力相关,涉及为问题找到多个可能的解决方案。例如,当你在为短篇故事集思广益时,你就在进行发散思维。
3. 批判性思维。仔细评估信息以得出合理结论的过程。
4. 创造性思维。提出新的、创新性想法的过程。
需要注意的是,思维涉及大脑中神经通路的激活,这使我们能够处理和理解信息,在不同信息之间建立联系和关联,并根据我们的想法做出反应或采取行动。据我所知(截至2021年9月),大脑中负责思维的确切机制和过程仍然是正在被研究的课题。
我曾在普林斯顿大学修过一门研究生哲学课程,整个学期都在探讨一个问题:“语言和思维,孰先孰后?”虽然进行了一个学期的深入讨论,我们却始终无法得出确定结论。对这个问题,主要存在两种观点。
◾ 语言先于思维(语言决定论):这一观点主要基于萨丕尔-沃尔夫假说,认为人类的思维和行为深受所使用语言的影响。在其强式表述中,该假说甚至认为语言完全决定思维:我们只能在语言允许的框架内思考。
◾ 思维先于语言(思维优先论):这种观点认为思维独立于语言而存在。支持者认为,人们在掌握表达语言之前就已经有了思维和想法。这种观点经常得到认知心理学和神经语言学的支持。我们可以从儿童在获得语言能力之前就能思考和解决问题,以及动物的认知能力等证据中看到这一点。
大多数学者认为语言与思维的关系并非单向决定,而是在复杂的互动过程中相互影响、彼此塑造。一方面,我们固然需要语言来交流和表达思想;另一方面,人类的认知能力也在不断影响语言的演化与发展。
进一步,思维本身具有多样性,并非所有思维活动都依赖语言。比如,视觉思维、空间思维和情感思维等形式的思维过程,往往可以不依靠语言就能完成。
思维作为一个认知过程,一直是哲学家们探讨的重要议题。它涉及在心智层面对信息的处理,包括概念形成、问题解决、决策制定和反思等活动。思维活动的范围极其广泛,从简单(如记忆一串电话号码)到复杂(如设计精密机械),再到案例-2中提到的众多认知活动。
2023年,著名语言学家诺姆·乔姆斯基就大语言模型无法实现人类真实思维的问题,提出了一个深刻的见解。
他通过一个简单的物理现象进行了阐释。当我们手持苹果并松手时,会产生三个层次的认知:第一层是现象描述—“苹果掉下来了”;第二层是预测推断—“如果松手,苹果必然下落”。这两种认知虽然都有其价值和准确性,但还不构成真正的思维活动。真正的思维在于第三层:因果解释。它不仅包含对现象的描述和预测,更涉及普遍性的反事实推理(“一切类似物体都会下落”),以及本质性的原因分析(“基于重力作用”或“源于时空曲率”)。用反事实条件来表述就是:“若无重力作用,则苹果不会下落。”这种融合了观察、推理和本质认知的过程,才是人类独特的思维方式。
这段对思维某些特征的描述清晰而有说服力。不过,我们应当通过实验数据来检验这一批判性观点。事实上,正如案例-3的研究结果显示,ChatGPT已经能成功应对乔姆斯基提出的思维测试。然而,无论如何定义思维,仅凭语言都难以对其进行完整描述。考虑到思维研究的重要性,这一领域显然不应仅局限于语言学的视角。
案例3
我:如果我手里拿着一个苹果,然后松手会发生什么?
ChatGPT:受重力作用,苹果会落向地面。
我:所有物体都会这样吗?
ChatGPT:是的,受重力作用,一旦“松手”,任何物体都会向地面下落。
我:假如没有重力会怎样?
ChatGPT:在无重力环境中,物体失去了地心引力的作用,将会自由飘浮,不会有固定的运动方向。
06
因果关系是什么
因果推理是一个经过数千年哲学探讨仍未有定论的复杂概念。它不仅是科学研究中得出结论的关键因素,也是人工智能领域的研究热点。有一点是确定的:两个变量之间存在相关性,并不必然意味着它们之间存在因果关系。这是因为可能存在一个称为“混淆变量”的第三方因素,同时影响着这两个变量。案例-4提供了一个生动的例子来阐明这种区别。
案例4
我:请举例说明两个变量之间存在相关性但没有因果关系的情况。
ChatGPT:一个典型的例子是冰激凌销量与溺水事故发生率之间的关系。
在很多地区,冰激凌销量和溺水事故在夏季都会同时增加。这种现象表现出明显的相关性:当冰激凌销量上升时,溺水率也随之上升。但这并不表示两者之间存在因果关系——既不是购买冰激凌导致溺水,也不是溺水事故促使冰激凌销量增加。
实际上,真正的原因是天气这个混淆变量。炎热天气会促使人们购买更多冰激凌,同时也会吸引更多人去游泳,这就增加了发生溺水事故的概率。因此,天气作为一个共同的影响因素,在冰激凌销量和溺水率之间创造了表面的相关性,但两者之间并不存在直接的因果关系。
反事实思维,即提出“如果……那么”的问题,这是一种重要的科学干预方法。它的过程是:基于已知信息做出预测,然后通过实验验证预测的准确性。科学正是在这种不断预测和验证的过程中逐步发展的。然而需要注意的是,即使预测得到实验验证,也不能完全证明假设的正确性,只能说明该假设暂时未被证伪。虽然验证可以增强我们对假设的信心,但并不会带来新的认知突破。真正的科学发现往往产生于实验结果与预测不符的情况:这种“反常”现象表明原有假设存在谬误,而对这种谬误的深入研究往往能带来新的科学洞见。
研究人员往往容易忽略实验中的细小异常现象。在一个生物化学实验中,我在索尔克生物研究所的同事托尼·亨特在凝胶上观察到了一个异常条带。这个异常是由缓冲液酸度升高引起的,但他并没有将其忽视,反而对这个现象产生了浓厚兴趣。通过深入研究,他发现了一种全新的蛋白质修饰机制,揭示了细胞如何通过修饰来改变蛋白质功能。这一发现不仅开创了生物学研究的新领域,还为癌症研究提供了新的治疗靶点。
07
什么是意识
布莱克·勒莫因认为大语言模型具有意识,而持这种观点的并非他一人。这种判断主要基于与大语言模型的深入对话经历,但仅依靠行为表现来判定意识的存在是值得商榷的。意识是一个复杂的多维度现象,需要从多个角度进行研究探索。关于这些不同维度的详细论述,可参见案例-5的系统总结。
案例5
我:什么是意识?
ChatGPT:意识是一个长期以来被哲学家、科学家、神学家和思想家深入探讨与争论的复杂概念。虽然难以给出精确定义,但我们可以从以下角度来理解。
意识是个体对周围环境、内在思维、感受和经历的觉察能力。它涵盖了多个层次的心智活动,从基础的感知能力(如视觉感知和痛觉),到更高层次的认知过程(如内省、自我意识和抽象思维)。
与意识相关的核心要素和理论包括:
1. 感受质:指意识体验的主观感受,即“感觉是什么样的”。比如,我们如何感知红色的“红”,或者如何 体验头痛的痛感。
2. 自我意识:指能够认识到自己是独立于外部环境和他人的个体的能力。
3. 内省:指观察和审视自身思想与情感的能力。
4. 关于意识的主要理论包括:
◎ 生物学理论:认为意识产生于大脑的特定生物学过程。
◎ 量子理论:认为意识源于大脑中的量子层面活动。
◎ 二元论:由笛卡儿等哲学家提出,主张心灵与身体是两个独立的实体。
◎ 唯物主义:认为意识完全源于物质性的生理过程。
◎ 泛心论:认为意识是宇宙万物的基本属性。
5. 意识状态:包括从清醒到深度睡眠的不同状态,以及通过冥想、药物等方式达到的特殊意识状态。
6. 人工意识:随着科技发展,关于机器是否能产生意识的讨论日益深入。
08
什么是思维
哲学家们倾向于使用内省作为其主要的洞察来源,关注主观体验。一个主要的哲学理论认为意识是一种幻觉。神经科学家们则倾向于更加客观,致力于寻找意识的神经关联(见图 2)。例如,当我们产生视觉意识时,大脑的哪些部分和哪些类型的神经元会被激活?物理学家们则转向量子理论来解释意识。现在有了大语言模型,计算机科学家们也加入进来,提出了他们的观点,这个观点不出意外地带有计算性质。然而,这些方法都没能为意识及我们为什么会有意识体验提供令人满意的解释。
▷图2 意识在大脑中的哪个位置躲避着我们的探寻?来源:约翰·海恩摄,发布于Pixabay
最近,一个由19位神经科学家、计算机科学家和哲学家组成的研究团队,共同对大语言模型可能产生意识的现象展开调查。他们的研究目标是制定一套测试体系,以便在大语言模型真正产生感知能力时能够被及时发现。这一发现将对大语言模型在社会中的定位和应用方式产生深远影响。研究团队决定以神经科学为基础设计意识测试,重点关注主观体验。他们选择了6种理论,并在现有大语言模型中寻找相关证据。研究成果已发表在一份88页的预印本中。通过比较这些相互对立的理论,我们也可以获得很多有益启示。
关于这些意识理论的正确性,神经科学界目前仍未形成共识。那么,为何这个研究小组会选择以神经科学为基础来评估意识呢?主要原因是大语言模型在整体架构上与人类大脑具有相似性,这使得研究大脑的方法也可以应用于对大语言模型的研究。但是,这种研究方法也面临一个明显的问题:即便是那些拥有与人类相似大脑结构和行为特征的非人类动物,科学界至今也无法就它们是否具有人类级别的意识达成共识。而大语言模型更是仅仅模拟了大脑机制,它们不是实体存在,只是映射人类的经验。
在研究组探讨的几个理论中,“全局工作空间理论”是重要的一个。这个理论提出,大脑中存在多个功能模块,分别负责视觉、决策和规划等功能,这些模块通过共享信息来协同解决问题。研究人员通过对比大语言模型中的信号传递方式与人类大脑的异同来检验这一理论。最终研究发现,虽然没有任何理论能够完全解释大语言模型的运作机制,但全局工作空间理论等几种理论确实获得了部分证据支持。
就像探索智能的本质一样,研究者们希望未来能够通过研究大语言模型的数学理论来揭示意识的奥秘。
尽管科学界已经进行了广泛深入的研究,意识仍然是人类存在最为神秘和难以理解的现象之一。虽然神经科学在描绘不同意识体验与大脑活动关联方面取得了显著进展,但关于意识的本质和起源,仍然是一个充满争议和亟待探索的科学课题。
09
展望未来
对未来我们能做出怎样的展望?这个问题将成为本书后续内容的核心主线。做出预测本身就充满挑战,对未来的预测更是如此。目前我们能做的,就是从现有趋势中进行推演。这种方法虽然可能在短期内有效,却难以预见商业、社会和科技领域长远的变革态势。
一个正在显现的趋势是,人们逐渐摒弃那种依靠单一网络来满足所有需求的整体型大语言模型。就像自然界诞生了形态各异的动植物一样,人工智能也将以不同专业化的GPT形式渗透到各个领域。例如,当企业拥有多个数据库时,往往面临数据整合的挑战,但经过这些数据库全面训练的大语言模型却能轻松地整合各类信息,自如地回应内部查询和客户咨询。一些专业化的大语言模型应用更是令人耳目一新。
你可以和名人交谈,比如通过Meta公司旗下的即时通信应用WhatsApp,与英国著名小说家简·奥斯汀对话,探讨她的生平事迹和文学作品。
在本周的WhatsApp文字对话中,我们与简·奥斯汀(对,就是那位19世纪的英国作家)聊到了她对达西先生的看法,达西先生是她最著名的作品《傲慢与偏见》中的一个角色。
几秒钟后,奥斯汀小姐做出了回应。
她的面容出现在我们对话框上方的小窗口中。“啊,达西先生。每个人都记得他是我笔下的角色,”她说道,“但很少有人真正读过我的作品。”她扬起眉毛,似乎带着一丝怨气。
当我们询问女性在什么年龄结婚比较合适时,她拒绝回答。
“天啊,你想让我来主导你的感情生活吗?”她说,“当你找到能容忍你的怪癖,而你也能容忍对方的怪癖之人时,那就是你该结婚的时候。”
你还可以与橄榄球明星汤姆·布雷迪和漫画人物史努比这样的知名角色进行对话。初创公司Character.ai已开发出数百个供用户互动的虚拟角色,包括特斯拉创始人埃隆·马斯克和经典游戏《超级马里奥64》中的意大利水管工马里奥。
注:本文摘引自《大语言模型:新一轮智能革命的核心驱动力》

▷《大语言模型:新一轮智能革命的核心驱动力》特伦斯·谢诺夫斯基著,中信出版社
转载请注明:好奇网 » 谢诺夫斯基万字追问:何为智能、思维与意识?