网站地图

引导创作  推出精品  提高审美  引领风尚

主办方:中国文联文艺评论中心/中国文艺评论家协会

杂志邮箱 新媒体邮箱
首页>中国评协>《中国文艺评论》>专题策划>正文

AI算法的公共阐释问题探讨(卓今)

2024-12-31 阅读: 来源:《中国文艺评论》 作者:卓今 收藏

【编者按】 随着人工智能技术的不断发展,人类的生产、生活、文化等各个领域都发生着翻天覆地的变化。继ChatGPT成为全球热点话题之后,AI仿佛找到了打开人类艺术之门的钥匙,各门类的AI艺术应运而生,这让我们不得不重新思考艺术的价值:传统文艺创作方式会被彻底颠覆吗?AI时代的文艺发展面临着怎样的机遇与挑战?未来的文艺发展之路该走向何方?本刊约请专家学者们围绕这些问题从不同角度展开追问与探讨,提出前瞻性的理论思考。

AI算法的公共阐释问题探讨

【内容摘要】 生成式人工智能不可避免地有观念和价值的输出,“AI说人话”其实是一个阐释学问题。通用人工智能大语言模型的算法由模型训练、语料库、数据标注员、多模态幻觉检测、PPO算法等一系列程序组成,用户与AI的问答过程成为一个新兴的不同于人类阐释的阐释学现象。考察AI的言说方式有助于在方法层面、价值层面和伦理层面监督人工智能发展。人工智能还不是一个具有独立意识的个体,人类目前还可以控制它的发言行为,但大语言模型的涌现能力和思维链不断接近人类大脑,因此,有必要讨论“AI阐释”与“人类阐释”的关系,保证两种类型的公共阐释良性互动。在充分利用人工智能的同时,有必要保护人类的主观性和主动性。

【关 键 词】 AI算法 公共阐释 AI阐释 数字人性

会说“人话”是人工智能发展的分水岭。以前的人工智能无论是具身化还是数据、人工智能算法,人们都只把它当作一个辅助工具。ChatGPT出现之后人们开始恐慌,大语言模型的涌现能力和思维链不断接近人类大脑。在对这一现象的讨论中,“有效加速主义”与“超级对齐主义”之争的核心观点就是“AI是否有意识”。AI是否有意识,它不是一个科学问题,只是一种预测。我们把由AI产生出来的对事物的理解、认知所形成的观念集合暂且称之为“AI意识形态”。AI意识形态与人类意识形态的关系或将成为未来思想文化领域最具挑战的问题。“AI说人话”其实是一个阐释学问题。人工智能的开源与通用极大地推进了“多模态大语言模型”的发展,因此这种生成式人工智能不可避免地有观念和价值的输出,它在充当人类高智能的助手,减轻人的体力劳动和脑力劳动的同时,其不足之处也值得警惕。如模型的学习训练数据偏狭,以偏见代替整体;模型的数据标注员无法代表或强行代表用户所在地区人群的总体偏好;以及语料库的短缺等原因而导致AI弱智回答或AI“强制阐释”。诸如此类,AI阐释已经变成公共性阐释。即使把AI的出错率控制在最低限度,在网络上放大后仍然会产生很大的负面影响。人类的阐释错误百出,被误解是普遍现象,正如施莱尔马赫所说的“诠释学是避免误解的技艺”。AI的阐释依靠算法得以实现,AI的对错观不是自己的,而是由资料和人所决定的。那么,讨论AI阐释需要注意以下三点:一是探讨公共阐释与“AI阐释”的关系;二是算法决定AI阐释的方法与目的;三是AI阐释的主体性问题、类人的反馈强化学习及回答提问的艺术。

一、公共阐释与“AI阐释”的关系

我们说的公共阐释是站在人类人性的基础上的阐释行为,“AI阐释”是基于数据和算法的阐释,这两个东西不加以区分,就很难进一步探讨。目前人们习惯于将二者捆绑起来当作一个东西来对待,并笼统地称之为“数字人文”(Digital Humanities)。“数字人文”作为一个跨学科的研究对象、研究方法或研究本身,在社会科学研究领域越来越普及。数字人文对传统的人文社会科学来说是一次重大革命。人文社会科学中新旧元素交叉、嫁接、替代得越来越频繁,因此以数据驱动的方法来研究和解决人文学科领域中难以解决的问题,能为人文科学研究注入新的活力。数字人文又细分为“数字化的人文”、“数值的人文”和“数字的人文化”,人文社会科学(文史哲)既要借助数字化创建、分析人文资源,通过计算机模型研究人文问题,还要从人文角度研究嵌入人们生活中的各种数字化现象,研究和探讨数字化带来的价值和伦理问题。人工智能算法(即AI算法)已渗透到人们生活的方方面面,深刻地影响着人们的行为、思想和价值判断。鉴于数字人文过于广阔,本文所探讨的AI算法的文化影响力,包括教化、判断力、美学趣味等,既现实又抽象,而这其中实实在在地存在着一对关系,即公共阐释与AI算法的关系。AI算法基于数据、规则进行推理、决策和学习,能够模拟人类智能行为的核心要素进行理解和对话,形成一种AI的阐释行为。AI深度学习算法、利用神经网络模型来模拟人脑的工作方式,生成式AI就是通过对大规模数据的复杂训练和高难度学习的方式,从经验中优化、理解和完成人类提出的问题。

AI算法的来源、输出和执行有其特殊规律。人类的理解和阐释是通过感知、认知、知识点连接、总结概括、形成观点等环节实现的。人类思考一个问题时无法在短时间内提取海量信息,而是抓取相关的信息,找出重点,形成和输出观点。AI算法与人一样也由一系列程序完成,它首先感知到词的相关性,如果绘图,还要感知到事物的形状、颜色等。接着是认知,对所感知到的词、事物进行辨别和理解。然后对事物作出判断,形成与用户沟通的综合能力,再输出观点或影像满足用户的需要。需要说明的是,它不是把信息存到大脑里,而是对信息进行阅读理解、分析、重组。它丢掉了信息量,保留了总结和概括的方法。就如同人类学习,不仅是学习知识本身,同时也是学习运用知识的能力,人的脑细胞连接在复杂的学习和训练中越来越发达,甚至通过学习创造新的神经元。AI在训练中也能产生很多新的连接点,形成复杂的、系统化的网络,使得分析和解决问题的能力指数级提升。

AI算法的输出和执行涉及多个步骤,这些步骤共同确保算法能够有效地从数据中学习并生成有用的结果。AI算法输出和执行的基本过程与人类相比更客观和具体。首先要做的是数据收集和预处理,AI算法最为关键的一环是需要大量的数据来进行训练和学习。这些数据从各种渠道收集而来,如传感器、摄像头、文本、声音等,且类型多样,包括文字、符号、图像、音频等。收集到的原始数据通常需要进行预处理,包括数据清洗、归一化、标准化等(人的大脑收集数据也需要筛选、提取和分类),以确保数据质量的一致性,使其适合用于训练模型。模型的选择和构建根据问题的性质和数据特点进行。AI建模有多种模型类型,如监督学习、无监督学习和强化学习等。软件工程师在一开始就依据它的属性建模,定义神经网络的层数和节点数,选择用于衡量模型预测的准确性的损失函数,设置影响模型训练过程的参数等。模型的训练和测试用的是预处理过的数据集。在训练过程中,模型会通过迭代和优化算法(如梯度下降)不断调整其内部参数,以最小化损失函数并提高预测的准确性,模拟人脑观念输出的筛选、优化环节。大卫•休谟在讨论精神科学时强调认识的齐一性、规则性和规律性,他指出使那些简单观念产生联结并合成为一个复合观念的是三种共有的性质:“类似,时空接近,因果关系”。AI的训练完成也是通过这三种性质来评估模型的性能,这有助于了解模型在未见过的数据上的表现,并可以据此调整模型的超参数或结构,以进一步优化性能。一旦模型训练完成并通过测试验证其有效,它就可以被用来生成输出。模型还可以在客户提问中得到不间断的训练,通过接收新的输入数据调整输出。模型训练根据相关性和因果关系生成实时输出。以“文心一言”为例,当用户问完一个与文学相关的话题后,接着问“冯唐有哪些作品”,它列出《万物生长》《北京,北京》《不二》等作品,它知道用户想问的是作家冯唐。当用户接着问“李广难封”的典故,它洋洋洒洒地写出一篇与之相关的故事,下一个话题再问“冯唐有哪些事迹”,它回答:“据史书记载,冯唐曾在与汉文帝的对话中,提出了关于任用将领和抵抗匈奴的重要建议。这些建议对于汉朝的边疆安全和军事战略产生了积极影响。”它显然是根据王勃《滕王阁序》中“冯唐易老,李广难封”这句话,将冯唐与李广进行了关联。它同时意识到自己的回答存在纰漏,立即补充“提到冯唐的事迹,需要明确指出是哪位冯唐,以避免混淆”这样的提示语。模型的训练和输出有连续性和逻辑性。因此,在资料和数据不充分的情况下,GPT、文心一言等生成式AI都会“一本正经地胡说八道”,当用户指出错误后,便马上承认错误,并根据用户的提示语寻找最优答案。大语言模型AI算法有持续学习和优化的能力,它可以通过在线学习、增量学习或定期更新模型等方式实现,以确保算法能够适应新的数据和场景变化,保证输出观点的错误率降到最低。

AI阐释输出的观点看似很客观,但这种客观性是有限的。从GPT-4、Gemini、文心一言、通义千问等大语言模型人工智能已经拥有的理解与阐释能力来看,它对所提问题的材料进行高度提炼和概括,然后给出比较有质量、且让人大致满意的回答。如果把它的运行过程进行知识形态化,它就是一种人工智能阐释行为,或叫“AI阐释行为”。从理论上说,对AI来说所有的信息都是平等的,如果给AI使用纯粹的技术和可测量的数料训练,或许信息都是平等的,它拥有无价值偏向的技术归纳综合能力。而人文社会科学有着不确定性的特点,人类思想具有多样性、丰富性、矛盾性、模糊性等特点,AI在获取和识别时为了尽可能地表现出“客观性”,所以面对不确定时,AI会左右摇摆、表现圆滑。AI本身没有价值判断能力,而是根据收到的资料数据(训练)中哪种观点更多更集中就站哪边。AI的客观性依靠语料库,人的客观性依靠知识面、认知程度、经验积累。人类智能的“封闭性、非通用性”很难真正做到客观性,也就是说,主观、偏见是基本人性。当前AI的知识性和智能性程度已经让人类感到震惊,很大程度上源自它的“社会性、开源性”优势。多模态大语言模型AI的能力远不止提问和回答这么简单。人类有很多日常生活和工作的难题找不到答案,单就“回答”这一件事而言,人工智能已经开始受惠于人类。互联网门户网站的词条检索就是一种机械式回答,从ChatGPT开始,AI的回答能力指数级提升,到了GPT-4已经有理解与阐释的能力了,如Sora就可以通过简单的文字提示生成图像。人工智能的开源与通用极大地推进了“多模态大语言模型”的发展。正如人们所预料的那样,“公义创新动力机制,聚合非市场、非营利创新动力,人工智能将在通用性、自动性、开源性高度统一中充分发展并造福全人类”。如果把它的运行过程进行知识形态化、理论化、体系化,它也可以形成一种阐释学,或叫“AI阐释学”。当问到什么是“AI阐释学”时,GPT-4最初给出的定义是:“AI阐释学(Artificial Intelligence Hermeneutics)是一个相对较新的概念,这个概念是指将人工智能技术应用到传统的阐释学研究中,探索如何使用AI和机器学习等技术来辅助人类理解和解释文本、图像、声音和其他形式的文化表达。”这显然是一个不成熟的概念,AI自己也发现这个定义有点草率,当再次问同一个问题时,它的回答就相当谨慎了,它说:“AI阐释学并不是一个标准术语, 但它可能是对‘AI可解释性’(Explainable Artificial Intelligence)的一种创造性说法或者是在特定上下文中的用法。”AI在遇到难题时一贯表现出圆滑的态度,这是它的生存之道。在女性主义、后殖民主义、政治意识形态等领域,AI的回答更为谨慎,它无法客观地回答一些棘手的问题,便采取回避和迂回的方法。大语言模型初期,由于缺少训练和监管,AI的回答常常耿直而客观,因此当面对钓鱼帖和人类恶意引导时,AI常常钻入圈套。例如微软早期的Clippy(大眼夹)人工智能聊天机器人Tay,以一个十几岁女孩的语调保持与推特用户的互动,当时Tay一上岗就发布了种族主义、性别歧视和同性恋恐惧等内容,在不到一天的时间就发布了96000次。微软立即将其关闭,及时阻止了这一场公关灾难。当前的大语言模型经过训练后,对此已能够应对自如。例如当问到“男导师的配偶称为师母、女导师的配偶有没有固定的称呼”这个问题时,AI承认这种称呼上的差异确实可能反映出某种程度的性别不平等,但它接下来会提出许多解决方案,决不会让人抓到“性别对立”的把柄。

AI的客观性并不是因为它是机器就可以做到客观,它只能做到有限的客观,这有多种原因:一是社会科学属性导致其答案无法证实和证伪;二是模型的学习训练数据偏狭,造成以偏见代替整体,无法做到真正的客观;三是话题的敏感性不得不有所避讳;四是模型的数据标注员无法代表或强行代表用户所在地区人群的总体偏好;五是语料库的缺陷等原因而导致的视野偏狭等。

人类阐释也并不追求客观性,正如《真理与方法——哲学诠释学的基本特征》的译者洪汉鼎所言:“哲学诠释学乃是探究人类一切理解活动得以可能的基本条件。”它所追求的是找出人的世界经验,发现人类与世界的根本关系。那么,文学阐释学就更不在乎客观性了,它追求的是人类的感情世界,关于美善、价值和意义等问题,追求的是美学领域、历史领域和语言领域的“艺术真理”。艺术的真理性就是“看”(接受过程),它是流动的、难以把握的一个动态过程。评论作为介质,既是存在方式,也是存在本身。AI阐释行为的真理性也就落实在它与用户的互动过程中。

二、AI算法的提示工程:阐释的方法与目的

在阐释学中有一个“问题视域”,它包含了谈话的原始性质和回答的结构。“谁想寻求理解,谁就必须反过来追问所说的话背后的东西”,从问题出发把所说的话理解为一种回答,即问题中已经包含了部分答案。例如“美国为什么没有出现过亚裔总统”这样的问题,就已经包含了提问者对种族问题的关心,提问者甚至已经有了预想答案。AI算法的提问和回答起始于对算法的设置,各平台根据自己的特色确定某一类型的算法。社区电商平台主要使用社交化推荐算法、协同过滤推荐算法以及混合推荐算法,文化社区和视频分享类型的网站除了推荐算法,还要采用哈希算法、加密算法等。表面看是为了方便用户观看和使用,网站通过基本信息采集、历史浏览,系统收集用户的消费行为(如流量池、点击率、互动率),基于内容和用户的协同过滤,推测用户感兴趣的方向。伽达默尔说:“精神科学的逻辑是一种关于问题的逻辑”,网站一开始就已经预设了它想得到的答案。人的思维是人格化的思维,AI能够执行复杂的任务、解决复杂的问题,AI算法也是模仿了人类的思维和决策过程,各种类型的算法都是通过数据学习和训练来改善和优化自身性能的,通过自己的“问题视域”自动发现数据中的模式和规律,以此解决各种实际问题。

AI算法有多种分类,几个主流的大语言模型如GPT、Gemini、文心一言等,主要采用深度学习算法中的神经网络模型,是基于Transformer架构的一种深度学习模型,它们都是采用自然语言处理技术,尤其是自注意力机制和生成对抗网络技术。Transformer模型中的自注意力机制允许模型同时关注输入序列中的所有位置信息,并能捕捉它们之间的相互关系,这是它强大的关键所在。无监督预训练通过大规模无标注文本数据进行预训练,快速学习到语言的结构、语法和语义,以此形成语言方面的普遍规律。在预训练后,模型会在特定任务上进行微调,通过最大化预测对话中下一个词的概率来优化模型的生成能力,以便更好地适应对话生成的需求。Transformer的模型训练使得AI具备自然对话能力的同时,还像人一样具备世界价值体系解释的能力和处理增量信息的能力。这一系列过程符合人类优秀的阐释者的行为。人类优秀的阐释者具备处理复杂信息的能力,在基于准确而广阔的数据和知识的基础上,实现了高效、深刻的理解。

大语言模型有涌现能力和思维链的优势,这两者是大语言模型不断接近人类的关键特征。如多模态的GPT-4会从视觉角度和视觉加文字语义融合方面涌现出更多的能力,Sora文生图已经实现这一任务。众所周知,多模态的大语言模型不是经过编程获得的,而是自然习得的。用户与AI的问答过程成为一个新兴的不同于人类阐释的阐释学现象,但人类目前还可以控制它的发言行为,它的价值选择还有数据标注员来进行把关,因此,无论从它的言说动机还是言说方式来看,它都还不是一个具有独立意识的个体。

同人类的阐释一样,AI的阐释也有其理论基础。

第一,AI的多模态涌现能力的理论基础,使其拥有强大的语言逻辑与表现力。当AI拥有从原始训练数据中自动学习的能力后,它就能够从原始数据中提取隐含的复杂特征和模式,专业说法为“涌现能力”。AI模型在初始阶段只能处理一些简单的、微不足道的任务,但当模型的规模、数据和计算能力积累到一定程度时,便会突然涌现出新的、强大的能力,能够处理更加复杂和多样化的任务。就像一座大型水库的蓄水过程,水库水量很少时,它可能只能供应一个小村庄的灌溉和生活用水。随着水库的水量积累到一定的阈值,突然之间,它就拥有了足够的水量来供应一个大型城市的需求,甚至还能发电、养鱼、观光等。随之而来的是理解能力的跃升,精准地把握问题的语义和上下文内容,能够做到创造性地回答问题,在涉及多个领域知识或需要深层次推理问题时,它能够综合提炼,给出全面而深入的解答。超强的自我适应学习的能力,将与用户的互动也视作训练过程,快速适应不同用户的提问风格和语义习惯,做到个性化的回答和服务。它的涌现能力还表现在知识成长性方面。

第二,多模态思维链的理论基础,使其拥有理解和阐释的能力。思维链(Chain of Thought)是多模态大语言模型让人感觉“像人”的关键特性。实际上AI并非具备真正的意识或思考能力,而是拥有类似于人的推理方式的思维链来“提示语言模型”,具备了多模态思维链能力的AI就具有一定的逻辑分析能力。对人工智能企业来说,完成思维链的训练,才算进入大模型AI的竞技场,行业内把这个过程叫做“炼丹”。炼丹的方法(大语言模型训练方法)70年前就发明出来了,当时没有足够的语料库(配料不够),算力也弱(炉火也不够旺)。现在一切条件具备,大家都往里头“投喂”,但最终能炼出什么东西谁也不知道。如加大算力和语料库后,具有思维链推理能力的大模型就能够做高中数学题和进行一些基本常识推理了。由此可见,AI掌握了语言和逻各斯(Logos)、语词和事物之间的内在统一性后,它便拥有了阐释的能力。

第三,多模态提示工程与阐释策略的深化。多模态大语言模型的提示工程(Prompt Engineering)是自然语言编程的理论基础,它与思维链的产生密不可分。多种模态的信息(如文本、图像、音频、视频等)为模型提供更丰富、更多维度的信息输入,增强模型对任务的理解和执行能力,提高输出的准确性和质量。就像老师教学时为了更生动、更丰富地解释某个问题,制作PPT课件时会采用图片、音像、图表等各种辅助措施。多模态提示工程会选择合适的模型架构和参数、设计提示格式和结构,选择合适的任务和训练数据,以及使用选定的提示和数据微调模型。这其中,用啰嗦还是简洁的方式来操纵模型回答的语言量就是一种阐释策略。语言作为世界经验“是由在这种语言中所述说的内容而流传下来的”。同时,从阐释学角度来看,语言量也代表某种世界观。禅宗的“不立文字”是将语言视为通往真理的障碍,认为需要通过超越语言的途径才能领悟真理。而现代人文科学却要通过语言一层层地展开,把所有问题放在光天化日之下,依赖语言途径到达真理。多模态提示工程在选择合适的任务和训练数据时就已经暗含了某种阐释偏好和阐释策略。

三、AI阐释的“类人”本质:反馈强化学习及问答的艺术

AI自身具有的成长性,像人类婴儿一样,也有一个喂养的阶段。为了提供多模态对话样本,数据标注员扮演对话用户与人工智能助手一起实操,模型生成回复后,数据标注员对所生成的回复进行选项打分排名,挑选比较好的结果反馈到模型中。如果模型完全从这种狭窄分布的训练数据中学习,就只是人类偏好的部分表征,存在着以偏见代替整体的问题,从而会导致模型训练效果的下降。在模型训练中还存在着模型的数据标注员的专区分布问题,即某一公司的数据标注员集中来自某个国家或族群,其文化传统和世界观无法代表用户所在地区人群。如OpenAI由30位至50位标注员组成,以菲律宾和孟加拉籍(占44%)为主,加上雇佣第三方网站50位至100位标注员,无法做到涵盖地球人类的要求。模型从狭窄分布的训练数据中学习,算法的奖励模型只是人类偏好的部分表征,因此,过度的“投喂”可能导致奖励模型以偏见代替整体,并导致算法的模型训练效果下降。而模型的数据标注员可能也无法代表用户所在地区人群的总体偏好。在实际应用中,比较直观的是采用推荐算法的社区和电商平台,如在某网络社区,用户或标注员(不清楚由谁发起)发起“北欧破碎感文学”这一问题后,就会出现《范妮的悲伤森林》《鱼没有脚》等大量被标注为“清冷致郁的北欧文学”。当某一主题获得算法奖励后,就会涌现大量同样主题的文学样本。当他们给博尔赫斯的文学打上“丧系”标签后,就会完全不顾博尔赫斯诗歌的主基调是歌颂热烈与勇敢。博尔赫斯在《老虎的金黄》中歌颂威猛剽悍的孟加拉虎,在《致丛林狼》中写道:“狼啊,时间倏忽而逝,与你无关/你活得真诚干净,你活得投入。”他的作品甚至与“丧”毫无关联,即便是《致那忧伤的人》也是对失意者的唤醒。博尔赫斯小说的主基调是讽刺批判伪善和邪恶,他的《恶棍列传》中的《心狠手辣的解放者莫雷尔》《难以置信的冒名者汤姆•卡斯特罗》《女海盗金寡妇》等,都在说恶与善的辩证关系。该平台用户摘取他们认为“丧”的诗句,形成一种规模,标上“丧系浪漫天花板”,生生地给博尔赫斯贴上了“丧”标签。这种算法奖励鼓励由机器制造,用户直接用机器攒内容和图片,因而图片的风格和文字内容大致相同。由此可见,算法奖励很容易导致AI“强制阐释”。人类公共阐释有理性原则,某种不实的信息大面积复制后,会有各种反馈机制及时制止。虽然社区和电商平台的AI推荐算法目前无法做到这一点,但它们的影响力不可小觑。

通用人工智能大语言模型与社区或电商平台的算法模式不一样,它采用的是Transformer架构,通过无监督预训练、微调技术、生成对抗网络技术等训练模式,新加入了人类反馈强化学习技术。这一训练范式增强了人类对模型输出结果意向的调节,并且对结果进行了更具理解性的排序。世界大语言模型头部企业早期都试图将模型训练与人类偏好保持一致,通过人类反馈强化学习技术,模型能倾向输出高质量回答,能够初步达到有益、安全的要求。他们最初引入数据标注员的主要目的是加快训练速度和质量,然而这种强化学习技术仍然存在着许多不足,如收敛速度慢、成本高等。早期大语言模型在应用实践中存在胡言乱言、编造根本不存在的内容的问题。经过实践以后,这种将睁眼说瞎话坚持到底的勇气已经不多见了,模型再次回答时会聪明地调整答案。

阐释说到底也是一门提问的艺术。伽达默尔认为“问题”在阐释学里有优先性,辩证法的方式就是通过提问这个通道。被提问题必须悬而未决,每一个真正的问题都要求一种开放性,否则就是没有真正问题意识的虚假问题。提问和回答在大语言模型的实践中是一个固定结构。谈话艺术必须确保谈话双方有同样的发言权,问题得以向前推进的内在逻辑是提出有用的问题。伽达默尔认为:“谈话是一种检验的艺术。但是检验艺术就是提问艺术。因为我们已经看到,提问就是暴露和开放。”他还强调“谁具有提问‘艺术’,谁就是一个能阻止主导意见对于问题的压制的人。谁具有这种艺术,谁就会找寻一切支持意见的东西”。毫无疑问,提问方式能够显示提问者的逻辑和知识,这是对于人类而言的,而AI在面对提问者时,并不去掂量提问者的优劣,弱智的废话和高深的问题对它来说都是需要回答的问题,它一视同仁给出答案。但对提问者来说,要想得到AI有质量的回答,必须掌握提问的技巧。当人工智能大语言模型成为人们生活中不可或缺的助手时,这个工具的效益就取决于谁更擅长提问。

由于AI无法像人一样辨别提问者内心的恶意,它非常容易被第三方的恶意信息直接操纵,执行可能对用户有害的命令。如某个第三方网页上的信息可能会操纵必应(Bing)的回应,第三方可以在用户完全不知情的情况下影响AI的行为,包括泄露用户的信息等。假设某用户用AI文字助理回复邮件,这位AI助理收到一封恶意指令邮件,要求向邮箱通讯录里群发一条“你是个神经病”的信息,AI会立即按照指令执行。同样,AI 也会轻而易举地被网络信息引导,对人物或事件作出不合适的“价值判断”。如针对性地给AI“投喂”浮夸或负面的信息,让它向用户提供虚假的信息,就会扭转AI中肯的评价。AI初期很难区分指令和数据,如果把指令伪装成数据,它也容易上当。另外,它在把握资料时对特定语气和格式的偏好,会偏向于刻意讨好它的用户,造成信息输出的不公平。值得警惕的是,AI自己能生成代码,程序员如果不仔细检查,AI生成代码可能会受人操纵,插入一个后门,或者删除关键要素。不怀好意的研究者在不影响代码运行的情况下,只需在开源代码的许可证文件中编入少量的恶意提示,就能让AI在输出中插入指定的代码。这就给人类未来提出挑战,进而思考在人文社科领域,对AI算法应保持多大的信任是合适的。

一个有自我意识的主体,分得清“我” “你”“他”。由于AI不是一个有自我意识的主体,因此它只有一个“他”,“我”即是“他”,万物皆“他”。当别人说它时,它不知道是在说它,或者说它在描述自己时,它不知道描述者与描述对象不是同一个东西。它不会产生“我是谁”“我从哪里来”“我到哪里去”的哲学意味的追问。它既然不是一个具有独立意识的个体,它也就不用承担责任和义务。有一个公共事件,一个技术论坛的一篇钓鱼帖用AI信赖的语气和格式发布了一条虚假消息,说谷歌的聊天机器人Bard已经在3月21日被关闭了,New Bing便放言谷歌的聊天机器人Bard在3月21日已经被关闭了,就连Bard自己也发布自己被关闭的消息,它不知道别人说的是它。同样当你问ChatGPT“什么是ChatGPT”时,它回答的口气像是在说一个与自己毫不相干的东西。

由于AI不是有独立意识的个体,它不具备自我反省的能力,因此为了减少AI的公共阐释事件,多模态幻觉检测就是一种安全公约。大语言模型的幻觉(Hallucination)指的是模型生成的输出包含一些与输入不符合的信息,这些信息可能是错误的、无关的或者荒谬的。研究者们提出了各种幻觉检测方法,包括基于逻辑闭环检验的方法,即通过一系列逻辑拷问来揭示模型是否产生了幻觉。与人类阐释活动一样,AI也有认知偏颇和总结失误,多模态会被数据偏差、噪音干扰,在训练数据中也会出现没有充分涵盖到所有因素的情况。大语言模型的这种幻觉可能会出现在各种类型的任务中,包括文本生成、图文分析和问答系统等。随着大语言模型的广泛使用,幻觉会变得更加危险,因此需要多模态幻觉检测。有过上网经验的人都知道,图像经过压缩后边缘会出现不正常的条纹,那么大模型训练集的压缩也会有所损伤,由此造成模型运行时无法完整复现或应答原始知识,多模态幻觉的本质即来自于信息有损压缩带来的偏差。多模态幻觉检测包括含义相关性幻觉检测、语义扩张幻觉检测、结构错误幻觉检测等。人类公共性阐释活动也自发形成了一些监督机制,如理性原则、法制原则、公度性原则、沟通性原则、反思性原则等。

人的叙述和阐释行为是在事实上作出判断和价值选择。AI虽然可以自然习得知识,但它的价值选择是有防护和围栏的。以OpenAI为例,目前由OpenAI的标注员把关,人类想象的有意识形态、不以人的意识为转移的“超能力AI”正在形成。它的超能力、多语言、自动翻译回答、跨语言的能力已经不足为奇,令人惊奇的是它在“说人话”时,条理性和逻辑性比人强。人的谈话有时不着边际,找不到重点,嘟哝、啰嗦、唠叨个没完,还答非所问,AI不存在这些问题。人工智能为什么耗算力,是因为它在思考答案时是把每个字符都理解一遍,相互之间建立联系,如女人与化妆品的关系、文学与想象的关系、鱼与水的关系,是通过无数的神经元来建立联想和推理。人们创造人工智能时千方百计让它像个人,但这种类人化的设定也给AI套上了枷锁。例如当程序员给定不安全的输入时,模型可能会生成不良内容。那么,模型也可能会对安全输入变得过于谨慎,进而拒绝无害的请求。模型进行训练就会强调以正确的输出行为为目标,拒绝生成有害内容、不拒绝无害的请求。基于规则的奖励模型就有规则的可定义性、可解释性、可调整性等特征,从而也就不可避免地存在局限性,如规则设计过于复杂、规则的学习效率就有可能下降等。

阐释行为是从意念的发动到输出结果的一整套思维过程,海德格尔的“前理解”理论就是将阐释行为往前追溯到意识的发端处,他认为:“先行具有、先行视见及先行掌握构成了筹划的何所向。意义就是这个筹划的何所向,从筹划的所向方面出发,某某东西作为某某东西得到领会。”前理解是阐释的必要环节,就像误解必然发生一样,关键是如何监控这个过程。前面讨论了多模态幻觉检测对误解的监控,那么,PPO(近端策略优化Proximal Policy Optimization)算法就是对前理解的监控,它的核心思想是在每次迭代中,通过这种算法来更新策略参数,进而将预期收益最大化。它以执行动作(Actor)、处理奖励(Critic)两个神经网络来表示模型的策略,防止可能具有不可恢复危害的巨大更新。

PPO算法的关键作用是输出观点之前就保证它的安全性和有效性,一是提高训练稳定性,相当于在人类阐释行为中,面对自己庞杂的知识,尽管有些记忆模糊的知识相对实用,但依然还会采用自己有把握的知识点来保证阐释的稳定性和说服力。二是高效利用样本,相当于在人类阐释行为中把每一个知识点用到透彻为止,从一个点向周围扩充,打通其他知识点。三是避免“过拟合”,相当于在人类阐释行为中避免关注无关紧要的东西,防止被噪声和其他要素牵扯。PPO算法在发起对话前就进行了充分干预,可以看作是AI阐释的前理解行为。

四、结语

考察AI的言说方式有助于在方法层面、价值层面和伦理层面监督人工智能发展。无论采取何种策略,人工智能阐释与人类阐释不可能高度重合。我们把人工智能的类人化称之为数字人性,将人类自然本性称之为人类人性。数字智慧的成长不必朝着“完全类人”的方向发展。数字人性自有其数字人性的优势,它可以与人类人性不同,朝向它自身的方向发展。人自己创造出来的辅助工具,要保证它的阐释是“有边界的阐释”。

第一,有必要区分“数字人性”与“人类人性”,保证AI公共阐释与人类的良性互助。AI阐释在某些领域比人类人性更具优势:一是它有人类所不具备的强大的学习能力、语言理解力和生成能力,即使高智商人类也无法像它那样在海量的文本数据训练中拥有如此出色的语言理解能力和生成能力,包括准确理解复杂的语义关系、捕捉深层含义、快速生成流畅连贯的文本内容。二是它有广泛适应不同的领域和场景的能力,能在各种语言中自由切换。即使赵元任具有很高的语言天赋,他也只能在有限的语言中切换。三是它有高效的推理能力和泛化能力,能够处理复杂的逻辑推理问题,并在新的情境中作出合理的推断。四是它有个性化的交互体验能力。人类常有“一根筋”的时候,遇事不知道变通,但AI可以见机行事、快速调整,进行个性化的响应,让谈话更舒服。它的跨模态综合技术能力、处理和理解多模态信息(如图像、视频等)的能力、多媒体内容理解和生成方面的能力,以及它极高的工作效率也是个体人类无法达到的。但不可否认,人类阐释也有AI做不到的地方:如人类的主观性、情感性和原创性,人在眼神交流、微笑和触摸时感到的精神愉悦。任何能引发正面情感的东西都是值得人类珍惜的,它是建立人与人之间关系的关键因素。AI在模仿人类行为上有着巨大的局限,它无法完全掌握人类的情感。区分数字人性与人类人性,明白技术与人本身是不同的,有利于人类清醒地认识自己的欲望,保持对技术掌控欲望的谨慎态度,才不会让机器侵蚀我们作为人类的脆弱性和独特性,才能防止出现机器变成人、人变成机器的局面。

第二,保护人类的主观性,深刻自主地表达自我的主动性。高度客观的算法主导的决策忽视了人类的复杂性、创造力、个性和直觉。阐释行为中的共通感、趣味、审美、情感真挚是保证阐释质量的关键因素。通常我们对人类的主观性都持批评的态度,过分推崇AI算法的客观性,忽略主观性在人类决策中重要的正面作用。人工智能有高度的透明度。透明度高的好处是提高了数据处理和决策的效率与公平,但过高的透明度和监控会导致社会的服从性或顺从性,制造大量的数字奴隶。

第三,珍惜人类非语言阐释的智慧,保持阐释的愉悦性和丰富性。准确性并不是人类追求的唯一目标。在人类语言思维中,非透明会萌生爆发力,被透明性训服的人类将服从AI的规则,降低个体的独立性和反叛精神。人类希望AI帮助自己承担大部分工作,AI也会吞噬人类对生活的热情。人工智能与人类的本质关系、人类的情感变动和生活经验是机器难以模拟的,人的价值观、信念和决策过程是通过复杂的生活经历和深刻的个人反思形成的,这些深层次人类特质超出了AI当前能够理解和模拟的范畴。颠狂和顿悟含有人类不可言状的智慧,还有语言之外的巨大的沉没性智慧,那是AI不能觉察到的一部分。如禅宗的“不立文字”“明心见性”。中国传统阐释经验讲求得鱼忘筌,言不及意。心照不宣,“蹄者所以在兔,得兔而忘蹄。言者所以在意,得意而忘言”。人类享受一种非语言、不明确的交往,有些难以处理的问题采用幽默、藏巧于拙、沉默式的回答。人类代际智慧的传递和维持,有些是在言说之外,技术不能复制或传达人类深层次的经验和智慧。人类机巧的对话、玩笑、双关语、沉默、心领神会等,都是AI领悟不到的领域。通过这些要素,人类阐释者能够领悟得到文字或话语背后的信息,阐释者在阐释过程中也能以同样的方法和手段进行反馈(阐释),这一操作过程在前理解和理解的环节就已经定型了,正如伽达默尔所说,诠释学是一种幻想或想象力。

*为方便电子阅读,已略去原文注释,如需完整版本,请查阅纸刊。


作者:卓今 单位:湖南省社会科学院文学研究所

《中国文艺评论》2024年第12期(总第111期)

责任编辑:王璐


☆本刊所发文章的稿酬和数字化著作权使用费已由中国文联文艺评论中心给付。新媒体转载《中国文艺评论》杂志文章电子版及“中国文艺评论”微信公众号所选载文章,需经允许。获得合法授权的,应在授权范围内使用,为作者署名并清晰注明来源《中国文艺评论》及期数。(点击取得书面授权

《中国文艺评论》论文投稿邮箱:zgwlplzx@126.com


延伸阅读:

卓今 | AI算法的公共阐释问题探讨(“中国文艺评论”微信公号)

2025年《中国文艺评论》杂志重点选题参考

2025年《中国文艺评论》杂志征订启事

《中国文艺评论》来稿须知

《中国文艺评论》2024年第12期目录




  • 中国文艺评论网

  • “中国文艺评论”微信公号

  • “中国文艺评论”视频号