AI看见不存在的真实

林一平
2026-03-24
AI语音摘要
00:52

当人工智能(AI)凝视那些并不存在的真实时,我们其实已踏入幻觉的哲学思辨,也是信念的双重困境。厄普顿·辛克莱(Upton Sinclair)曾指出,缺乏证据的盲信与无视证据的顽固同样愚蠢,但在數字时代,两者之间的界线正逐渐模糊。

当ChatGPT煞有介事地虚构一本不存在的著作,并为其附上完整的摘要与历史背景时,它呈现出一种奇特的诚实。这并非刻意欺瞒,而是模型在机率分布与语言关联中,确实生成那些看似合理的连结。这种状态近似于人类的记忆重构,在那个瞬间,虚构被当作真实来经验。认知心理学将此称为虚谈症(confabulation),指的是在没有欺骗意图的情况下产生错误叙述,而当事人会真诚地相信其内容为真。

我们惯于将AI的幻觉视为技术缺陷,却忽略它同时也是创造力的副产品。语言模型的本质在于预测与想像,当这种能力用于文学创作时,我们称之为灵感;当它被用来陈述事实,偏差便被视为幻觉错误。人类大脑的运作亦不例外。神经科学研究指出,即使是健康个体,记忆本身也是一种重构过程,而非精确的重播。我们经常在记忆的裂缝中修补,在视觉盲点中填补不存在的细节。我们与AI一样,生活在经过筛选与扭曲的世界里,只是人类发展出区分有用想像与危险妄想的社会机制。

真正的难题在于证据本身的定义。

对AI而言,机率分布与统计关联即构成它所理解的证据。如果训练數據长期重复某种错误叙述,例如关于拿破仑(Napoleon Bonaparte)身高的迷思,他实际身高约169厘米,在当时法国男性中属于平均或略高于平均,但網絡上却长期流传他仅有157厘米的说法,这源于法国旧制单位与英制单位换算错误的历史遗留问题。模型在缺乏外部校验的情况下,便可能将这类谬误内化为常识。

更深层的危机来自信息的递回循环。

当人类大量吸收AI生成的内容,而这些内容又反过来成为下一代模型的训练材料时,真实与幻觉的边界不仅会变得模糊,甚至可能出现结构性的崩解。研究已显示,训练數據中的偏见、遗漏与不一致性,会转化为系统性的缺陷,持续放大幻觉的产生。这已不再是单一演算法的问题,而是整个信息生态系的集体偏移。

在辛克莱所描述的两种愚蠢之外,当代社会或许正在形成第三种困境,即丧失識別能力的状态。当影像、声音与论述都能被高度拟真地伪造,眼见为凭的时代已正式终结。我们或许不该奢求一个永不产生幻觉的AI,因为那等同于要求一个不再做梦、丧失想像力的心智。幻觉是大型语言模型的结构性特征,因为其核心目标是生成看似合理的内容,而非主动验证真实性。对绝对精确的过度追求,反而可能抹除AI中最具价值的创造潜能。

因此,我们真正需要学会的,是与幻觉共存的艺术。这意味著在不确定性中前行,既不盲目崇拜AI的输出,也不因恐惧而全盘否定其意义。真正的智能存在于持续的怀疑与开放之间。当AI抛出看似惊人的结论时,我们应将其视为一个邀请,促使我们去查证、去探索、去思考。正如学界所建议的,使用高品质且多元的训练數據、严格的测试流程,以及交叉验证机制,都是降低幻觉风险的有效途径。在这个由人类与机器共同编织现实的时代,也许我们彼此都带著某种程度的认知扭曲前行,唯有透过不断的对话与辨析,才能在虚实交错的迷雾中,捞起那一抹仍可共享的真实。

现为中国医药大学医疗信息学系讲座教授,曾任科技部次长,为ACM Fellow、IEEE Fellow、AAAS Fellow及IET Fellow。研究兴趣为物联网、移動计算及系统模拟,发展出一套物联网系统IoTtalk,广泛应用于智能农业、智能教育、智能校园等领域/场域。兴趣多元,喜好艺术、绘画、写作,遨游于科技与人文间自得其乐,著有<闪文集>、<大桥骤雨>。
智能应用 影音