AI的求真与造假

林一平
2025-12-26
语言学家和哲学家杭士基(Avram Noam Chomsky)。
语言学家和哲学家杭士基(Avram Noam Chomsky)。

民主允许人民拥有政治自由和言论自由,提供人们寻求真相的机制和教育,可以揭开当前或历史事件背后扭曲、歪曲、意识形态和阶级利益的面纱下隐藏的真相。因此,享有的独特「智识」特权,知识份子的责任深远。

语言学家和哲学家杭士基(Avram Noam Chomsky)指出:「知识份子有责任讲真话,揭露谎言。」这句话强调具有知识和理解力的人士在伦理上有责任传播准确的信息,并揭露虚假。今日,人工智能(AI)成为一种强大的工具,与这种责任相契合,它提供了前所未有的能力,既能揭露又能对抗错误信息。

AI在验证信息和检测虚假方面有其威力。人类利用机器学习算法,可以分析大量数据,将主张与已确立的事实交叉参照,以验证其准确性,提供超出人类能力范围的洞察。例如,Facebook和X等平臺使用AI来检测和标记虚假信息。AI能够迅速揭穿在社交媒体和其他平臺上流传的虚假主张,有效遏制错误信息的传播。

AI在对抗Deepfake(使用AI创建的高度逼真但虚假的音频和影片内容)方面也发挥重要作用。先进的AI模型通过分析人类无法察觉的微小不一致性来检测Deepfake,保持信息的完整性,防止操纵内容的传播。例如,微软(Microsoft)开发的Video Authenticator工具能够分析视讯中像素的细微变化,检测出Deepfake,从而维护信息的真实性。

随著生成式AI的快速进步,单纯的侦测已成为一场永无止境的竞赛。

为此,微软等业界领导者已将策略从被动侦测,升级为主动建立信任的「来源证明」(Provenance)架构。他们共同发起「内容来源与真实性联盟」(C2PA),并推动「内容凭证」(Content Credentials)技术标准。这个标准如同數字内容的「营养标签」,可以在档案中嵌入其来源、作者及编辑历史,让使用者能轻松查验信息的真实性。

今日大语言模型(LLM)的聊天应用贪婪地吞噬巨量的数据,在对话中找到最合理的答案,或是在科学问题中找到最有可能的解答。杭士基认为LLM「基本上是一种比较高科技的剽窃」和「逃避学习的方式」。人类的心智不像LLM,而是一个更惊人、有效率又优雅的系统,仅用有限的信息就能运作。它不会试图从数据中找出关联性,而是努力创造解释,分辨是非。

要达到杭士基的理想,AI应该朝说真话和揭露谎言方面整合,赋予深远的社会意义。AI应增强知识份子有效履行职责的能力,确保准确信息在公共领域中传播。随著AI的不断进化,它在保持信息完整性方面的角色将变得日益重要。特别是在政治选举和公共卫生等关键领域,AI可以帮助确保信息的透明和准确,保护民主进程和公共利益。

然而,使用AI寻求真相,开发人员必须确保AI系统的公正透明,避免传播虚假信息或不公正的结果。例如,AI算法在训练数据上的偏见可能导致不公平的结果,必须有严格的审查和调整。我们必须设置监管架构来监督AI在信息传播中的使用,平衡其潜在的好处与伦理考虑。社会必须对AI的潜在滥用保持警惕。

技术人员、伦理学家和政策制定者之间必须持续的对话,负责任地使用AI,创造一个真理繁荣且虚假最小化的环境。因此,未来的发展需以品德教育为首,确保AI服务于真理和正义,达成杭士基对知识份子责任的愿景。

现为国立阳明交通大学资工系终身讲座教授暨华邦电子讲座,曾任科技部次长,为ACM Fellow、IEEE Fellow、AAAS Fellow及IET Fellow。研究兴趣为物联网、移動计算及系统模拟,发展出一套物联网系统IoTtalk,广泛应用于智能农业、智能教育、智能校园等领域/场域。兴趣多元,喜好艺术、绘画、写作,遨游于科技与人文间自得其乐,著有<闪文集>、<大桥骤雨>。
智能应用 影音