对过去的执著,常使人误以为昨日是一个可以重启的程序(rebootable program),仿佛只要回到某个储存点(save point)便能修正错误。然而,时间的核心机制是改写(rewrite),而非还原(restore)。每一次前进,都伴随著内在结构的调整。路易斯·卡罗(Lewis Carroll)在《爱丽丝梦游仙境》(Alice's Adventures in Wonderland)中,透过爱丽丝(Alice)之口说出那句著名的话:「回到昨天没有用,因为那时的我已是不同的人。她之所以无法回归原貌,正因其认知框架(cognitive framework)已被经验永久改变。」
将此观点延伸至AI发展,可以看到相似的逻辑。一个完成训练的AI模型,其昨日由固定的训练數據集(training dataset)与初始模型权重(initial model weights)所构成。在部署后,模型本身通常维持静态;唯有经过微调(fine-tuning)或持续学习(continual learning),它才会进入新的阶段。每一次有目的的再训练与迭代,都会不可逆地改变其内部参数结构。
人们往往期望AI的记忆,也就是其经训练形成的知识,是稳定且可预测的。然而,如同人类学习,AI的成长并非线性过程。新數據可能引入异常案例(anomalies),也可能挑战既有模式。一个大型语言模型(LLM)在不同版本间所呈现的细微输出差异,正反映其在再训练后参数(parameters)配置的调整结果。模型并非单纯重复过去的计算,而是在旧有基础上,经由新的训练周期,形成带有修正理解(revised understanding)的新状态。
这种不可逆的进化同时蕴含深刻风险。当AI吸收错误或带有偏差的數據,它可能朝错误方向演进,且难以回到一个所谓正确的昨日。正因如此,數據来源的选择、治理与监管显得格外重要。持续学习的路径如同单行道,一旦數據受到污染,后续修正所需付出的代价将极为高昂。
因此,对AI而言,真正的适应性并不在于固守一个被视为完美的过去训练集,而在于能否在面对模糊性与错误时,透过审慎的再训练与优化,生成更准确且更具弹性的回应。它的进化不在于静态保存所有信息,而在于能于每一次训练迭代中调整内在连结与权重,持续向前。它的昨日完成初始学习,它的今日则携带更新后的参数结构,在新的任务中延伸出新的知识。