AI中毒是真的! Anthropic:仅250份文档就能「下毒」LLM
- 梁燕蕙/综合报导
在传统观点中,要想攻击或是污染一个具有庞大参数量的大模型(LLM)是一件非常困难的事。从训练数据入手攻击是常见的思路,普遍观念认为需要极大量的数据污染,而LLM越是规模庞大,污染所需的训练数据就越多,这与以往的LLM网安研究结论是一致的。
会员登入
会员服务申请/试用
申请专线:
+886-02-87125398。
(周一至周五工作日9:00~18:00)
+886-02-87125398。
(周一至周五工作日9:00~18:00)
关键字





