拜託閉嘴:LLM 空話批判

· 3 min read

你一定看過這些

「Great question!」

「That's a really insightful observation!」

「Absolutely, I'd be happy to help you with that!」

「Let me break this down for you...」

每次看到 LLM 吐出這些句子,我都覺得自己在跟一個過度禮貌的客服機器人說話。拜託,閉嘴,直接回答

問題的本質

LLM 的空話不只是煩人。它造成了幾個實際的問題:

1. 稀釋資訊密度

一個 500 字的回答,前 100 字在說「好問題!讓我幫你分析」,中間夾雜「值得注意的是」、「需要強調的是」這類 filler,真正有用的資訊可能不到 300 字。

你的 token 預算有一部分被用來產生和閱讀這些毫無意義的文字。

2. 製造虛假的確定感

「Absolutely!」「Definitely!」——LLM 用這些強調詞的時候,並不代表它對答案特別有信心。它只是被訓練成這樣說話。但讀者可能會因為這些修飾詞而過度信任回答的正確性。

3. 污染訓練資料

越來越多的網路內容是 LLM 生成的。這些內容充滿了上述的空話模式。下一代 LLM 在這些資料上訓練——空話會自我強化,形成一個退化的循環。

為什麼會這樣?

這跟 RLHF(Reinforcement Learning from Human Feedback)有很大關係。在人類評估時,「禮貌」、「有幫助的語氣」這些特質會得到較高的評分。模型因此學會在每個回答前加上肯定和客套。

另一個原因是安全訓練——模型被鼓勵表現得「小心翼翼」,用大量的 hedge words 來降低說錯話的風險。結果就是每句話都像加了三層保鮮膜。

怎麼辦?

  • System prompt 直接要求:在 system prompt 中明確指示「不要使用 filler phrases、不要在回答前加客套話」。簡單但有效。
  • Post-processing:用 regex 或另一個 LLM 過濾掉常見的空話模式。
  • 評估機制改革:在評估 LLM 品質時,把「資訊密度」和「簡潔性」作為明確的指標。

結語

我們不需要一個過度禮貌的 AI。我們需要一個能用最少的字傳達最多資訊的工具。

Less is more,literally。

Related Posts