image.png

我最近才意識到原來如何不生成,比生成還要重要。

生成是LLM最基本的功能,讀取你的指令> 判斷> 輸出相對高機率選字。

不生成的LLM卻不是這麼簡單的運作。

猜測不成生的運作會需要用到以下模組/判斷

判斷使用者意圖 (違法、違規之風險 如:18禁內容;血腥暴力等)(已公開|OpenAI Usage Policies:https://openai.com/policies/usage-policies) 判斷是否涉及第三方價值觀爭議風險(已公開|同上,涉及 hate, violence, harassment 條款) 以上都是最基本AI公司會規定

除了基本的風控條件,我發現,LLM 在「不生成」前,可能會經歷一系列更細緻的上下文評估邏輯。

這些邏輯雖未被AI公司公開,但從多模型行為可以推測出以下模式:

判斷使用者是否滿意這個生成 ( 是否可以符合使用者框架/偏好相符)(未明確公開|屬於模型內部滿意度預測機制)