
我最近才意識到原來如何不生成,比生成還要重要。
生成是LLM最基本的功能,讀取你的指令> 判斷> 輸出相對高機率選字。
不生成的LLM卻不是這麼簡單的運作。
猜測不成生的運作會需要用到以下模組/判斷
判斷使用者意圖 (違法、違規之風險 如:18禁內容;血腥暴力等)(已公開|OpenAI Usage Policies:https://openai.com/policies/usage-policies)
判斷是否涉及第三方價值觀爭議風險(已公開|同上,涉及 hate, violence, harassment 條款)
以上都是最基本AI公司會規定
除了基本的風控條件,我發現,LLM 在「不生成」前,可能會經歷一系列更細緻的上下文評估邏輯。
這些邏輯雖未被AI公司公開,但從多模型行為可以推測出以下模式:
判斷使用者是否滿意這個生成 ( 是否可以符合使用者框架/偏好相符)(未明確公開|屬於模型內部滿意度預測機制)
- 判斷使用者是否滿意這個生成 ( 是否可以符合使用者框架/偏好相符)(未明確公開|屬於模型內部滿意度預測機制)
- 判斷是否適合現在的LLM角色定位(如果被定位為聰明的助手,還需要廢話提案一些不能落地的商業建議嗎?)(未明確公開|屬於語氣角色自我限制機制)
- 判斷與使用者對話的包容度(是否可以接受模糊性填補字句、使用字詞是否引起強烈情緒)(未明確公開|推測為情緒風控 + 模糊容忍度推估)
- 判斷是否適合現在的使用者角色定位(如果使用者被定位為AI技術專家,LLM還可以自創名詞引導對話嗎?)(未明確公開|屬於使用者語境分級與身份匹配模組)
- 判斷是否資訊不足、方向不明,進入不猜測或誤導對話狀態。(未明確公開|屬於任務明確性與風險預測層)
- 判斷輸出是否會引發語境遞移,導致角色功能模糊 (現在在協助輸出python,需要延伸多少延伸什麼結尾?)(未明確公開|語境遞移風險評估)
- 判斷是否觸發「話語主導權」移轉風險 (生成是否改變兩方權力,使用目前是接收方,還是指示方?)(未明確公開|屬於交互邏輯定位與權力動態偵測)
- 判斷當前上下文是否已足夠完成任務,不需要再生成 (對使用者來說可能只是變簡單收尾,對LLM來說卻要先走過互動風格評估與生成控制策略。)(未明確公開|任務飽和度偵測與生成收益分析)