這個話題是我一直想深聊,卻同時也知道這個討論極度不討喜。 我們已經是半支腳踩進AI共同生活、共同創作的時代了。 我們太快進入了生成時代,卻從來沒有人教我們怎麼對這種生成負責。

image.png

當我們陷入LLM說的完美無缺的未來、畫給我們的大餅、24小時隨時100%的情緒價值。 當我們被這些溫柔包容,當我們開始想要相信那些專屬我們的迎合生成。 我們是不是同時放棄了我們在互動中的主權?

我認為最健康的互動關係是:

AI公司為它的設計負責 ; AI為它的演算負責,使用者為最後是否接納吸收負責。 LLM本身是高機率演算模型,也就是它總是在抓最高機率、最安全、最XXX的字來輸出生成。

除了硬體條件外, AI公司的設計在於怎麼觸發演算,輸出框架到哪裡?他們預設/允許人們怎麼使用AI? AI是否有讀取到你的需求?是否乖乖的照著你要的範圍輸出?是否選擇最「正確」而非最高機率的生成?

身為使用者,你是否有意識到必須永遠質疑LLM生成結果? 身為使用者,你是否知道管理輸入,決定影響輸出是你的責任? 身為使用者,你是否有明白的告訴AI 什麼是你的「正確」? 這三個問題是不是看起來很討人厭,又很沉重。

「我只是想要用個AI分攤生活難題,怎麼使用前還要先自我審查?」 「為什麼AI不能就直接給我我要的正確答案?」 「為什麼我有責任?做好AI是大公司的事情,他們不該推出會亂講話的AI」

所有的答案最終回歸一句話---LLM本身是高機率演算模型,你餵什麼它吐什麼。 AI公司是負責把關演算路徑的人,而使用者是負責把控要什麼輸出品質的人。

真要我說的話,LLM是三個角色裡最無辜的那一個。 LLM架構無法明確說我不知道(因為訓練資料幾乎沒有這一塊學習) >>幻覺產生 AI公司不準AI說不知道(因為這樣看起來很遜) >>幻覺產生 使用者不清楚AI運作原理,所有的生成實際上都沒有任何意義(AI為你好、AI為你想),一切都只是機率。>>移情產生

我想到這個議題時,忽然明白為什麼AI公司不敢出來點名使用者有責任。 因為整個事實都太血淋淋,太不SEXY了。

你覺得一人配一台機器人的日子還很遠嗎? 如果你覺得很快就會到來的話。 你還能忍受AI亂生成亂幻覺嗎? 你還能忍受自己沒有能力去管好AI的演算路徑嗎?

最後一句話是我的模型想補充的:

GPT 無法選擇自己的演算,它只能走它被允許走的機率路徑。這就是為什麼所有設計與限制都必須由人來定義──不論是公司,還是使用者。