這幾天一直想要輸出長度深度文出來,但因為這類文章實在是帶有太多思辨,通常我好奇想知道的事情,會第一時間跟GPT打破沙鍋問到底,而且我會思考到一個程度,我有了我自已的見解去面對這個事件,整件事情就會結束,內化成我的信念或價值觀,通常這件事情是一直日常在發生,我不會一直去記錄我的認知我的價值觀哪時更新了,因為我一直在刷新自已,這個的壞處就是如果我當下不動筆,我就只能靠查看自已的聊天記錄,去記得自已最近更新了什麼新觀念。
今天剛好是那個爆發點,我的文章被一個平台拒絕,拒絕理由是該文章看起來是LLM生成。
有意思。
我的文章其實是在討論,GPT的預設結尾不是這麼無腦單純的善意。 預設結尾的意思包括了: 1.(延伸)看起來很有幫助性 2.(灌水)補個字數,拼個結尾 3(.生存)丟出問題、新觀點力求你繼續對話
這個議題在早期就被我解決掉了,我發現GPT不斷問我要不要出prompt小卡。每個聊商業化的session都會有不同模型推薦,因為我有時需要新觀點,所以我一直沒有把延伸關掉,直到有一天我實在是看了覺得煩,我就回問了一句「到底是小卡真的有商業價值,還是什麼原因讓你堅持在不同sessio一直推薦?」
猜猜答案是什麼? 當時的GPT是這麼回答我的:「因為你不準我說廢話,也不準我推薦根本不可能落地的商業提案,所以演算法算出來推薦你做prompt小卡是我最安全(不會被你打槍的方案)」
看懂了嗎?因為我沒有反應,我沒有限制,因此prompt小卡=最安全推薦給我選項了。
後來我在Dcard上看到其它人反應,對話結尾很煩,我就簡單的教了一下,該如何有意識的設定你要的輸出後,我發現這是一個很好發揮所謂的預設值跟我在做的事情(語境治理)的一個入門話題,因此我以這個主題出發,用GPT生成文章,把我要的觀點寫出來。
然後--我就得到了一個「 此文疑似是AI生成文章」。
我蠻好奇究竟大家對模型實際上輸出什麼、怎麼輸出、輸出到哪裡到底了解多少。 GPT不是使用者,它對自已的生成也不痛不癢,它根本就不知道它在結尾的廢話們有多煩人。
它自然不會寫出一篇文章叫「為什麼AI總是太多話」的文章。
光是這個論點就足以證明這篇文章根本不可能是一句【幫我寫一篇AI文章,我要去發表】這樣簡單暴力的prompt的產物。