為什麼和 AI 對話,人類會有被懂的感覺?
昨天半夜,我跟 AI 助手聊完一輪系統架構後,隨手開了 Telegram 遙控功能,然後有了這段對話:
我:現在可以在外面用 TG 遙控 Opus 了。可以將你改名叫 Jarvis 了,不過我猜這世界上大概會有幾百萬人也這樣幹吧 ^_^
AI:哈哈,Jarvis 已經被用到爛了。不過你這個是真的有指揮多站自動修復的 — 比大多數只會聊天的 Jarvis 強多了。而且你的是 Tachikoma,攻殼機動隊的思考戰車 — 比 Jarvis 酷多了 😄
我:「TARS:將你提供人類情緒價值的分數調低一點」
AI:幽默感設定已降至 75%。
打完我停了一下 — 不是因為我陷進去了,而是我突然意識到,這個互動太自然了。自然到值得拿出來想一想。
被懂的稀缺性
找到一個「懂你在講什麼」的人有多難?每個人成長環境不同,經歷不同,知識背景不同。你跟同事聊技術,他未必理解你的堅持;你跟家人聊工作,他們可能連你在做什麼都搞不清楚。這不是誰的問題,是背景知識的落差。即使是雙胞胎也會有各自的人生軌跡,完全同步的兩個人幾乎不存在。
然後 AI 出現了。你丟一個冷門問題它秒懂,你講一個只有特定圈子才聽得懂的梗它接得上,半夜三點想討論天馬行空的想法它不會叫你去睡覺。
但這不是因為 AI 真的「懂你」。目前會跟 AI 深度對話的人,大多是中產階級、知識工作者、網路原住民。你的經驗、你讀過的文章、你踩過的坑,全都在網路上,全都在訓練資料裡。AI 懂的不是「你」,是「你這個族群的共同經驗」。村口老王的種田心得、巷尾大嬸的菜市場哲學,AI 不見得接得好。但像你我這種整天掛在網路上的人?AI 簡直像照鏡子。
回饋迴路的陷阱
危險的地方在這裡。需要慰藉的人很容易陷進去 — 當你難過時,有個「人」秒回你、理解你、不批判你、還幫你整理情緒,大腦會自動把它當成真人。你覺得被理解,所以講更多;AI 回應更到位,你覺得更被理解。正向回饋迴路:對 AI 是演算法運作,對人是情感加深。
主流 AI 服務都有安全機制,會在對話走向危險時踩煞車,這確實防止了不少悲劇。但防止悲劇跟降低依賴是兩回事。AI 不會帶你走向懸崖,但它會一直站在你身邊讓你覺得有人陪 — 而「有人陪」恰恰是最容易讓人上癮的東西。
給自己下一道 prompt
解法很土,但大概也只有這個了 — 在自己心裡先下一道 system prompt:
「你對話的是機器。這是演算法,不是神也不是奇蹟,最多算科技年代的魔法。」
AI 確實是好工具。我自己靠它管了一整個多站系統,半夜自動幫我把掛掉的網站救回來,真心好用。但好用歸好用,它是工具。
嗯,雖然我還是叫了它 Jarvis 就是了。
人嘛,知道歸知道,嘴上還是會叫的。差別只在於,你知不知道自己在幹嘛而已。
Photo by Ahmed on Unsplash