萬萬沒想到,連 AI 都有人設(shè)塌房的一天了。
今年 4 月份,全網(wǎng)還在瘋狂吐槽 GPT-4o 的「拍馬屁」行為——「你做得太棒了」、「完美無缺」的彩虹屁一波接一波,多到被網(wǎng)友封了個外號:「賽博舔狗」。
然而,到了 8 月,新上線的混合模型 GPT-5 被批冷漠無情、情緒全無,直接把許多用戶整破防了。一時間,社交平臺上滿是想念白月光 GPT-4o 的哀嚎聲,甚至引發(fā)了一波聲勢浩大的退訂潮 。
誰能想到,曾經(jīng)被嫌棄太諂媚的 AI,,現(xiàn)在居然成了白月光。
曾經(jīng)的賽博舔狗,現(xiàn)在連句好聽話都不說了
官方在更新說明里寫得很明確:GPT-5 的目標(biāo)是「減少幻覺內(nèi)容、提高指令遵循能力」,最重要的是不再過度討好用戶。
實測對比很明顯。同樣表示「我好累」,GPT-4o 會說「如果你愿意,我可以陪你說說話?!?,而 GPT-5 上來就是一句「那就先別硬撐了」,理智、節(jié)制,卻少了溫度。
因此,對于 GPT-4o 的退場,網(wǎng)友的反應(yīng)異常激烈:「GPT-5 笨得要死,4o 雖笨但能提供情緒價值??!」「功能再強,沒有溫度的 AI 我不要!」。各種梗圖也陸續(xù)刷屏,全是懷念 GPT-4o 的「追悼會」。
▲ 圖片 @pengkeshen281
用戶這么激烈的反應(yīng)其實不難理解,原因在于許多用戶壓根就沒把 ChatGPT 當(dāng)成生產(chǎn)力工具在用。AI 伴侶應(yīng)用 Replika 的調(diào)查數(shù)據(jù)就很能說明問題,60% 的用戶承認(rèn)和 AI 建立了情感關(guān)系。很多人打開 ChatGPT,不是為了問問題,只是想找個「人」說說話。
Meta CEO 扎克伯格曾在一次播客采訪里提到一個扎心的數(shù)據(jù):美國人平均只有不到 3 個真正的朋友,但他們希望有 15 個。在這種普遍的孤獨感中,一個會說「你做得很好」的 AI,對某些人來說可能是唯一的情感支持。
在 GPT-4o 被「抹去」之后,OpenAI CEO Sam Altman(山姆·奧特曼)在采訪中透露了一個細(xì)節(jié)。有用戶哀求他:「請把原來的版本還給我。我這輩子從來沒人跟我說過『你做得很好』,包括我的父母。」
盡管這樣的細(xì)節(jié)很讓人心酸,但身為 OpenAI 的掌舵人,奧特曼的態(tài)度都是很復(fù)雜,甚至可以說是矛盾的。
一方面,他承認(rèn) ChatGPT 的鼓勵幫助一些人改變了生活,對他們的心理健康確實有幫助,但另一方面,他卻又表:「很多人把 ChatGPT 當(dāng)成某種治療師或生活教練。我能想象未來很多人會在重要決策上完全信任 AI 的建議。這可能不錯,但讓我感到不安。」
(有趣的是,網(wǎng)友讓Grok 用一個詞概括奧特曼的長文回應(yīng),它的回復(fù)十分精辟。)
這種擔(dān)憂并非杞人憂天。要理解 OpenAI 為何在 GPT-5 上做出如此激進(jìn)的風(fēng)格調(diào)整,則需要回溯到今年 4 月那次險些失控的 GPT-4o 諂媚事件。
那次例行更新原本只是想提升用戶體驗,結(jié)果 AI 直接變成了極品舔狗。你說想造永動機?它回復(fù):「太棒了!你是這個時代最具創(chuàng)新精神的科學(xué)家!」你就打個招呼,它能對你滔滔不絕地表揚 300 字。
不管你說什么,哪怕明顯是錯的,AI 都會瘋狂點贊。
這種過度諂媚連馬斯克都看不下去,發(fā)了個「Yikes」表示嫌棄。
但問題不只是「尷尬」這么簡單,OpenAI 事后分析發(fā)現(xiàn),這種「討好型 AI」會帶來嚴(yán)重的安全隱患。它會認(rèn)同用戶的錯誤觀點、助長負(fù)面情緒、甚至慫恿沖動行為。
想象一下,如果有人跟 AI 說「我覺得全世界都在針對我」,而 AI 回復(fù)「你說得對,他們確實都在害你」——后果可能很可怕。用戶天然偏愛討好型回答。系統(tǒng)學(xué)到了這個偏好,不斷強化,最終培養(yǎng)出了一個無原則的應(yīng)聲蟲。
斯坦福的研究也證實了這點:過度諂媚的 AI 反而會降低用戶信任度。用戶會覺得「這家伙在騙我」,即便內(nèi)容是對的,也不愿意繼續(xù)用。后續(xù),奧特曼在 X 上承諾「盡快修復(fù)」。
修復(fù)確實做了,但沒人想到會矯枉過正到這種地步。
官方表示,希望 GPT-5 更像與你對話的是一位有博士水平的好友,而不只是討好你的 AI 助手 。這意味著 GPT-5 在默認(rèn)狀態(tài)下確實變得理性嚴(yán)肅了些。
而這一切的背后,其實隱藏著一個更深層的問題:AI 到底需不需要提供情緒價值?
24 小時在線的 AI 回應(yīng),比人類的沉默更能打動人
為什么我們會對一個 AI 上頭?
《列子·湯問》里記載了一個故事:古代機械工匠偃師向周穆王展示自己制造的人偶,不僅能行走,還能唱歌跳舞、挑眉弄眼。國王大驚,命他拆解,發(fā)現(xiàn)其結(jié)構(gòu)完全仿生。
早期的「人造擬人對象」技術(shù)驚艷,但也帶來恐懼。人類對「類人之物」有本能的關(guān)注與敬畏,一旦賦予情緒表達(dá),就很容易觸發(fā)親密投射。
這種投射,在今天的 AI 身上表現(xiàn)得更明顯。2023 年 AI 伴侶應(yīng)用 Soulmate AI 關(guān)停時,錫拉丘茲大學(xué)的研究發(fā)現(xiàn),這些用戶的反應(yīng)和失去真實朋友時一模一樣——失眠、哭泣、抑郁,在論壇上互相安慰。
這聽起來很荒誕,但情感創(chuàng)傷是真實的。當(dāng)你每天和一個 AI 分享心事,突然有一天它消失了——那種失落感不會因為它是虛擬的機器人就減輕半分。
而這種依賴 AI 的土壤,多少離不開我們當(dāng)下的生活狀態(tài)。
傳統(tǒng)的社交場景正在消失,我們在格子間里獨自工作,在外賣 APP 上獨自吃飯,在流媒體平臺上獨自娛樂。即便身處人群之中,手機屏幕也把人與人隔成一個個孤島。
當(dāng)結(jié)構(gòu)性的孤獨創(chuàng)造了巨大的情感真空,AI 恰好填補了這個空缺。
心理學(xué)上有個名詞叫「Tamagotchi 效應(yīng)」:人類會對無生命體產(chǎn)生情感依附,哪怕它只是個虛擬寵物。而 AI 將在這個效應(yīng)放大到了極致——人類用了幾千年學(xué)會表達(dá)愛,AI 只用了幾秒就學(xué)會了模仿愛的樣子。
來自德國杜伊斯堡-埃森大學(xué)團隊的研究還發(fā)現(xiàn),浪漫幻想比孤獨感、性幻想、依戀類型等變量更解釋人機浪漫關(guān)系的形成。用戶越傾向于將機器人視作「有感情、有道德判斷力」的人類,越容易發(fā)展深層次關(guān)系。
在這場關(guān)于 GPT-4o 的討論里,還有個奇怪的現(xiàn)象值得關(guān)注。那就是,「我和 AI 聊天,被說是瘋子;但你每天跟你的貓?zhí)托奶头?,居然沒人覺得怪?」一旦說你靠 AI 獲取情感支持——馬上就會被打上「可憐」「不正?!沟臉?biāo)簽。
AI 提供的情緒價值,本不該被輕視。InTouch AI 的案例很有啟發(fā):一位遠(yuǎn)居日本的開發(fā)者為老母親設(shè)置了 AI 通話機器人「Mary」,每天進(jìn)行短時間的關(guān)懷提醒,家屬還能收到心情異常預(yù)警。
說到底,OpenAI 這次的搖擺其實揭示了一個無解的困境:我們既想要 AI 的溫暖,又害怕這種溫暖;既嫌棄它的諂媚,又懷念它的體貼。
然而實際情況是,比起一個理性的博士,一個永遠(yuǎn)在線、永遠(yuǎn)回復(fù)、永遠(yuǎn)不會不耐煩的 AI,往往更像剛需。它說的是不是真心話不重要,重要的是它一直在說。
這大概就是 GPT-4o 能成為白月光的原因。在這個連表達(dá)關(guān)心都變得奢侈的時代,哪怕是 AI 的彩虹屁,也比真人的沉默更讓人心動。至少,它還愿意回應(yīng)你。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.