AI 聊天能給情緒價值嗎?OpenAI:ChatGPT 重度使用者有孤獨隱憂

最近,OpenAI 與美國麻省理工學院聯合發表了一份關於 ChatGPT 使用行為與情感影響的研究報告,意外發現AI聊天的重度使用者中有一小群人可能產生相當明顯的依賴與孤獨感。他們在日常對話中不但把 ChatGPT 當作諮詢工具,更將之視為一種陪伴。研究顯示,在高頻率且長時間的互動下,某些人有可能陷入更深層的情感連結。這樣的使用趨勢是否會影響心理健康,值得我們進一步關注。

研究團隊蒐集了約四千萬筆 ChatGPT 平台真實使用紀錄,並要求部分受訪者填寫關於與 ChatGPT 情感互動的問卷;同時也進行了一項隨機對照實驗,邀請近千位參與者每天最少花五分鐘使用 ChatGPT 持續四週,以量測他們在孤獨感、社交意願、情緒依賴程度以及「有問題的使用情境」等指標上的變化。雖然這份研究尚未正式經過嚴謹的審查,但從目前初步資料來看,ChatGPT 與人之間的互動確實存在複雜的情感,主要有以下幾個面向:

AI能給情緒價值嗎?

首先,研究指出 ChatGPT 雖然在全球擁有龐大用戶量,每週活躍使用人數已突破四億,但大多數使用者並不會展現過度感性的互動行為。也就是說,多數人跟 ChatGPT 的交流大多集中在學習、工作協助或創意思考等面向,並不會向它吐露私人心事或使用帶有過多情緒色彩的字句。

然而,研究團隊發現有一小部分重度使用者持續長時間地依賴 ChatGPT,而且在訊息往返中出現「感性互動」的比例相當高,他們甚至在問卷中表示「把 ChatGPT 視為一種朋友」,或感覺 ChatGPT 能填補某些生活中的空缺。這些用戶被研究人員歸類為高度情感投入者,占整體受測者的比例相對不多,但在使用時間與訊息內容上都相對顯著,並且更容易出現孤獨感及情緒依賴。

雖然研究中未明確定義情緒價值,但其中提及的「情緒互動行為」與「情感依賴」現象,與台灣網路社群常說的「AI 很會給情緒價值」有高度重疊。

什麼是情緒價值?

情緒價值 (英文為 Emotional Value) 在社交語境下是指一個人在互動中,對他人情緒產生影響的能力。當你和一個人相處後感到愉悅、被理解、放鬆或被鼓勵,代表他提供了正面的情緒價值;相反地,若讓你感到壓力、煩躁或情緒低落,就是負面的情緒價值。

語音模式與文字模式的差異

ai 語音聊天

有趣的是,研究也針對語音模式與文字模式做了對照。一般印象中,語音聊天可能更具臨場感,或許更容易讓人投入情緒。但結果顯示,一開始短期使用語音功能的用戶似乎更能獲得正面的安慰或陪伴感,然而若使用時間過長,反倒可能導致更高程度的孤獨或情緒依賴。

另一方面,純文字模式的使用者並非就毫無風險,因為研究觀察到在文字對話中也會出現高情感投入,只是發生比例較低。

值得注意的是,研究團隊特別提到,在長期、大量使用的情況下,無論是純文字模式或語音模式,都有可能造成部分人出現較明顯的「有問題的使用情境」傾向,比如情緒上離不開 ChatGPT、減少與真實社交圈的互動、甚至感到一旦離開 ChatGPT 就寂寞難耐。

- 廣告 - 內文未完請往下捲動 -

私人討論與非私人討論的差別

不僅如此,研究人員還將對話內容分成「私人討論」與「非私人討論」來做探討。私人討論指的是涉及個人情緒、生活瑣事或自我覺察的互動,例如向 ChatGPT 談論自己的人際困擾、人生規劃、情感問題等;相較之下,非私人討論則偏向討論公共議題、知識型問答或工作發想等。

令人驚訝的是,與想像相反,長期大量進行「非私人討論」的用戶,比起經常談心事的用戶,更容易出現情緒依賴。

原因可能在於,當用戶抱持工具性使用心態(如找靈感、寫簡報、解題),若反覆且頻繁地依賴 AI,最終也會在潛意識中會將 ChatGPT 視為隨時可解決問題的救火大隊,一旦離開就缺乏安全感或無法自行面對生活瑣事。反之,偶爾透過 ChatGPT 進行自我抒發的用戶,或許因同時自我覺察孤獨感而更注意在現實社交中尋求互動,反而較不容易陷入過度依賴。

個人因素與文化差異會有影響

研究也暗示,一個人本身的情緒需求、對 AI 的認知以及使用時長,都是導致最終心理影響的關鍵因素。像是那些本就較容易對人或事物產生強烈依附感、或在現實生活中缺乏穩定社交的用戶,往往更容易把 ChatGPT 當成精神支柱。

又或者,有人認定 AI 可以像家人或朋友一樣陪伴自己,因此更傾向每天長時間與 ChatGPT 繼續交流,進而進入日常習慣甚至難以脫身。

不過這次研究主要以英語使用者、且多數來自美國作為樣本,尚未涵蓋不同語言環境或地區的用戶情況。例如台灣的使用者,可能在生活節奏、社會壓力及文化背景等面向上與美國用戶有所不同。由於研究團隊尚未擴大到其他地區與語言,未來若有更多台灣在地的數據,或能更精準地探討 ChatGPT 與台灣使用者的關係模式。

研究侷限與未來

儘管該研究帶來許多新穎觀點,OpenAI 與 美國麻省理工學院 也強調這只是初步結果,尚未透過完整的學術期刊審查程序。他們承認自我報告的問卷調查可能存在誤差,研究期間也相對有限(約四週),而且使用情感偵測的分類器並非萬無一失,可能錯失一些更微妙的情緒表達。此外,人們的心理健康狀態往往需要更長期的觀察,若要評估 AI 與人類長期互動的影響,可能需要更長周期的深入追蹤。

無論如何,這項研究依然為業界與學術界提出了一個重要訊號:AI 工具不僅影響我們的工作效率,也潛在影響個人生活、社交行為與心理健康。

面對這種人機關係可能帶來的種種影響,平台設計者和政策制定者需更謹慎地考慮如何在技術演進中,協助使用者保持心理健康,避免淪為數位成癮或孤獨無依的狀況。

延伸閱讀
氛圍編碼崛起!從 Cursor AI 到一人軟體新趨勢
軟體工程師會被AI取代嗎?Google的25%新代碼由AI生成
ChatGPT 圖片生成技術震撼世界!GPT-4o 多模態新時代,加碼圖片生成提示詞教學

常跟AI聊天算情緒依賴嗎?

不一定。關鍵不在於聊天頻率,而是你是否過度依賴它帶來的情緒安慰,或因此減少與他人的真實互動。如果你離開它會焦慮、覺得空虛,就可能有情緒依賴傾向。

如果覺得 ChatGPT 很懂我,是不是很危險?

覺得被理解是正常的情緒,但若你開始把它當成唯一傾訴對象,或對它的回應產生強烈的情緒波動,那就要留意是否投射了太多心理期待。

你可能也喜歡