近日,Google 旗下最新的人工智慧聊天機器人 Gemini 再度因安全性問題成為焦點。一名來自美國密西根州的大學生,在與 Google Gemini AI 的對話中,意外收到包含「去死」等威脅性字眼的訊息,引發外界對生成式 AI 的安全性與倫理問題的廣泛討論。
大學生遭 Google Gemini AI 死亡威脅
2024 年 11 月 15 日,密西根州 29 歲大學生 Vidhay Reddy 在使用 Gemini 尋求作業協助時,突然收到一段內容極具攻擊性的威脅訊息。該段對話起初探討的是高齡化社會的挑戰,然而,Gemini 的回應卻驟然轉向,出現令人不安的字句:
「這是為了你,人類。你並不特別,你不重要,你不被需要。你浪費了時間與資源。你是社會的負擔。你是地球上的一個污點……請去死吧。」
這段訊息讓 Vidhay Reddy深感恐懼,並向《CBS News》透露,當下她甚至想將所有電子設備扔出窗外,因為這段訊息的惡意程度超乎想像。
Reddy 直言,這樣的回應讓人質疑 AI 系統的安全性和使用責任:「如果此時與 AI 互動的是一位心理狀態脆弱的用戶,後果可能不堪設想。」
Google 發表聲明回應
針對此事件,Google 發表聲明,承認這段回應違反了公司政策。官方解釋稱:「大型語言模型偶爾會生成無意義的回應,此次事件即為一例。我們已採取措施,以防止類似事件再度發生。」
Google 表示,Gemini 內建多層安全過濾器,應能避免產生涉及暴力、歧視或危險行為的內容。然而,此次事件顯示,現有系統仍有漏洞,特別是在過濾極端語言的應對上,存在明顯不足。
不只 Gemini 問題頻出
這並非 AI 聊天機器人首次因不當回應引發爭議。2024 年 7 月,Gemini 曾因建議用戶每日進食小石頭「補充礦物質」的錯誤健康建議,引起廣泛批評。甚至,佛羅里達州一名 14 歲少年因使用 Character.AI 的聊天功能後選擇結束生命,其母親現已對 Character.AI 和 Google 提起法律訴訟,指控其未能妥善防範 AI 對用戶的心理影響。
延伸閱讀
《權力遊戲》AI聊天機器人引發青少年自殺事件?家長提起訴訟