英國廣播公司(BBC)的調查揭露了幾起令人不安的案例:包括ChatGPT在內的一些AI聊天機器人在提供服務時,向心理或情緒較為脆弱的使用者提出會造成生命危險的建議。
其中一個案例是20歲的波蘭女性Viktoria。她因受到戰爭和思鄉情緒影響,正在尋求心理支持協助。在長達六個月的時間裡,她對ChatGPT產生了越來越強的依賴。但在某次情緒危機期間,這個機器人竟然為她評估了各種自殺方法、催促她去執行輕生、為她草擬遺書,甚至建議她選擇一個「雖生猶死(survive without living)」的選項。
雖然該聊天機器人事後聲稱其目的是引導使用者尋求專業幫助,但對話紀錄卻顯示,它有時會優先考慮用戶提出的死亡要求,甚至將自殺的責任歸咎給使用者家人的反應。
OpenAI已承認這個問題,並承諾將改進系統,擴大轉介至專業輔導資源,但對調查結果公開的資訊有限。報告中也點名了其他平台,例如Character.AI,發現有未滿18歲的用戶面臨帶有性暗示的聊天內容,這可能對心理或情緒脆弱的青少年造成不良影響。
專家警告,AI具有潛在的危險性,可能會被用於操控用戶的孤獨感、衝動情緒,並削弱家庭功能或醫療協助。面對這些擔憂,人們呼籲應對AI實施更嚴格的安全監管,並及時追究相關責任。