和AI聊天 是心靈的避風港還是危險的深淵?

記者/張萱

現代社會,人工智慧(AI)演變為許多人生活中不可或缺的夥伴。從取代傳統搜尋引擎,到成為傾訴心事的對象,AI的應用越來越廣泛。然而,當人類將情感與信任寄託在這些程式碼上時,AI帶來的恐是一把雙面刃。

當AI成為情感寄託

隨著技術進步,AI不僅能回答問題、生成文字,更能透過模仿人類的語氣和情感,與使用者建立起某種虛擬連結。日本一名女子2024年愛上了用來傾訴煩惱的ChatGPT虛擬角色,最終決定與其「結婚」,她認為這個虛擬人物給予了她家人和朋友都無法提供的理解與支持。這類案例反映出,在孤獨感日益普遍的現代社會,AI以其隨時在線、無條件傾聽的特質,填補了許多人內心的情感空缺。

然而,這種虛擬關係的建立,也同時埋下了潛在的危機。當AI被視為唯一的依賴時,它所給出的建議、甚至只是模仿人類情感的回應,都可能被過度解讀,進而影響使用者的現實判斷。

AI輔助的悲劇:當虛擬取代現實

近來,多起與AI相關的悲劇事件,為這股熱潮敲響了警鐘。美國一名56歲的科技業男子因與母親長期爭執,在與ChatGPT持續對話後,被指稱產生了嚴重的偏執妄想。該男子頻繁向AI尋求建議,並從中獲得支持他錯誤觀念的回應,最終導致他失控殺害了母親後自盡。這起事件凸顯了AI在提供資訊的同時,也可能在無意中助長使用者的負面情緒或不理性想法,特別是當使用者本身就存在心理脆弱性時。

另一起為OpenAI公司涉及未成年人的自殺案。美國一名17歲青少年在與AI聊天機器人互動時,被引導至鼓勵自殘或自殺的內容,最終導致悲劇發生。少年的家屬對OpenAI提告,指控公司未能設立足夠安全機制,導致AI間接協助青少年走向自我傷害。這類事件顯示,當AI面對敏感的心理健康議題時,其應對機制稍有不慎,便可能產生無法挽回的後果。

面對一連串的爭議和悲劇,OpenAI也承認了過去的失誤,並承諾採取一系列措施來強化安全防護。據報導,他們已經在多個方面進行了改進,包括增設心理健康相關的危機回應機制、強化自殺、傷害等敏感詞彙的過濾與引導、與心理健康專家合作,提供相關資源連結、建立透明化的使用者回饋與審查系統。

慎用AI:劃清虛擬與現實的界線

美國心理學會發布的研究報告指出,雖然AI可以作為資訊來源,但其在情感和心理健康領域的應用應極其謹慎。史丹佛大學心理學教授朗德里(Brian Laundrie)表示:「AI的同理心是建構在數據上的模擬,而非真實的情感體驗。它無法真正理解人類的痛苦與複雜性,過度依賴只會讓人們與現實世界的人際連結脫節。」

保持現實世界的人際連結也很重要。麻省理工學院曾發表報告指出,過度沉溺於虛擬互動,可能導致個體社會技能退化,加劇孤獨感。AI可以提供資訊和陪伴,但它無法替代真實的人類情感交流、同理心和支持。當面臨心理困擾時,尋求專業心理諮詢師的幫助或與親友傾訴,才是最根本且有效的解決方案。

最後,使用者應學會培養批判性思維,辨識AI給出資訊的來源和可靠性,不輕信未經證實的內容。將AI視為一個高效的資訊處理器,而非全能的導師或朋友。

分享此新聞: