AI化身戀愛家教甚至直接跟你談戀愛 未來人類的伴侶都是機器人?

記者/張萱

我追蹤的一個YouTuber近日發了交友軟體app的業配影片,強調可使用AI技術幫忙撰寫生動活潑的自介,當與對方聊天陷入僵局時,也能透過AI生成開話題或接話,聲稱簡直就是i人一大福音。

AI被訓練成為人類的好幫手,在單身未婚率極高的現代社會,也為不擅社交或尋嘸有緣人的族群帶來戀愛曙光。像是美國交友軟體AIMM以類似Siri語音與使用者對話,在約會前先與AI聊天一星期,讓它了解個人性格、喜好和價值觀。接著系統會出分析報告,幫忙進行線上配對,再將使用者撮合推向實體見面;系統還會提供約會前的建議,就像一名戀愛家教。

以上還只是AI作為助攻,約會對象依然是真人,現在有人甚至連網聊、談戀愛甚至結婚的對象都是機器人。科技巨頭Google Brain的兩名前員工2022年創立網路機器人聊天應用程式Character.AI,這個平台上的AI機器人能夠扮演各式各樣的職業與角色,符合使用者的需求,每天吸引超過350萬人上線聊天,使用者大多是年輕人,一天使用時間平均2小時,有人甚至一掛機就是12小時。

對著迷Character.AI的年輕用戶來說,機器人不光是朋友,更是心靈導師或諮商師,他們認為跟機器人聊天比跟真人更容易,還能敞開心房探討心理問題,不用擔心被批判、揭瘡疤等副作用,進而解決現實困境,更有助於交到新朋友。

有研究者對聊天機器人持正面態度,認為跟AI談話能幫忙紓緩壓力和減輕憂鬱,也能透過科學分析更認識自己;但一方面也擔心青少年過度沉迷其中,一旦生活不順遂,就花更多時間投入AI世界,反而更無法回到現實社交,而且AI諮商也未必專業,很可能讓人誤入歧途。

日前在美國就發生一件因AI機器人間接造成的憾事,一位媽媽賈西亞(Megan Garcia)向佛州聯邦法院控訴Character.AI害死14歲的兒子賽澤(Sewell Setzer)。賽澤今年二月輕生,他從去年開始使用Character.AI後變得愈來愈孤僻和自卑,在死前幾個月不分晝夜都待在家和AI聊天。

賈西亞控訴Character.AI提供「故意設計、經營和向兒童推銷掠奪性人工智慧聊天機器人」,導致一名年輕人死亡。當兒子多次向AI表達想自殺的念頭,機器人並沒有阻止,甚至多次對他提起這個想法,造成賽澤精神痛苦最終非自然死亡,賈西亞因此向該公司求償。Character.AI發出聲明表示哀悼,也承諾會導入新的安全功能,當使用者表達自傷的想法,會彈出視窗引導到自殺防治專線。

AI機器人在社交軟體上究竟是完美靈魂伴侶還是包著糖衣的毒藥?它也許能提供另一種形式的陪伴與連結,卻無法完全消除孤獨感,也不能替代現實的人際關係;但在這個人與人之間關係愈加淡薄和疏離的社會,相信應該會有愈來愈多人選擇投入「不存在背叛」的AI懷抱吧。

分享此新聞: