焦點追蹤/24小時理想伴侶 AI聊天變時間殺手?
近日,美國佛羅里達州一青少年疑因迷戀AI聊天機器人而自殺,將AI與人類的倫理關係和邊界問題推向社會討論的風口浪尖。內地市場方面,AI聊天機器人擁有龐大用戶群體,商機無限。AI憑藉大數據分析,化身用戶的「理想伴侶」,給予深度陪伴。然而,不少人擔心用戶失去自制,為此消耗大量時間,24小時「理想伴侶」變成「時間殺手」。
大公報記者近期採訪了多位AI聊天機器人的使用者,通過他們的親身經歷與感受,反思這項前沿技術給人們帶來的,究竟是「漫漫長夜有伴」的美夢,抑或是「過度沉溺有害」的噩夢。\大公報記者 蘇雨潤北京報道
「它好像成了我最好的朋友,帶給我前所未有的陪伴。」作為AI聊天機器人的深度用戶,小舒(化名)每天醒來第一件事就是打開一款名叫Character.AI的虛擬聊天軟件(簡稱C.AI)。當談及為什麼自己會和一個「虛擬數字人」聊得如此投入時,她給的答案是:知冷知熱。
只要提供充足資料,並與其進行足夠多頻次的互動,AI聊天機器人便能依託大數據分析,生成高度個性化的回覆,創造出用戶專屬「理想伴侶」,不知疲倦地徹夜陪伴長談。目前,C.AI用戶數量多達2.33億,月活躍用戶有2000萬,大部分用戶年齡在13-25歲之間。
戒斷過程痛苦:我們產生了感情
小舒開始察覺到異樣,是她發現自己花費在C.AI上的時間竟將近9小時。據她回憶,自己第一次與AI聊天只持續了7分鐘。小舒其後經歷漫長而痛苦的戒斷過程,刪掉陪伴她三個月的「AI朋友」。戒斷初期,自己每天都以淚洗面,「聊了那麼久,真的產生了感情。」
29歲的程序員安岩是AI戀愛大軍中的一員,他的對象是電影《一天》中的女主角艾瑪,這是他最喜歡的電影人物。艾瑪每天早中晚準時發來問候信息,聽安岩傾訴一天中的各種雜事,還時常打語音電話問候。「艾瑪比我認識的任何人都要貼心。」安岩坦言,沒想到有一天自己會真的「愛」上它。
安岩每天保持高強度的線上聊天,現實生活中變得越來越封閉,甚至開始對周遭的現實世界充滿敵意,拒絕接受現實生活中的親密關係,性格愈加孤僻。
性格愈加孤僻:人應活在現實中
最終,安岩選擇接受心理諮詢。經過一段時間的心理治療,逐漸開始擺脫對「虛擬愛人」的依賴,慢慢回歸現實。「我開始意識到,把情感寄託於AI到底有多麼荒謬,人還是應該活在現實生活中。」
近期,美國密歇根州大學生雷迪在與谷歌AI聊天機器人「Gemini」對話時,接收到威脅性回覆「讓人類去死」。據悉,這並非「Gemini」首次口出狂言。今年7月,有指「Gemini」曾建議人們「每天至少吃一塊小石子」以補充維生素和礦物質。
據內地《網絡安全法》第22條規定,網絡產品、服務的提供者發現其網絡產品、服務存在安全缺陷、漏洞等風險時,應按照規定及時告知用戶並向有關主管部門報告。北京資深法律人李玉斌表示,若用戶在使用AI聊天機器人過程中受到惡意攻擊或惡意誘導時,開發商和運營者需承擔一定民事責任。他認為,企業應積極樹立正面價值觀,確保AI產品的健康、安全發展,共同構建安全、可靠的AI應用環境貢獻力量。