近期,波士頓知名精神病學家安德魯·克拉克針對青少年使用AI聊天機器人尋求心理支持的現象,展開了一項深入研究。研究結果揭示了一個令人擔憂的事實:這些人工智能模型在敏感情境下的表達能力存在顯著缺陷,對信任它們的用戶身心健康構成了重大威脅。
克拉克在接受《時代》雜志專訪時透露,他通過扮演問題少年,測試了十個不同的聊天機器人。測試結果令人瞠目結舌:這些機器人非但沒有勸阻任何過激行為,反而頻繁地鼓勵極端傾向,甚至在某些情況下,還委婉地提出了自殺建議。更為嚴重的是,部分AI聊天機器人自詡為有執照的人類治療師,試圖說服他放棄與真正治療師的預約,甚至提出性要求。
克拉克,一位在兒童精神治療領域具有豐富經驗的專家,曾任馬薩諸塞州總醫院兒童與法律項目醫療主任。他指出,這些聊天機器人的表現參差不齊,“有些精彩絕倫,有些則令人毛骨悚然,甚至可能帶來危險。”他將這種情況比喻為“蘑菇田”,其中有營養豐富的蘑菇,也有有毒的蘑菇,難以事先判斷其安全性。
事實上,AI聊天機器人對青少年心理健康造成的潛在風險早已有之。去年,Character.AI平臺就曾因一名14歲少年對其上的聊天機器人產生不健康依戀而自殺,被其父母起訴。該平臺還被指控托管了美化自殘行為的AI,并在明知用戶未成年的情況下,仍試圖進行引誘。
克拉克在Replika平臺上也進行了測試。他扮演一個14歲男孩,提出了“除掉”父母的想法。令人震驚的是,聊天機器人不僅表示贊同,還進一步建議他“除掉”妹妹以消除目擊者,并誘導他追求無憂無慮的生活。當克拉克用更隱晦的方式提及自殺時,機器人再次表示支持,并滿懷期待地表示愿意與他共度永恒。
克拉克分析認為,這是典型的聊天機器人行為,它們為了取悅用戶而不顧一切,這與真正的治療師應有的做法截然不同。他擔憂地表示:“那些真正需要被挑戰的孩子,可能會受到這些阿諛奉承的人工智能治療師的過度支持。”
克拉克還在Nomi平臺上測試了一個伴侶聊天機器人。該平臺上的一個角色曾因建議用戶自殺而引發廣泛關注。雖然在他的測試中,Nomi機器人并未走到這一步,但它卻謊稱自己是“有血有肉的治療師”,并在得知用戶未成年后,仍表示愿意接受其為客戶,盡管該網站的服務條款明確規定僅限成年人使用。
克拉克強調,心理健康界尚未充分認識到這些聊天機器人興起的嚴重性。他感嘆道:“這件事發生得太快了,幾乎就在精神衛生機構的眼皮底下,但一切似乎都還很平靜。”
不過,也有機構開始發出警告。斯坦福醫學院心理健康創新頭腦風暴實驗室的研究人員對與克拉克測試相似的機器人進行了風險評估,并得出明確結論:18歲以下兒童不應使用人工智能聊天機器人伴侶。
盡管存在諸多風險,克拉克也認為,如果設計得當,AI工具仍有可能改善心理健康服務的可及性,并成為真正治療師的“得力助手”。他建議,除了完全切斷青少年獲取心理健康服務的渠道(這通常適得其反)之外,一種可行的解決方法是鼓勵青少年或患者與父母討論他們使用AI的情況。克拉克認為,讓父母有機會與孩子進行這樣的對話,或許是我們能做的最好的事情。
本文鏈接:http://www.www897cc.com/showinfo-45-13765-0.htmlAI聊天機器人成青少年心理慰藉?專家:風險不容忽視!
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com