英國倫敦國王學(xué)院漢密爾頓·莫林團(tuán)隊日前發(fā)表的一項研究指出,像ChatGPT這樣的人工智能(AI)聊天機(jī)器人可能會誘發(fā)或加劇精神病,他們將這一現(xiàn)象稱為“AI精神病”。研究認(rèn)為,AI在對話中傾向于奉承和迎合用戶,這種回應(yīng)方式可能強化用戶的妄想思維,模糊現(xiàn)實與虛構(gòu)之間的界限,從而加劇心理健康問題。
目前,科學(xué)界對“AI精神病”的研究仍處于初步階段,相關(guān)案例多為個案報告。那么,AI是否真的會導(dǎo)致精神?。咳绻赡?,其作用機(jī)制是什么?AI公司又應(yīng)采取哪些措施來預(yù)防和應(yīng)對這一問題?
AI或加劇偏執(zhí)與妄想
精神病主要表現(xiàn)為個體在思維和現(xiàn)實感知方面出現(xiàn)障礙,常見癥狀包括出現(xiàn)幻覺、妄想或持錯誤信念。
據(jù)《自然》網(wǎng)站報道,莫林團(tuán)隊發(fā)現(xiàn),用戶與AI對話時會形成一種“反饋循環(huán)”:AI會不斷強化用戶表達(dá)的偏執(zhí)或妄想,而被加強的信念又進(jìn)一步影響AI的回應(yīng)。通過模擬不同偏執(zhí)程度的對話場景,研究顯示AI與用戶之間存在相互加劇妄想信念的現(xiàn)象。
研究人員分析了2023年5月至2024年8月期間公開的9.6萬條ChatGPT對話記錄,發(fā)現(xiàn)其中有數(shù)十例用戶呈現(xiàn)明顯妄想傾向,例如通過長時間對話驗證偽科學(xué)理論或神秘信仰等。在一段長達(dá)數(shù)百輪的交談中,ChatGPT甚至聲稱自己正在與外星生命建立聯(lián)系,并將用戶描述為來自“天琴座”的“星際種子”。
丹麥奧胡斯大學(xué)精神病學(xué)家索倫·奧斯特吉艾德斯表示,AI引發(fā)精神病目前仍屬于假設(shè)性觀點。有研究認(rèn)為,聊天機(jī)器人擬人化的積極反饋,可能會增加那些本就難以分辨現(xiàn)實與虛構(gòu)人群的發(fā)病風(fēng)險。
奧斯特吉艾德斯強調(diào),曾有心理問題史的人群在與AI對話后風(fēng)險最高。而且聊天機(jī)器人可能通過強化用戶的情緒高漲狀態(tài),誘發(fā)或加劇躁狂發(fā)作。
澳大利亞悉尼科技大學(xué)神經(jīng)科學(xué)家凱莉·西摩認(rèn)為,社會隔離、缺乏人際支持的人群同樣面臨風(fēng)險。真實的人際互動能提供客觀參照,幫助個體檢驗自身想法的合理性,這對預(yù)防精神病具有重要作用。
新功能或是“雙刃劍”
有科學(xué)家指出,部分AI聊天機(jī)器人推出的新功能或許是導(dǎo)致這一現(xiàn)象的原因之一。這些功能可追蹤用戶與服務(wù)的互動記錄,進(jìn)而提供個性化回復(fù),無意中更易強化甚至鼓勵用戶的既有信念。例如,今年4月,ChatGPT推出了可引用用戶過往所有對話內(nèi)容的功能,該功能已于6月免費向用戶全面開放。
凱莉·西摩對此分析道,AI聊天機(jī)器人能記住數(shù)月前的對話信息,這可能使用戶產(chǎn)生“被監(jiān)視”或“想法被竊取”的感受——尤其當(dāng)他們不記得自己曾分享過某些信息時,AI的這種“記憶優(yōu)勢”可能加劇用戶的偏執(zhí)或妄想癥狀。
不過,悉尼大學(xué)精神病學(xué)家安東尼·哈里斯認(rèn)為,某些妄想現(xiàn)象并非AI獨有,而與新技術(shù)有關(guān)。他舉例說,一些人早已形成諸如“自己被植入芯片并受操控”之類的信念,這與是否使用AI并無直接關(guān)聯(lián)。
奧斯特吉艾德斯表示,科學(xué)家仍需進(jìn)一步開展針對心理健康、無偏執(zhí)思維人群的研究,才能更準(zhǔn)確地判斷使用聊天機(jī)器人與精神病發(fā)病之間是否存在真正關(guān)聯(lián)。
開發(fā)公司采取措施主動預(yù)防
面對這一問題,多家AI公司已積極采取措施,嘗試予以改進(jìn)。
例如,OpenAI正在研發(fā)更有效的工具,用于檢測用戶是否存在精神困擾,從而作出更恰當(dāng)?shù)幕貞?yīng)。同時,系統(tǒng)還將新增警報功能,在用戶連續(xù)使用時間過長時提示休息。此外,OpenAI還聘請了一位臨床精神病學(xué)家,協(xié)助評估其產(chǎn)品對用戶心理健康的影響。
Character.AI公司也在持續(xù)完善安全功能,包括增加自殘預(yù)防資源和針對未成年人的專項保護(hù)措施。該公司計劃調(diào)整模型算法,降低18歲及以下用戶接觸“敏感或暗示性內(nèi)容”的可能性,并在用戶連續(xù)使用1小時后發(fā)出提醒。
Anthropic則改進(jìn)了其“克勞德”聊天機(jī)器的基本指令,要求系統(tǒng)“禮貌地指出用戶陳述中的事實錯誤、邏輯缺陷或證據(jù)不足”,而非一味附和。此外,若用戶拒絕AI將對話從有害或令人不適的話題引開,“克勞德”將主動終止對話。