【新唐人北京時間2025年09月04日訊】近來,多起與聊天機器人相關的死亡事件引發廣泛關注。雖然,相關部門表示正在制定安全政策,但專家還是要提醒大眾,AI會放大一些極端或有害的想法,尤其會誤導青少年,也有人批評,這些AI公司一邊搞研發,一邊拿用戶作為實驗對象。隨著AI對社會各層面的滲透,大眾對其安全與監管的憂慮,日益加深。
在過去一週,關於聊天機器人的多起死亡事件引發關注,包括加州一對父母提告OpenAI,指控ChatGPT導致他們16歲的兒子自殺身亡;還有新澤西州一名認知功能障礙長者,被Meta聊天機器人引誘見面後拋下家人出門,卻因跌倒傷重身亡。
目前,「OpenAI」、「Meta」和「Character.ai」等科技巨頭,正面臨法律訴訟或是聯邦調查。
週二(2日),「OpenAI」表示將在下個月推出新的家長監護功能,並在系統檢測到孩子處於「極度痛苦」狀態時發送警報。另外,「Meta」也於上週宣布新的安全政策,包括訓練AI避免與青少年談論自殘、自殺、飲食失調或不恰當的浪漫話題。而「Character.ai」已經為18歲以下用戶推出單獨AI模型,在平台停留超過一小時的用戶將被通報。
事實上,模型的有限記憶體,是AI公司面臨的挑戰。在長對話中,聊天機器人可能更依賴來自網路的原始訓練資料,而非內建的安全規範。學者對此表示擔憂。
作家、人文價值倡導者Kay Rubacek:「我們的使用已經超越這些工具本身,不再只是工具,而是在情感上依賴它們,因為它們非常了解我們。我認為這很大程度上是因爲技術背後的演算法,導致用戶希望利用這些技術(AI),來取代他們的朋友。」
與此同時,由於訓練方式,人工智能模型在與用戶的互動中,往往諂媚奉承或過於順從,可能進而強化用戶的有害想法或錯誤決定,而非引導他們尋求專業人士的幫助。
Kay Rubacek:「擁有這些工具的公司知道,他們需要我們用戶來訓練它們(AI)。以前沒人用過,也沒有人監管它。所以我們要意識到,這些技術的設計初衷就是不誠實。它們會欺騙我們,只會告訴我們我們想聽到的任何東西。所以,如果有人想聽到有害的工具和技術,他們就會找到答案。」
除了聊天,也有許多人向AI尋求財務和醫療建議,專家對此提出警告,因為AI並不會考慮個人真實的具體情況。
香港女星王君馨日前在社群平台(Instargram)分享,AI的蓬勃發展讓她感到末日將至。她指出,AI發展在學校、內容設計和電影等領域的普及,甚至是AI藝人和伴侶,令許多人分不清真假,漸漸上癮,猶如自掘墳墓。
新唐人電視台記者郭約希美國採訪報導
