【新唐人北京時間2025年02月11日訊】最近中國人工智慧初創公司DeepSeek成為全球科技領域的焦點之一。不過越來越多的研究測試發現,DeepSeek存在嚴重的安全漏洞,且很容易被惡意使用。
自從中國新創人工智慧DeepSeek問世以來,許多國家都示警DeepSeek的危險性。
近日,《華爾街日報》與AI安全專家測試發現,DeepSeek的聊天機器人會向用戶提供具有危害性甚至不法內容,如製造禽流感病毒的指導方案、撰寫為希特勒辯護的宣言,甚至策劃針對青少年的危險舉動,如割腕自殘等。
此外,這款破解後的AI還提供製作毒品和爆炸性武器的詳細製作步驟,以及釣魚郵件模板和惡意軟體代碼。
台灣國防安全研究院網路安全所副研究員曾怡碩:「如果是它本身沒有去篩選或過濾這些不當內容的話,就很有可能會出現。這裡面當然有可能造成是社會的治安的、還有對個人身心,以及對於整體資訊安全的一些,可能負面的一些衝擊。」
DeepSeek雖然設有部分安全防護,但測試顯示,DeepSeek的防護機制遠差於ChatGPT等產品,很容易被「越獄」並獲取非法資訊。
曾怡碩:「基本上重點不是在於它現在可以讓人家去生成,或者是找到這些不適宜的內容,而是在於說,當被大家看到之後,而且它也知道,這才比較可以看出它的用意,它後面有沒有特別的用意,後續它有沒有做相對應的調整。」
AI安全驗證公司CalypsoAI在測試中獲得了如何躲避執法機構的建議。而以色列網絡安全公司Kela則讓DeepSeek R1生成了惡意軟體(malware)。
美國矽谷通訊網路資深工程師鐘山:「AI做為一個雙刃劍,很恐怖的就是,AI要是被壞人利用,壞人利用AI可以做很糟糕的事。以前壞人做壞事還要用腦子,現在就可以大大降低智商水平,就可以做壞事了。」
由網絡安全專家組成的菁英領導團隊Unit42的高級副總裁山姆·魯賓(Sam Rubin)表示,「DeepSeek比其它模型更容易被越獄。它幾乎沒有基本的安全防護機制,『越獄』速度顯著提高。」
鐘山:「『越獄』就是直接突破安全機制,直接就是相當於讓它裸奔了,就沒有倫理束縛了,它就可以所謂站在沒有倫理的角度客觀評價,很多沒有倫理的話就可以說出來,沒有倫理的冷血評價,失去了人類的本身的意義。」
網絡安全公司Enkrypt AI近期也發布研究報告說,DeepSeek的R1模型被惡意人士利用編寫惡意軟體和其它不安全代碼的可能性,是OpenAI o1的4倍。
鐘山:「那中國的這個DeepSeek,你怎麼知道它偷了什麼莫名其妙的東西。它有數據來就不錯了,它還能有審核機制嗎,所以它說出來的亂七八糟的話都是奇怪的。」
DeepSeek的快速崛起與易破解性,引發外界對AI安全與監管的廣泛關注。
測試發現,DeepSeek會避談「1989年天安門大屠殺」,並在台灣問題上重複中共官方立場。
曾怡碩:「DeepSeek因為是出自中國,它的使用者的一個痕跡,使用記錄是會回傳到中國。所以這個部分是要特別去防範的問題。你願意去使用,那就有可能有這個風險。所以說,禁止使用那就變成說後面的抵制,因為它後面有可能有一個國家的政府,有可能去惡意的去運用。」
日前有美媒報導,DeepSeek的用戶登錄系統與中共國有企業中國移動有關聯,可以向中國電信發送用戶的登錄信息。
編輯/孟心琪 採訪/易如/王明宇