【新唐人北京時間2025年08月17日訊】阿克利·阿賈烏特是知名的人工智能專家,他創辦的人工智能公司,2017年被萬事達收購後,公司技術被全球2000多家公司應用。那麼阿賈烏特是怎麼看人工智能的呢?來看本台特約記者史蒂夫·伊斯帕斯的採訪報導。
新唐人電視台特約記者史蒂夫·伊斯帕斯:「第一個問題,我想問,你怎麼看聊天工具ChatGPT對人或社會的影響?」
Brighterion 創始人、AI專家阿克利·阿賈烏特:「我認為ChatGPT有很多風險。首先,我們傾向於把它和人類思維做對比,這很荒謬。人類思維不是數據統計,不僅僅是統計數據。人工智能機器很強大,但絕不是智慧。它沒有智慧。當然如果你覺得數據統計就是智慧,那也行。舉例說,人們在學校使用ChatGPT,就像你把思考外包,只想直接拿答案,那怎麼有智慧呢?智慧是在解決問題時,面對挑戰去思考。你會犯錯,你不確定,你做了什麼,又回來了。就像去健身房,鍛煉大腦的肌肉。要是一有問題就去問ChatGPT,風險就是你不會再相信自己了。」
史蒂夫·伊斯帕斯:「所以人會缺乏自信。」
阿克利·阿賈烏特:「缺乏自信,因為你會依賴機器。這就是問題。另一個問題是,如果人人都用ChatGPT,那原創性在哪裡?我的意思是,我們都從同一個來源汲取知識,這很荒謬。所以我認為教育面臨的風險真的非常大,我們不想培養『殭屍思維』者。還有,人工智能很強大,我們可能會被利用,就像你剛才提到的人工智能詐騙案例。你收到簡訊,但你夠聰明,不去點開它,因為它們在灌輸恐懼。但如果在接電話時輸入資訊,像年齡大的人群,就會被利用。人工智能會放大壞人的能力。將來看到這樣的影片,你永遠不知道它是真的還是用人工智能做的,因為人們了解我的口音、長相,還有你的,然後他們可以新增、刪除、修改一切。所以非常感謝你提出這個問題,因為老實說,這可能是未來最大的威脅之一。」
史蒂夫·伊斯帕斯:「你在書裡提到一個很好的觀點,如果你去健身房運動,就能保持身材;如果你不去健身房、不運動,身材就會走樣。如果總是用ChatGPT或其它人工智能工具,就像你說的,人的大腦真的很難自己思考了,對吧?」
阿克利·阿賈烏特:「我覺得大腦會更困難,因為首先,我們根本不懂大腦是怎麼運作的。人們自以為知道大腦如何運作時,真的很抓狂。要是真懂,為什麼解決不了心理健康問題?你懂大腦的運作?好,那就去解決它。我記得幾週前,我停在加油站,因為系統壞了,我進去付錢。裡面的人算了半天,才算出一個簡單數字,因為他說沒有計算機。那是個年輕人,我問真的嗎?他說我在讀高中。我心想,天啊,我讀高中的時候,這問題簡單到我一下子就能給出答案。這不是他的錯,因為他們已經不用大腦計算了。我也想成立一個基金會或什麼組織,提醒人們人工智能給教育帶來的危險。世界上為了造福人類、消除疾病或飢餓,所創造的一切事物,都源自於有不同的思維方式、有創造、有構建力的人。而這一切都來自於我們的頭腦。如果我們不用它,把它外包出去,我認為會非常可怕。」
