“人工智能教父”稱|AI存在消滅人類的小風險[AGI]?
3月28日 消息:隨著人工智能技術的進步,超級智能機器人的出現越來越成為可能。一些專家稱,如果未來的AI系統達到人類智商水平并掌控財政、武器和關鍵基礎設施,將可能摧毀文明或甚至銷滅人類。
英國計算機科學家杰弗里·辛頓 (Geoffrey Hinton) 被稱為“人工智能教父”。他在神經網絡方面的開創性工作通過模仿人類認知過程打破了常規,并繼續形成了當今機器學習模型的基礎。
在接受CBS 新聞的長篇采訪中,Hinton 分享了他對 AI 現狀的看法,他認為人工智能正處于“關鍵時刻”,通用人工智能 (AGI) 的出現比我們想象的更近了思考。
Hinton 說道:“此前,我還認為需要20到50年才能擁有通用人工智能,而現在我認為可能是20年或更短。”
(注:AGI即Artificial general intelligence的簡寫,計算機科學與技術專業用語,專指通用人工智能。這一領域主要專注于研制像人一樣思考、像人一樣從事多種用途的機器。AGI能夠自行學習和思考以解決大量問題)。
當前,人們經常提及AGI的預兆來提升當前模型的能力,但不管行業怎樣歡呼它的到來,或者它真正到來的時間有多長,Hinton表示我們現在應該仔細考慮它的后果,其中可能包括它試圖消滅人類這個小問題。
盡管如此,Hinton仍然堅持認為眼下我們面臨的真正問題是,我們已有的AI技術(不管是AGI還是其它)可能會被渴望權力的政府和企業壟斷(例如:原本是非營利組織而現在變成了營利組織的OpenAI)。
據Hinton在采訪中的說法,人類仍有一點兒時間來化解危機,因為當前公開可用的模型還是相當愚蠢的。“我們現在正處于這個轉變點,ChatGPT 是這種白癡學者,它也并不真正了解真相。因為它正試圖調和訓練數據中不同和相反的觀點。這與一個試圖擁有一致世界觀的人非常不同。”
Hinton預測,“我們將走向能夠理解不同世界觀的系統”,這很嚇人,因為這不可避免地意味著,無論是誰操縱人工智能,都可以用它來推動自己的世界觀。
Hinton警告稱,“你不想讓一家大型營利性公司決定什么才是真的。”