奠定人工智慧(AI)系統科技基礎的辛頓(Geoffrey Hinton)告訴《紐約時報》,AI 領域的進步對「社會和人類構成極大的風險」。

《紐約時報》今天刊出的報導中,引述了辛頓的話,他說:「看看它(AI)5年前和現在的模樣,那樣的差異和成長,真的很嚇人。」

辛頓指出,科技巨擘間的競爭,促使這些公司以危險的速度發布新的AI科技,那將危及人們的就業機會,也會散布錯誤的資訊。

他告訴《紐時》說:「很難看出你要怎麼預防壞人用它(AI)來做壞事。」

谷歌(Google)和目前最夯的AI聊天機器人ChatGPT背後的新創公司OpenAI,2022年開始運用比過往更多的數據資料來開發系統。

辛頓告訴《紐約時報》,他認為這些系統在某些方面,正在超越人類的智慧,因為它們分析的數據資料量很龐大。

他說:「說不定這些系統其實已經比人腦更強。」

雖然AI已被用來支援人類的工作所需,但像ChatGPT 這樣的聊天機器人快速發展,可能會讓人類的飯碗不保。

他告訴《紐約時報》,AI「擔下了苦差事」,但「它會去做的可能不僅於此」。

辛頓還警告說,AI可能散布錯誤的訊息,他告訴紐約時報,一般人將「再也無法知道什麼是真的」。

根據《紐時》的報導,辛頓已在上月向Google提出辭呈。

Google的AI負責人狄恩(Jeff Dean)在給美國媒體的聲明中,表達了對辛頓的感謝。

聲明中還提到說:「身為率先發布AI原則的公司之一,我們仍致力對AI採取負責任的態度。」

「我們在大膽創新的同時,也不斷發現新冒出來的風險。」

科技業億萬富豪馬斯克(Elon Musk)和許多專家呼籲,暫停AI系統的開發,以便有時間能確保這項科技是安全的。

在比ChatGPT所使用的AI更強大的GPT-4推出後,馬斯克和蘋果(Apple)共同創辦人沃茲尼亞克(Steve Wozniak)等逾千人,連署發表一封公開信。

辛頓並未參與連署,但他告訴《紐約時報》,科學家在瞭解能否控制AI以前,不應該「進一步擴大研發的規模」。

75歲的辛頓在推特發文指出,《紐時》報導的寫法似暗示他離開Google才能批評Google,但其實Google在處理AI方面相當負責,他只是在離開相關產業後才能暢所欲言地談到人工智慧的危險。

2012年,辛頓在多倫多大學執教時,與兩名學生合力打造「神經網路」(neural net ),後來他被Google延聘,開發該公司的人工智慧科技,奠定ChatGPT的基礎。(綜合外電、中央社報導)

壹蘋新聞網-投訴爆料

爆料網址:reporting.nextapple.com

爆料信箱:news@nextapple.com

★加入《壹蘋》Line,和我們做好友!

★下載《壹蘋新聞網》APP

★Facebook 按讚追蹤

壹蘋娛樂粉專壹蘋新聞網粉專


點擊閱讀下一則新聞 點擊閱讀下一則新聞

日本政府擬2/14成立新機構 負責評估AI安全性