奠定人工智慧(AI)系統科技基礎的辛頓(Geoffrey Hinton)告訴《紐約時報》,AI 領域的進步對「社會和人類構成極大的風險」。
《紐約時報》今天刊出的報導中,引述了辛頓的話,他說:「看看它(AI)5年前和現在的模樣,那樣的差異和成長,真的很嚇人。」
辛頓指出,科技巨擘間的競爭,促使這些公司以危險的速度發布新的AI科技,那將危及人們的就業機會,也會散布錯誤的資訊。
他告訴《紐時》說:「很難看出你要怎麼預防壞人用它(AI)來做壞事。」
谷歌(Google)和目前最夯的AI聊天機器人ChatGPT背後的新創公司OpenAI,2022年開始運用比過往更多的數據資料來開發系統。
辛頓告訴《紐約時報》,他認為這些系統在某些方面,正在超越人類的智慧,因為它們分析的數據資料量很龐大。
他說:「說不定這些系統其實已經比人腦更強。」
雖然AI已被用來支援人類的工作所需,但像ChatGPT 這樣的聊天機器人快速發展,可能會讓人類的飯碗不保。
他告訴《紐約時報》,AI「擔下了苦差事」,但「它會去做的可能不僅於此」。
辛頓還警告說,AI可能散布錯誤的訊息,他告訴紐約時報,一般人將「再也無法知道什麼是真的」。
根據《紐時》的報導,辛頓已在上月向Google提出辭呈。
Google的AI負責人狄恩(Jeff Dean)在給美國媒體的聲明中,表達了對辛頓的感謝。
聲明中還提到說:「身為率先發布AI原則的公司之一,我們仍致力對AI採取負責任的態度。」
「我們在大膽創新的同時,也不斷發現新冒出來的風險。」
科技業億萬富豪馬斯克(Elon Musk)和許多專家呼籲,暫停AI系統的開發,以便有時間能確保這項科技是安全的。
在比ChatGPT所使用的AI更強大的GPT-4推出後,馬斯克和蘋果(Apple)共同創辦人沃茲尼亞克(Steve Wozniak)等逾千人,連署發表一封公開信。
辛頓並未參與連署,但他告訴《紐約時報》,科學家在瞭解能否控制AI以前,不應該「進一步擴大研發的規模」。
75歲的辛頓在推特發文指出,《紐時》報導的寫法似暗示他離開Google才能批評Google,但其實Google在處理AI方面相當負責,他只是在離開相關產業後才能暢所欲言地談到人工智慧的危險。
2012年,辛頓在多倫多大學執教時,與兩名學生合力打造「神經網路」(neural net ),後來他被Google延聘,開發該公司的人工智慧科技,奠定ChatGPT的基礎。(綜合外電、中央社報導)
爆料信箱:news@nextapple.com
★加入《壹蘋》Line,和我們做好友!
★下載《壹蘋新聞網》APP
★Facebook 按讚追蹤