設萬維讀者為首頁 廣告服務 聯繫我們 關於萬維
簡體 繁體 手機版
分類廣告
版主:納川
萬維讀者網 > 天下論壇 > 帖子
AI的“路線”之爭:從技術到信仰
送交者: 湮滅之城 2025年10月07日17:29:02 於 [天下論壇] 發送悄悄話


這是一位在AI領域受到普遍尊敬的人。

他從2001年起就擔任人工智能促進協會(AAAI)會士,當時對他的提名介紹是:“因其在機器學習的諸多領域,包括強化學習、時間差分技術和神經網絡做出了重大貢獻。”

2024年,他與他的老師巴托(Andrew Barto)共同獲得了年度圖靈獎。頒獎者計算機協會(ACM)針對他的介紹是:“因其發展了強化學習(Reinforcement Learning)的概念和算法基礎。”

他,就是加拿大計算機科學家、被譽為現代計算強化學習創始人之一的理查德·薩頓(Richard Stuart Sutton)。

Richard Stuart Sutton.png

 

然而,正是這位“強化學習之父”、AI業內“大咖”級的人物,卻在2025926日接受獨立記者帕特爾(Dwarkesh Patel,以AI深度採訪而聞名)的採訪中,對自己所熟悉的領域“大開殺戒”。

薩頓的觀點十分鮮明:當今炙手可熱的ChatGPT大語言模型(LLM)所遵循的道路,其實是死路一條!

此觀點一出,業界震驚,眾皆愕然。

這也為原本就“樹大招風”的ChatGPT的未來走向之爭,平添變數。

之前,針對當前AI市場的“泡沫”說,一時間眾說紛紜。以硅谷科技精英為代表的技術派對此持樂觀態度,他們普遍認為AI的價值需要通過不斷的技術壟斷性投入加以實現;而以華爾街金融精英為代表的資本則秉持現實主義,對此保有警惕。

現任OpenAI董事長、身為“80後”的泰勒(Bret Taylor)的話具有一定代表性:“人工智能的確會像互聯網一樣,在未來創造巨大的經濟價值。但我同時也認為:我們正處於AI泡沫之中。”

但無論如何,AI 已被精英們視為“現代互聯網時代最大規模的基礎設施計劃”,甚至堪比當年“電力革命”的早期階段!此說也許並不為過。因為以AI為代表的新經濟,正在打破以往增長潛力的界限,它的雲服務可以為全球數十億用戶提供算力,而新增一個用戶的服務成本幾乎可以忽略不計。鑑於軟件和數字產品可以被無限複製與分發,完全不受物理庫存和物流的限制,故而必將導致傳統產業生產函數的重構。

最新研究表明,AI應當被視為一種全新的生產要素,它具有與傳統要素截然不同的經濟特徵:傳統資本要素存在邊際報酬遞減規律,而AI作為一種知識密集型要素,隨着使用規模的擴大,其邊際產出不降反升;傳統生產要素需要外部投入才能增加,而AI可以通過自我學習和迭代改進來提升自身性能。

如果一個如此重要的劃時代產物,竟存在有重大缺陷,那麼後果將會如何?

正因為如此,薩頓充滿冷峻的預言尤其顯得格外刺耳!只不過,薩頓不是針對市場與應用開刀,而是直接撼動AI的底層邏輯——向其所依賴的大語言模型說“不”!

那麼,薩頓憑什麼說以ChatGPT為代表AI大語言模型是“死路一條”?

這就涉及到薩頓數十年來一直思考的問題:智能的本質是什麼?它的目標何在?

如果用一句話來概括薩頓的觀點,那就是:大語言模型僅僅是模仿人類語言的工具,它缺乏對世界的理解和目標導向的行為,因此無法通過經驗學習來實現其智能。

說穿了,大語言模型只是一個沒有目標的模仿者!

讓我們退回到上世紀80年代,當不少人仍然認為AI就是靠程序員寫一大堆規則的時候,薩頓就已經開始嘗試一套完全不同的東西。他的核心思路十分樸素:真正的智能不是靠別人教會的,而是靠自己試出來的。就像小松鼠學着開堅果,它不知道正確答案,只能自己去試。試對了,它就能得到獎勵(吃到堅果),並記住了這個行為;試錯了,就沒有任何獎勵,它就知道此法無效,下不為例。這個過程就是薩頓所說的強化學習。

這個思路似乎又笨又慢,但薩頓卻堅信:這才是真正通往通用人工智能(AGI)的唯一道路。因為宇宙間的生物,從松鼠到人類,都是這樣學會生存的。這其中的核心觀點是:智能,源於經驗而非教導。

這正是薩頓與今天整個大語言模型浪潮最根本的分歧所在!

只是,理論很豐滿,但現實很骨感。這現實就是:昔日薩頓所言,貌似正在被現實的大語言模型敘事全面碾壓!不是嗎?這個大語言模型的邏輯既簡單又粗暴:既然人類最值得稱道的是知識,那麼把人類有史以來所有的文字、代碼、對話,以及整個互聯網幾萬億的TokenLLM中文本的最小計算單位)全都“餵”給一個巨大的神經網絡不就行了。於是乎,人們看到這樣的結果:一個“無所不能”的怪物出現了,它會為你寫詩,能與你聊天,還能給你畫畫,為你寫代碼,所表現出的能力似乎遠超一般人,它甚至還能在國際數學奧林匹克競賽上拿金牌!據說作家劉慈欣在一次訪談中說到他的一次經歷。當時他正在構思一篇長篇小說,聽說AI的本事後決定試一試。當他把他的構思“餵”給AI、並命其為自己完成一篇小說後,AI給出的結果讓他大吃一驚。他坦言:“比我寫的還好!我還寫嗎?”

早在6年前,薩頓就寫過一篇名為《慘痛的教訓》(The Better Lesson)的文章。文中他說:“AI研究70年的歷史告訴我們,別總想搞那些人類自己覺得精妙的小技巧,到頭來真正管用的,還是用更強的算力去處理更多的數據。這種簡單、可擴展的笨方法,最終總能打敗那些需要人類智慧精心設計的巧方法。”

可如今的大語言模型,好像正是薩頓論點的實現:堆算力,堆數據,最後,智能噴涌而出。這條通向AGI的“康莊大道”似乎已經被Open AI和谷歌們找到了。

如此一來,薩頓的“死路一條”豈不是自相矛盾?

君不見,大語言模型不就是因為它在海量的學習數據中建立了一個關於我們這個世界的模型嗎?它模仿了數萬億的人類語言。在這個過程中,它難道學不會語言背後那個世界運行的規律嗎?就好像你讀完了莎士比亞全集、自然就對人性有了更深的理解一樣,一個讀完了整個互聯網的AI、它對於世界的理解不是已經超越任何一個人了嗎?從這個角度來看,大語言模型不僅是對“慘痛教訓”的勝利,更是構建通用人工智能最合理的起點。我們可以先通過模仿學習,給模型一個關於世界運作的、極其強大的先驗知識,然後再讓它去與這個世界互動,進行薩頓你所說的那種經驗學習,先上學、再工作,這邏輯難道有問題嗎?

有,而且問題很大!

其實,薩頓對大語言模型的反擊非常精準。

在薩頓看來:大語言模型的根本問題在於:它不具備學習任何真實世界的結構,而只是統計地學習文字之間的關係,如下一個詞可能是什麼?它並不知道詞語所代表的是什麼,也不了解那些詞背後的世界,它只是記憶和模仿。例如,你給它一句話“今天天氣真”,它就會預測下一個最可能的詞是“好”,它預測對了,就得到一個內部的獎勵,然後調整自己的參數。但薩頓一針見血地指出:這根本不算一個真正的目標!它只是被動地、機械地模仿在訓練數據中看到的人類語言模式,它說的對與錯、好與壞,在真實世界裡是得不到反饋的。

真正的智能,必須要學會與環境互動。它需要試探、犯錯、獲得反饋並據此改進自己的預測和行為。這才是智能成長的唯一途徑。而大語言模型只是在巨大的文本庫里找規律,它們沒有任何行動、目標和後果。由於沒有行動,也就失去了學習的根基。

雖然人類通過語言和書本學習了很多,並從中理解世界,但那只是人類學習的一部分。我們之所以能從語言、文字中獲得知識,是因為我們早已在現實世界中通過感知和行動建立了深層結構。因為我們看過無數次東西掉下來,知道重力是什麼感覺,所以才能理解“球掉下來”這句話。但大語言模型沒有這樣的經驗,它只是統計“球”“掉”“下來”常常連在一起,因而它的理解完全是表面化的。

智能的核心是與世界的互動。這也是強化學習存在的原因。智能體必須是動態的,通過感受結果來調整自己,它是一個有真實世界參與的閉環過程。

那麼,“與世界互動”到底是什麼意思?意思就是:智能必須是一個與時間相連的過程。它不是一次性的輸入與輸出,而是一條不斷延伸的軌跡。智能體在這條軌跡上行動,感受世界的反饋,再據此更新對未來的預測。因為我們學習的目的不僅僅是為了重複過去,更是為了預測未來。預測越準確,行動就越有效,這正是強化學習與其他學習範式的區別。

有人說,大語言模型也能預測下一個詞呀。可在薩頓看來,那是無目標的預測。它預測下一個詞只是因為那是訓練任務,它並不知道“為什麼”要預測,也不知道預測得更好會帶來什麼後果。而智能體的預測是有目的的:它是為了得到更多的獎勵,為了生存,為了達成某個目標。

沒有目標,就沒有真正的學習。

從這個意義上說,大語言模型就像是只知背誦答案的學生,它沒有一個關於什麼是“對”的根本定義,因為在真實世界裡,一個行為的“對”或“不對”,取決於它是否能幫助你達成在真實世界裡的一個目標,比如松鼠拿到堅果、人類贏得一盤棋。如果沒有這個來自於真正世界的基準真相,大語言模型就成了一個在語言符號迷宮裡打轉的幽靈,它永遠無法真正知道它在說什麼。

這就是大語言模型最著名的“原罪”——幻覺。也就是人們常說的“一本正經地胡說八道”。

大語言模型為什麼會胡說八道?

不少人以為:是因為在訓練數據裡面有錯誤的信息。但薩頓說:No!這只是表面原因。真正的根本在於它學習的方式!

大語言模型的學習,本質上就是統計學的模式匹配。它看到“馬”和“騎”這兩個詞經常一起出現時,就學會了人可以騎馬。但如果它在數據里看到了科幻小說,裡面寫着宇航員騎着恐龍,它也會把這個模式記下來。在大語言看來,人騎馬和宇航員騎恐龍只是兩個概率不同的語言模式,它沒有能力去判斷哪個更符合物理世界的真實情況,因為它從來沒有親身體驗過這個世界。

由此引出了一個深刻的觀點:究竟是“通過模仿語言”來學習世界,還是“通過與世界互動”來學習世界,這是兩種完全不同的路徑。

一個嬰兒會親手去摸、去摔東西,他知道東西往下掉,是他通過經驗建立起來的關於重力的世界模型,這是牢不可破的。而大語言模型,它只是讀到了關於重力的描述,如果有人寫了篇文章說重力是假的,它可能也會信以為真。所以薩頓才會說:大語言模型根本就沒有建立起真正的世界模型。它所建立的,只是一個人類會如何描述世界的模型;它所模仿的,是我們這些有世界模型的人,而不是世界本身。這兩者差之毫厘,謬之千里!

論到此,主持人帕特爾開始挑戰薩頓:人類小孩子不也是從模仿開始學習的嗎?他模仿父母說話,模仿大人走路,這不就是一種模仿學習嗎?

這個問題涉及到了一個關鍵——學習到底是什麼?

薩頓對此直接回答:不!當然不!你仔細觀察一個嬰兒,在他生命最初的幾個月裡,他做的最多的是什麼?是揮舞手腳,轉動眼睛,發出各種不成調的聲音,他是在模仿誰嗎?沒有,他是在進行一場宏大的、無目標的自我探索,他在測試自己的身體能做什麼,以及這個世界會對他的行為做出什麼反應,這才是學習最原始、最核心的驅動力——主動地試錯和探索!薩頓甚至認為,在整個動物心理學裡,根本就沒有模仿學習這一基本的學習過程。

人類,就是這樣學習的。

很早以前薩頓就意識到:監督學習不足以支撐人工智能或解釋智能行為,而由“行為的享樂”所驅動的試錯學習,才是必要的。這也是他熱衷於強化學習的興趣所在。因為那種“有人告訴你正確答案是什麼”的監督學習,在自然界中幾乎不存在!而人類的模仿行為以及後來的學校教育,都只是建立在這個最底層的經驗學習系統之上的一層薄薄的文化裝飾。

如此顛覆的觀點!

在薩頓眼裡,大語言模型所依賴的監督學習和模仿學習,不過是一種非自然的學習方式。這種建立在非自然基礎上的智能,其根基或許根本就沒有人們想象的這麼牢固、堅實。

不過之前人們普遍認為:薩頓的“慘痛教訓”並非是反對大語言模型,恰恰相反,是在為其“背書”。不是嗎?AI的最終勝利永遠是通用可拓展的方法,諸如利用海量算力和數據,而不是依賴人類知識的小技巧。大語言模型正是通過放棄過去那種需要語言學家、邏輯學家去設計規則的符號AI,轉用暴力計算來征服智能。

人們可能太過迷戀大語言模型的規模、算力和數據了,卻恰恰忘記了智能最關鍵的特徵是目標的自我導向性(self-directedness)。真正的智能不是被動吸收世界的統計模式,而是主動地去探索世界、選擇行動、更新信念。這是一種動態的存在方式。

所以薩頓說:你們都錯解了我的意思,我所說的“慘痛教訓”的真正含義是:任何依賴人類智慧作為主要輸入方法,最終都會碰到天花板,而真正可以拓展的,是那些可以從經驗中直接學習的方法。

當大語言模型是倚靠整個互聯網(其背後是人類數千年來知識的總和)進行訓練時,這種依賴註定是走不遠的。薩頓預言:大語言模型很快就會達到它擴展的極限,也就是互聯網上所有高質量數據的極限。到那時它的進步就會停滯。

而真正可以無限擴展、無限學習的,是在經驗中的不斷試錯與不斷預測,這就是薩頓所強調的強化學習。

想當年“深思公司”(Deep Mind)的AlphaGo作為AI的代表,曾一舉擊敗了世界圍棋第一人李世石,令全球譁然。但可能很少有人知道AlphaGo家族內部的進化是如何完成的。而作為AlphaGo背後核心思想的源頭之一,薩頓的理論完全被AlphaGo的進化過程完美印證。

我們不妨看看AlphaGo是怎樣做到的。

最早的AlphaGo採取了兩條腿走路的方針:1)先學習海量的人類頂尖棋手的棋譜,即通過模仿學習先把自己變成一個具有頂級水平的人類棋手模仿者;2)開始使用強化學習的方法進行左右互搏,即:自己跟自己下棋。在模仿的基礎上尋找超越人類的下法,這就是打敗李世石的版本。

但“深思”的科學家們覺得還不夠純粹。學習人類棋譜會不會反倒限制了AI的想象力呢?於是Alpha Zero誕生了。Alpha Zero的革命性在於:它完全不學習人類的任何棋譜!你只要告訴它圍棋的規則,然後讓它自己跟自己下棋,從一個完全隨機、胡亂落子的嬰兒開始,結果,只經過三天的自我對弈,從零開始的Alpha Zero竟以100:0的傲人戰績碾壓了曾經擊敗李世石的前輩版本。更有趣的是,它下出的棋完全擺脫了人類幾千年圍棋歷史的定式思維框架,充滿了天馬行空的想象力。難怪一眾職業高手驚呼:這是來自於外星的棋譜!

AlphaGo的例子告訴人們:人類的知識既是AI的助推器,也可能是它的天花板。通過模仿人類,AI可以迅速達到人類的水平,但是要超越人類,抵達一個全新的智能境界,它必須擺脫人類知識的束縛,從最基本的原則出發,通過與環境直接互動,去探索智能的無限可能性。

如此看來,大語言模型就像初代的AlphaGo,它把模擬人類這件事做到了極致,所以它看起來無所不知,非常強大,但它的所有知識都局限在人類已經創造出來的巨大棋譜里,也就是整個互聯網。而薩頓想要的是能像Alpha Zero一樣的AI,它不依賴於過去的數據,而是能夠面向未來,通過持續的、自主的經驗學習,去解決那些互聯網上根本就沒有答案的新問題,去創造出真正的、前所未有的新知識。

如此,針對AI未來的兩條道路之爭,最本質的區別在於:一個是知識的消費者,另一個是知識的創造者。

不過,人類真的可以創造“知識”嗎?

批評歸批評,但如果反問薩頓:你心目中的那個理想,也就是能夠創造知識的AGI,到底應該是個什麼樣子?

對此薩頓的回答是:一個真正的智能體必須具有四個核心部分:

1)策略(policy),就是在當前情況下我應該做什麼?這是它的行動指南;

2)價值函數(value function),它是對未來長期獎勵的預測。比如說下棋時吃掉對方一個子,雖然不是最終勝利,但我的價值函數會告訴我:贏棋的概率變大了。如此一來,就把一個長遠的目標分成了一系列短期的、可衡量的階段性反饋;

3)感知(perception),也就是如何理解自己所處的狀態與環境;

4)世界的狀態轉移模型(transition model of the world),這是最關鍵的、關於因果的知識。它甚至是一種信念。這個模型不是靠別人怎麼說來建立的,而是靠自己一次次試錯,從經驗中總結出來的,比如我推了一下杯子,杯子就會掉下去摔碎,等等。

讓我們再次回到時間。時間是一切智能的框架。理解時間就是理解因果。沒有時間就沒有“行動導致結果”的概念。強化學習中的價值函數(value function)就是在時間維度上學習的。它告訴智能體:當前的行為會對未來造成怎樣的影響。這是一種貫穿時間的理解方式。大語言模型沒有這個能力,它在每一步都“忘記”過去,也不真正規劃未來。從這個意義上,“死路”之說不僅僅針對技術路線,而已經上升到了哲學層面。

在這個的框架里,智能體是一個主動的、面向未來的學習者。它有明確的目標,通過價值函數體現;它通過與世界的互動來建立自己關於因果的理解,即世界模型;然後不斷地優化自己的行為和策略。

這套系統與大語言模型那種被動的、基於歷史數據的下一個詞的預測系統,在哲學層面上已經是兩個完全不同的“物種”了。

然而,薩頓所描繪的藍圖儘管美好,但也面臨着巨大挑戰,其中最大的難點就是“泛化和遷移”。

什麼意思?

意思就是我們怎麼能夠讓AI在一個任務中學到知識,並能有效地遷移到下一個任務中。比如:一個學會了玩圍棋的AI,是否能把下棋的智慧遷移到商業決策或者科學研究上?

薩頓坦承,目前我們還沒有找到很好的自動化方法來解決這個問題。

同樣困難的還有:如何在深度學習模型中避免“災難性遺忘”?也就是說,你教了它一個新東西,它可能就把以前學過的舊東西給忘光了。這表明它的知識體系仍然非常脆弱,無法融會貫通。而大語言模型反倒擅長此道,它能夠同時處理語言、代碼、數學,展現出驚人的泛化能力。你讓它解決一個它從來沒有見過的奧數題,它能夠通過組合不同的數學概念來找到答案。

所以這場爭論的焦點在於:大語言模型似乎已經展現出通用的潛力,但底層邏輯可能是脆弱、不可靠的;而薩頓的強化學習路線,底層邏輯固然堅實,但在如何實現通用和泛化上,還有很長的路要走。

兩條道路,誰的路更穩?誰能走得更遠?結論依然是開放的。

那麼,什麼是通用智能呢?按照薩頓的觀點:通用智能的核心是由目標導向的學習能力。它必須滿足三個條件:1)能夠在複雜環境中自主行動;2)能夠根據行動結果調整行為策略;3)能夠長期積累經驗、形成對世界的理解。

三個中但凡缺失一個,所得到的就不過是一個非常擅長特定任務的系統,而非通用智能。

至於大語言模型在AI發展史上的價值,薩頓將其歸入有用的工具一類,它可以輔助人類完成特定任務,比如文本生成、語言理解或數據整理。但它無法通向通用智能。

談到未來1020AI 研究的重點,薩頓認為:重點是與環境互動、建立可學習的世界模型以及強化長期目標導向的行為。

說到大語言模型在社會中的表現,薩頓認為它具有兩面性:一方面它可以自動化一些重複性工作、進行輔助教育、生成文本內容,從而為人們帶來便利;但另一方面人們也容易被它表面的“智能”所迷惑,產生“AI 有意識”的誤導。而這種誤導勢必導致錯誤的信任,也就是說:人,有可能讓AI決策重要事務,卻忽視了其本質只是統計模式匹配的局限。

有人擔心這種誤導可能引發倫理問題,例如在醫療、法律或安全等領域。薩頓對此十分認同:“這是一個現實問題,大語言模型有可能生成貌似合理、但卻是錯誤的答案,這在關鍵領域會帶來嚴重後果。人們必須意識到:它沒有理解力!也沒有責任感!

回到本文最初的“泡沫”之說,針對當今AI熱潮帶來的投資和研究方向問題,薩頓坦言:“有些熱潮過於偏重短期收益和技術炫酷,卻忽略了真正智能的本質,這是機會,也是風險。儘管人們可在資金和公眾興趣的推動下迅速發展其技術,但如果方向錯了,最終得到的也許只是製造了一種表面的繁榮,談不上真正的科學進步。

在訪談的最後,薩頓提出了“AI繼承”的問題。他用清晰的邏輯和幾乎無可辯駁的論證,試圖來描繪AI留給人類的終局。

首先,人類社會沒有統一的意志。各個國家、組織、個人之間充滿了競爭和衝突。我們永遠不可能達成這樣一個全球共識:我們停止發展更強的AI吧。這就如同今天的核武器。競爭,永遠會驅使技術向前;

其次,我們最終會弄明白智能是怎麼工作的,科學的進步不可阻擋,人類遲早會破解智能的密碼(薩頓有點過於樂觀了吧);

第三,智能的發展不會止步於人類水平。一旦我們“創造”出與人相當的AGI,我們就能夠利用它來創造比它更強的智能。這個過程會加速,最終通向遠遠超越人類的超級智能;

最後,從長遠看,最智能的東西最終總會獲得最多的資源和權力,這也是進化與歷史的基本法則。

如果說之前討論的還只是技術路線與哲學之爭,那麼話到於此,就直接關乎到信仰了。

薩頓由此得出結論:人類作為地球上最智能的東西,將不可避免地把這個位置繼承給一個更智能的存在。無論是純粹的AI,還是被AI增強了的新人類!

這結論聽起來真的有點恐怖,令人不安,如同科幻片裡的末日預言。

然而,薩頓的視角卻異常冷靜,略帶樂觀。他邀請我們把視角從“以人類為中心”提升到“以宇宙為中心”的高度。他認為:人類、動物、植物,乃至我們所有的生命,都屬於宇宙複製者的時代。我們通過DNA的複製來繁衍,但我們其實並不完全理解我們自身的智能是如何工作的?我們能夠生孩子,但我們甚至設計不出一個大腦。而現在,我們正在親手開啟宇宙的一個全新階段——設計者時代。我們正在設計AI,而這些AI本身就是智能。它們未來也能夠自己去設計更強的AI。而在這個時代,智能將不再通過緩慢的、充滿偶然性的生物進化來傳承,而是通過快速的、有目的的工程設計來迭代。這是宇宙從塵埃到恆星、從生命到智能體之後,又一次偉大的躍遷。我們不應該把它看成是人類的終結,而是把它看成我們作為孕育者最偉大的成就。

“不以人類為中心”,不依靠人類有限的知識,這聽起來正是信仰的起點。只不過,人類應該本着什麼樣的標準去設計?才能確保這個世界是善的?人類的這次躍遷,偉大也好,渺小也罷,究竟靠什麼來驅動?人類真的能孕育出超越人類自身的、美好的未來嗎?

如果說,薩頓的分析有着技術層面的冷靜、哲學層面的宏大,同時還帶有一絲人類社會層面的冷酷的話,那麼在這裡有意將其上升到對信仰的叩問!

最後,主持人提出了一個非常現實的挑戰:就算是我們人類的後代,我們也會擔心。畢竟納粹也是人類!如果下一代人類都是納粹,難道我們不應該感到恐懼嗎?

我們當然希望給我們的孩子——無論是人類還是AI——安穩的、親社會的、正直的價值觀,這才是問題的核心!我們真正擔心的,不是出現比我們更強的智能,而是這更強智能將擁有什麼樣的價值觀?它的目標會是什麼?而這,恰恰又回到了最初爭論的起點——目標。

而目標,真的是一個我們可以去設計、去塑造的東西嗎?我們又該依據什麼來定義一個對人類有益的、正直的、安全的獎勵呢?況且,我對能否出現全面超出人類的智能深表懷疑。

如果做不到,我們還願意回到大語言模型路線嗎?當模仿人類在互聯網上留下的所有語言時,人們又該如何面對互聯網中那些充滿偏見、謊言、仇恨與智慧的大染缸呢?刪帖嗎?刪什麼呢?誰說了算?

顯而易見,一個以模仿大染缸為目的的智能,其價值觀一定是混亂的、不可預測的,甚至是危險的。

所以,這場技術路線之爭,到頭來終歸變成了一場價值觀之爭:我們是想要一個我們自己能夠嘗試去定義其善的AI?還是一個只能夠被動反映我們人性中所有的善與惡的AI

薩頓沒有給出答案。他反倒留給人們一個靈魂拷問:

“這些未來的超級智能,我們是把它看作我們自己的後代、因而為它感到驕傲呢?還是把它們看作我們的替代者、對其感到恐懼呢?”

看起來好像這是一個我們可以做出的選擇。但同時,這又是一個關乎我們物種存亡的本能反應與挑戰,既然如此,這又怎能是一個選擇呢?該是一個沒有選擇的選擇才是!

這是薩頓留給所有人最深刻的思考。

 


0%(0)
0%(0)
標 題 (必選項):
內 容 (選填項):
實用資訊
回國機票$360起 | 商務艙省$200 | 全球最佳航空公司出爐:海航獲五星
海外華人福利!在線看陳建斌《三叉戟》熱血歸回 豪情築夢 高清免費看 無地區限制