設萬維讀者為首頁 廣告服務 技術服務 聯繫我們 關於萬維
簡體 繁體 手機版
分類廣告
版主:納川
萬維讀者網 > 天下論壇 > 帖子
ChatGPT 可怕在哪兒?
送交者: 湮滅之城 2023年04月02日08:51:08 於 [天下論壇] 發送悄悄話


愚人節已過。

2023329日,美國未來生命研究所(Future of Life Institute)向公眾推出公開信,呼籲暫停開發比GPT-4更強大的人工智能(AI)系統,為期6個月。

包括蘋果公司聯合創始人、普利策獲獎者、知名大學教授、IT公司的CEOAI研究機構的負責人以及埃隆·馬斯克等在內的一眾業內知名人士共同簽署了這封公開信。

截止到現在為止,公開信已獲得了2825個簽名。

之前,微軟支持的OpenAI推出了具有劃時代意義的GPT-4,該程序以可進行貌似真人的對話、創作歌曲、總結歸納冗長文檔等等,其超出人們預期的能力贏得了用戶的普遍讚譽。

不就是一個202211月推出的AI聊天機器人程序嘛,為何如此大驚小怪、興師動眾?

之前有人在網上調侃,給出了ChatGPT胡編亂造、離譜的讓人噴飯的奇葩回答。

不過,那只是GPT-3.5。如果你再試試314號剛剛推出的GPT-4,其改進速度着實讓人驚嘆。

公開信開篇就說:

廣泛的研究試驗證實,具有可與人類競爭的智能AI系統,可能對社會和人類帶來深刻的風險。先進的AI可能代表了地球生命歷史上的深刻變革,所以應當對其進行相應的規劃和管理。

不幸的是,最近幾個月來,AI實驗室已經陷入了一種失控的競賽。隨着人們不斷地開發、部署越來越強大的數字算力“思維”,恐怕沒有人——甚至包括它們的創造者——能夠理解它、預測它以及對它實施可靠地控制。

我們必須針對我們自己發問:

我們是否該讓機器用宣傳和虛假的東西淹沒我們的信息渠道?我們應該將人類的所有工作、包括十分有意義的工作都自動化嗎?我們難道應當開發非人類思維,使其在數量上和智能上最終超過我們並取而代之嗎?我們難道會甘冒人類失去對文明控制的重大風險?

所有這些決定,不能委託給未經選舉的技術領袖。只有在確信其效果積極且風險可控的情況下,我們才應該開發強大的AI系統。

據此,公開信呼籲:所有的AI實驗室應即刻暫停超出GPT-4功能的AI系統訓練至少6個月。如果這樣的暫停無法迅速實施,政府應介入並敦促實施。                         

Eliezer_Yudkowsky,_Stanford_2006_(square_crop).jpg

艾利澤爾·尤德科夫斯基(Eliezer Yudkowsky1979—)

 

在上述公開信的支持者中,獨獨少了一位在AI領域內舉足輕重的角色,他就是尤德科夫斯基——美國機器智能研究所(MIRI)的領軍人物,人工智能一致化(AI alignment)學科的創始人。

所謂AI一致化,就是確保AI系統不僅能夠完成指定的任務,而且當AI變得更加先進並擁有巨大潛力時,也能夠以有益於人類普世價值的方式行為。它的具體研究內容包括:創建安全、透明且與人類目標相一致的AI系統,解決與AI相關的潛在風險和道德倫理問題。

由此可見,這是一個跨越計算機科學、數學、哲學、心理學、經濟學和法學等諸多學科的領域。

所以,尤德考科斯基對公開信,無疑擁有重要的發言權。

為了向公眾解釋他為什麼沒在公開信上簽名,他於29號當日,罕見地在《Times》上專門發表了一篇文章。他坦言:

“我對每一位站出來簽署公開信的人都很尊重,但我沒有簽名,因為我認為這封信低估了問題的嚴重性,6個月根本就不足以解決問題。”

後面,是更驚悚的話:

“包括我自己在內的許多精通AI問題的研究人員,我們預計在並不遙遠的將來,建立一個超出人類智能的AI是顯見會發生的事,它其最可能的結果就是:地球上的所有人都會死。”

有些聳人聽聞!

在尤德科夫斯基看來,問題的關鍵還不是與人類競爭的AI,而是當AI達到比人類更聰明的程度後會發生什麼?

鑑於“比人類更聰明”並沒有一個明顯的界線,所以人們在研究試驗中會在不知不覺中越過這一關鍵界限!

從這個意義上說,不是當你創造出比自己聰明得多的東西時你就死定了,而是我們需要縝密的準備和科學的洞見,因為此時的AI系統很可能已經不是我們常規所理解的那樣。

什麼意思?

今天的AI與以往的究竟有什麼不同?

竊以為,最重要的不同在於:人與機器的界線突然變得模糊,難分彼此了!

想想看,人創造出了AI機器,可結果卻是,人竟然可能無法區分出誰是人?誰是機器?

這才是AI發展下去的最可怕之處!

這就像造物主創造出的人一樣,隨着人的自由意志的日趨膨脹,人開始漸漸地弄不清自己到底是誰了?

是人?還是上帝?

當人被夾在上帝與AI之間時,人類雙重的迷失註定是悲劇!

50年前,可能絕大多數了解並從事AI研究的人都會贊同這樣的規則:一旦AI系統可以流利地說話並表示自己有了自我意識,甚至提出權利的訴求時,人們就不該輕率地發展它,也不該繼續使用它。

如今,我們已經超越了這條曾經的底線。

所有的危險都不在於AI是否具有意識或者能否擁有意識,而在於我們根本就無法確定AI系統是否已經真正擁有了自我意識。

因為我們對這些系統的內部機制了解甚少,我們根本無法解碼巨大而難以理解的海量數據陣列里發生的一切!

也因此,我們可能會無意中創造出真正有意識的頭腦,它擁有自己的權利,並且不再被人類所獨占。

這是頂級AI研究人員的洞見。

0x0 (2).jpg

OpenAI的首席執行官薩姆·阿特曼(Samuel Harris Altman1985—)

 

當人們正在為AI的重大進展高唱讚歌時,AI或許正在虎視眈眈地注視着人類。

ChatGPT之類的AI工具比人類更善於匯總知識與信息時,當ChatGPT不僅能寫,能算,能自動生成圖片與視頻,而且有一天會出現在各行各業並且稱霸一方時,這不僅僅意味着失業潮與經濟的凋敝。

諷刺的是,人類開發AI的初衷本來是為了處理那些重複無聊的雜事,以便讓人類可以發揮創造力去寫作、畫畫、編程、寫論文……可今天可能的結果卻是,AI已經學會了寫作、畫畫、編程、寫論文,反倒把許多重複無聊的事丟給了人類……

尤德科夫斯基指出:

如今的我們,不得不把AI想象成一個充滿敵意的超級對手,它已經不再是沒有生命的、只會寄居在網上發送一些惡意郵件的書呆子了。如果沒有縝密的準備,AI可能不會按照我們的意願行事,也不會關心我們以及其他有感知的生命。

儘管在理論上,我們可以將關愛注入到AI中,但我們現在還沒有準備好,也不知道該如何做。

問題是,如果缺少了這種關愛,人類就有可能成為冷酷的AI手下的一枚棋子。

有朝一日,當人類面對遠遠超出自己智能的AI時,結果很可能是徹底的失敗,就如同“11世紀試圖對抗21世紀”、“猿人試圖對抗智人”一樣。

一切都發展得太快了,以至於AI研究與應用中時分重要的一環——AI的可解釋性(explainable AIXAI)受到了嚴峻的挑戰!

什麼是AI的可解釋性?

用最通俗的話解釋,它是讓AI系統的決策過程變得透明以及易於理解的技術與方法。尤其是當今對於諸如深度神經網絡那樣的複雜的AI系統,其決策是基於數百萬個難以解釋的數據點而做出的。這就使得AI系統是否值得信賴變得特別重要,包括可追溯性和道德基準,例如在醫療保健、金融和國家安全等高風險領域,更是不允許AI出現任何錯誤。

人們正是通過AI的可解釋性了解所有細節,讓AI變得更加讓人放心。

這說的是過去,作為一種對比,現在的GPT-3,其數據點已高達1750億個!至於更先進的GPT-4,沒人知道有多少個,保密!

可如今,AI的研究者、開發者和專家們卻告訴我們:面對一個經過訓練的、功能強大的AI模型算法,當AI給出某種結果或者做出某種決定時,控制這些算法的軟件工程師可能自己也無法解釋為什麼會是這樣的結果、這樣的決定。換句話說,專家自己也鬧不清裡面究竟是怎樣發生的。

這難道不可怕?

特別是它足以亂真時,更是如此。

有業內人士認為,AI的背後是海量的人的知識與智慧的總和,而我們卻往往是以獨立的人、憑着區區一己之力與之對壘。

如此看來,勝算有多大?

聽起來有點悲觀。

不過無論如何,當AI的野蠻生長與AI的一致化以及可解釋性的發展表現出嚴重的不同步時,暫時停下來或許是明智的選擇。

2023-04-01.jpg


331日,意大利率先動手。意大利個人數據保護局宣布,從即日起禁止使用聊天機器人ChatGPT,並限制開發這一平台的OpenAI公司處理意大利用戶信息。OpenAI公司必須在20天內通過其在歐洲的代表,向意大利個人數據保護局通報措施,否則將被處以最高2000萬歐元或公司全球年營業額4%的罰款。

出手夠狠。

據說,《華爾街見聞》為此事還專門詢問了ChatGPT“本人”的看法。

結果ChatGPT承認:的確沒有“直接核實用戶的年齡或個人信息”,並表示,支持捍衛用戶隱私和數據安全。

不愧是GPT-4

除了這些,還有倫理問題。

我們可以回顧一下6年前發生的一件事:

Tay”是微軟於2016年推出的一款聊天機器人。它旨在藉助在線對話進行學習,並以自然有趣的方式與Twitter的用戶互動。然而,由於受到在線惡意用戶的影響,Tay不久就開始出言不遜,不斷給出冒犯性的話語和不當評論,結果實驗在24小時內被關閉。

此事件引發出有關AI潛在的危險以及AI開發道德準則的討論。

眾所周知,AI的能力依賴於海量的資料庫、大量的閱讀理解、深入學習能力、超級的算力、高複雜度的模型,以及眾多的資金投入與人工參與。

其中一個重要環節就是進行資料篩選——保留有價值的東西,剔除違反道德倫理的謬誤和垃圾。

那麼,由誰來完成這一篩選的工作?

這是一件不能忽視的大事!

是由AI自己完成嗎?

顯然不是。

從現在看,包括在一段可預見的時間裡,ChatGPT在本質上還不是人和機器誰控制誰的問題,而是控制這個機器底層模型算法的一批人控制了另外一批人的問題!

當你與ChatGPT交互時,有些關鍵詞或敏感詞顯然會被屏蔽。我在撰寫此文時,求教ChatGPT,它有一次出現了這樣的答覆:

“很抱歉,由於上下文語境複雜且涉及重大倫理和技術問題,我不能提供服務……”

這當然是開發者人為干預的結果。

也因此,AI的偏見不可避免。

這偏見有可能來自於“餵養”的資料,也有可能來自於從事標註的人員,就像tap,機器人會表現出仇恨與種族歧視傾向,等等。也許這並非是訓練人員有意為之,他們或許也不知道接下來會發生什麼,但AI卻有能力通過網絡與眾多真人的互動,完成自主學習並且提高得很快。於是便有了那樣的結果。

可這,並非是訓練它的人員之前所預期的。

Times》調查顯示,為了建立針對有害內容(像暴力、種族主義、性虐待等)的安全系統,OpenAI僱傭了每小時收入不到2美元的肯尼亞外判工,以標記用於訓練模型的有害內容。這些外判工稱他們的這種經歷為一種折磨。

人與ChatGPT的互動,形成了數據“餵養”與自我學習的綜合結果,這就難以避免偏見的造就:從資料的偏見,到AI的偏見,再到與之互動的人,AI可能強化了人本身既有的偏見。如此循環往復,形成一種彼此支持的反饋與強化,這是一個地道的正反饋過程。

使用ChatGPT中你會發現,當你分別用中文和英文去詢問中國的民主政治問題時,得到的結果會大相徑庭。

因為全部用英文資料訓練出來的結果,其資料大部分來自西方,故而資料本身便不可避免地存有偏見。

對於中文,更是如此。

在中美關係中,人們常常會感受到“雞對鴨談”,分明是兩個平行宇宙。而AI的發展,可能會加速中美的徹底脫鈎,從而變成兩套不同的、互不兼容的系統。

這當然時間很糟糕的事兒。

但更糟糕的是,這種反饋還會在無形中大大增加人對AI的依賴性。那些被人賦予的算法中可能包含的偏見和謬誤,反過來會影響甚至主導人的判斷,如此,AI便精準地控制了人。

此外還有數據安全和數據主權的問題,典型的例子就是目前的TikTok之爭。

科技原本中立,但關鍵是要看誰在掌握它?使用它去行善?還是去作惡?

顯而易見,一旦政府干預,或由國家法規明文規定,開發人員就會在一定程度上失去開發的自主性。AI就有可能成為數字威權工具。比如,政府可以利用AI進行內容審查,可以限制言論自由,可以進行大規模的社會監控,可以構建社會評級系統,等等。

而政府往往不這麼看,它會強調:我們是在反恐,我們是在預防犯罪,我們使用AI至少可以更有效率的進行社會治理,等等。

然而,政府是最需要人們警惕的,警惕它會不時地作惡。

可惜從專業的角度看,人們難道真的能夠有效地區分:什麼是提升社會治理能力及效率?什麼是數字威權?

恐怕不能。

這又涉及到科技倫理。

就像人們不能因為“我感覺你要犯罪了”,就把你抓起來一樣,對於AI,人們也不能因為判斷你以後可能有病,就可以從一開始便打破原有的公平競爭環境。

如果你無法保障對犯罪的預測是100%的準確,你就不能拿它作為防止犯罪或個人信用記錄的依據。在一個相對極權的環境下,AI很容易被濫用於權力。

人們不斷拷問自己應該是:政府真的值得信賴嗎?你真的相信那些握有無限權力的人嗎?你願意將自己的權利拱手全盤交出嗎?……

近年來,美國的不少大型科技公司都強調:由於我們不能把所有人的信息都搜集在一起,所以我們有可能在信息科技上輸給中國。但反過來,當你把所有人的信息都搜集起來後,該由誰來管理?誰又敢去管理它們?誰能保證它永遠不會被竊取、被濫用以及未經授權被用作其他用途?

人們能否用科技手段和制定法規來解決這些問題?

回到問題的本身,如果說現在人們對AI還算可控的話,那麼以後並不意味着也可控。因為它的學習能力太強了,以至於出現前面所說的,AI的生長與AI一致性、可解釋性的發展,兩者出現嚴重的不同步時,我們就必須有一個穩妥的計劃,這也是公開信呼籲暫停的原因所在。

只是,在尤德科夫斯基看來,我們還沒有提出任何可以讓我們得以放心的計劃。

OpenAI 倒是有計劃,但那計劃卻是:在不遠的未來將AI一致化的工作交由AI來完成!

將主導權交給AI?這太恐怖了吧,任何明智的人都應該為此感到恐慌。

而另一個技術領先的AI實驗室——深思(DeepMind),乾脆就沒有計劃。

況且,在短短6個月的時間裡,我們根本無法彌合這一巨大的差距。

據說,不少從事AI系統研究的人員認為,我們正朝着災難前進。但他們不敢在公開的場合說出來。他們考慮到辭職,但當他們意識到,即使自己個人辭職,其他人還會繼續前進,辭職也就沒有了意義。

綜上,當人與AI的界線開始混淆、甚至難以分出彼此時,當包括AI的開發者都無法理解、預測和對其實施可靠的控制時,當大量對人類有意義的工作最終被AI一一取代時,當人類反被AI忽悠得團團轉時,當帶有偏見的AI不斷強化人類彼此間的分歧甚至仇恨時,人類的末日就到了。

它的可怕之處就在於此。

據說尤德考夫斯基是從事AI研究的人中最悲觀的。

可我倒覺得,最壞的結果大概率不會發生。因為對於AI是否能真的變成“超人”,我帶有深深的疑問。

別忘了,在這些AI頂尖專家所使用的各類描述性詞語中,頻度最大的就是“可能”一詞。

但無論如何,在AI一路高歌猛進之時,我們真的需要踩剎車的人。

即使實際情況真的沒有那麼悲觀,也需要。


(文中圖片引自網絡)


0%(0)
0%(0)
標 題 (必選項):
內 容 (選填項):
實用資訊
回國機票$360起 | 商務艙省$200 | 全球最佳航空公司出爐:海航獲五星
海外華人福利!在線看陳建斌《三叉戟》熱血歸回 豪情築夢 高清免費看 無地區限制
一周點擊熱帖 更多>>
一周回復熱帖
歷史上的今天:回復熱帖
2022: 打了疫苗的自己看
2022: 烏克蘭反攻號角吹起,普京撐得住? 被烏
2021: 周恩來評傳 第九章 畢汝諧 (作
2021: 首次內閣會議--拜登與川普的比較
2020: 鄧小平
2020: 新冠疫症打擊下美中冷戰已經開始?
2019: 法廣| 習近平查謠追謠盯上中共中央和國
2019: 夏小強| 揭秘中共紅色滲透和潰而不崩原
2018: 各位公公,我是《老公報》的記者。昨晚
2018: 小英要宣布台灣獨立,不敢宣布台灣獨立