設萬維讀者為首頁 廣告服務 技術服務 聯繫我們 關於萬維
簡體 繁體 手機版
分類廣告
版主:諍友
萬維讀者網 > 教育學術 > 帖子
大數據文摘| 七宗罪:我們是如何錯誤預估人工智能的
送交者: 賈舟子 2018年03月28日11:36:56 於 [教育學術] 發送悄悄話

Intro普及數據思維,傳播數據文化

                                                                       

大數據文摘作品

編譯:驚蟄、新知之路、王一丁、張南星、於樂源、蔣寶尚


荒謬的預估往往會導致對未來的恐懼。而為什麼有人會對AI和機器人的技術前景如此恐慌?下文中,這七種錯誤往往導致AI和機器人前景的荒謬預測。

很多人對人工智能和機器人行業的快速發展感到十分焦慮,一部分人擔心他們很快會變得過於強大,也有一部分人擔心他們會對人類現在的工作體系產生衝擊。

Market Watch上有人宣揚機器人將在十到二十年內占據現今大部分工作,甚至還發布了一張滿是數據的圖片當作論據。

機器人將在十到二十年內占據現今大部分工作


這份聲明並不客觀,比如,如圖中顯示美國100萬地面維修人員在在十到二十年之後只會剩下5萬,因為以後這些工作都會由機器人完成。實際上,目前有多少台機器人正在做地面維修呢?一個也沒有。

類似的例子也適用於上圖中其他所有行業,所謂在體力勞動者中將會出現90%甚至97%的大幅就業下滑,然而實際上卻並非如此。

在許多對AI未來的預測中,都有相同的問題。首先列出ABCD四個有關導致錯誤預測的大方向,並簡要評估他們的立場。


A.泛用人工智能(AGI)- AGI旨在從當今AI技術(如機器學習)中分離出一個思維實體,目的在於創造能像人類一樣能夠自主思考和行動的個體。但最近AI領域的成功卻並非都與AGI相關。


有些人認為所有的人工智能都是泛用人工智能(AGI),但正如“General”一詞所指,AGI要求遠遠高於目前AI。如果將現有的AI都理解為是AGI,那就明顯有些名不副實了。


目前,“泛用人工智能”的研究並不是十分理想,既沒有做到特別通用,也沒能形成一個獨立存在的個體。50年前遇到的問題,如在推理能力和常識上的不足,現在仍是制約其發展的主要原因。在其他領域中,比如在人工生命(Artificial Life)和適應行為模擬(Simulation of Adaptive Behavior)方面,人們已經取得了一些進展,但這些研究現在已經停滯了。


理論上說,“泛用人工智能”是可以實現的。然而或許人類還不夠聰明,還沒弄清楚怎麼創造“泛用人工智能”


(編者註:本文作者在“目前適合部署在機器人上的人工智能系統”一文中有介紹。)

文章鏈接:

http://rodneybrooks.com/forai-domo-arigato-mr-roboto/


即便可能,人類距離理解和建立真正的“泛用人工智能”遠比許多專家所說的要遠。(經常有人提到“一個人工智能”,好像所有人工智能都是獨立的個體一樣。這一點很讓人困惑,就像本地人不把舊金山(San Francisco)叫做“Frisco”一樣,沒有一位認真的研究人員會用“一個人工智能”來形容人工智能。)


B.奇點(Singularity)- 奇點的意思是指一個有着明確目標的AI實體,會在某一個點在AI的研究方面超越人類的研究速度。與此同時,就如摩爾定律所言,計算機處理速度越來越快,AI在達到奇點後會開始自我研究與加速的過程,如同物理學中黑洞的奇點一樣,我們也不知道奇點發生後AI到底會變成什麼樣子。


正因為這種不可預測性,“相信”奇點的人們很樂意賦予奇點發生之後的AI無所不能的特性。之所以把“相信”兩個字用引號括起來,是因為這種“相信”多多少少帶有些宗教的味道。以後對有些人來說,他們可以向這樣的AI上傳自己的大腦從而得到永生,而不必麻煩地相信通常意義上擁有超能力的神。這種前所未有的強大科技將成為這些人新的上帝,一個新的宗教就此誕生了,科技教!


有些人對於宗教中的救恩日(Day of Salvation)何時到來有着非常明確的想法。一位奇點預言家的追隨者們板上釘釘地相信,這件事將在2029年發生。


這種預測錯誤很大程度上受到了指數主義的影響,這也是在這裡所討論的的AI領域七個常見錯誤之一。


雖然現在的計算機擁有強大的計算能力,但這並不意味着我們已經擁有或者哪怕是接近擁有一種可以在人工智能領域進行自主研究,並且能通過重寫自己的代碼從而進行不斷優化的程序。


事實上,現階段我們還沒有寫出能自己理解一頁代碼的程序,同樣的代碼,計算機系的新生上了一個月的課之後就能理解的更好。所以,如果想要創造比人類更擅長編寫程序的AI系統,我們面前有很長的路要走。


類似的,奇點崇拜者常常提到的通過在神經元層面模擬大腦來達到奇點的方法的進度也不怎麼樣。三十年來,我們已經詳細了解了C類線蟲由302個神經元構成的完整“線路圖”,以及它們之間的7,000個連接。這一點對理解其行為和神經元之間的聯繫非常有用。


但是,這是一項長達30年的研究,涉及數百人,都只為了嘗試了解區區302個神經元。根據打算從頭一步一步模擬線蟲神經系統的OpenWorm項目,研究的進程還沒有走到一半。


OpenWorm項目:

https://en.wikipedia.org/wiki/OpenWorm


如果想模擬人類大腦中1000億個神經元和甚至更大量的連接,難度是可想而知的。所以,如果你想通過奇點事件,把自己上傳到計算機模擬里的話,還是先試着多活個幾百年吧。


C.不同的價值體系 - 第三種情況,是基於AI的機器在執行某些任務時通常做得很好,好到甚至在複雜的世界中也可以達到超人的表現。然而,這些機器並沒有人類的價值觀和思維方式,這就會引發各種各樣的問題。


這個問題的某些版本的確是真的 - 比如說,如果我最近買了張去某個城市的飛機票,突然間我瀏覽的所有靠廣告賺錢的網站都開始給飛往那個地方的機票打廣告。這當然很蠢。我不認為這樣的現象算得上高水平的AI,只能說這類廣告的算法設計並不是很好。


但這個觀點還是有支持者的(出於公正的考慮,以下保持匿名):


“有個很有名的回形針事例剛好能說明這個現象:如果一台機器的唯一目標就是最大化的量產回形針,那它有可能會發明些匪夷所思的技術,只為了把宇宙中能用的資源都轉化成回形針,最終毀滅人類。”


當然… 不是這樣的。無論如何我們都不會在現實世界中遇到這樣的軟件,一個為了實現人類給它制定的目標,可以聰明到可以顛覆人類社會,並忽視人類正是它的創造者這一事實。如果你認為技術會這樣進化的話簡直就是愚蠢至極,各種各樣錯誤的原因很有可能在下文提到的七個問題中找到答案。


包括上文引用的部分,以及在墨爾本舉行的人工智能國際聯合會議IJCAI(International Joint Conference on Artificial Intelligence)中這位作者多次強調:我們人類需要用數學來證明AI的目標和人類是一致的。


情況C來自於研究員們,當他們發現一個有趣的智能方面的研究課題後,隨即借用自己的名聲把它宣傳成一個短期內急需解決的問題。於是,當AI的奉迎者們知道了,便順勢將這個問題變成一個關乎人類存亡的重大問題。


順便說一下,用數學給這樣的AI作證明並不現實。多年來,通過大量的努力,我們還是無法證明一千行的代碼不能被黑客破解,更遑論大型AI系統了。不過好消息是,數千年來,我們人類可以和馬共存,儘管馬是個擁有自我存在感、渴望和遠超常人體力的獨立個體,但人類仍為了自己的利益而驅使它們。而神奇的是,我們直到現在都沒有任何一個和馬相關的定理!


D.超邪惡、恐怖、殘忍、人類滅絕型AI - 最後這類就像第三種情況一樣,但是這類AI對人類有明顯的反感,甚至打算毀滅人類以獲得更好的生存。


至少從上世紀六十年代末期開始,這種科幻思維在好萊塢特別流行。在上映於1968年的《2001:太空漫遊》中,機器所造成的破壞僅限於一艘太空船。


而在1970年上映,情節也基於這個時間點的《電影巨人:福賓計劃》中,人類在全球範圍內都遭受到了浩劫。這個主題多年來一直持續着,距今不久的於2004年上映,以2035年為事件發生時間的電影《我,機器人》中,名叫VIKI的邪惡AI通過新型NS-5類人機器人接管了整個世界。


這種情況比上文的情況C錯得更為離譜。我覺得這些電影中的想法會讓人們對這些的危險感到心有餘悸。


軍事機器人殺手的話題,在新聞報道中這個話題很容易和情況D相混淆,更糟的是被那些忙着宣揚邪惡AI的人將其與情況D徹底混為一談。事實上這兩個是完全不同的問題。此外,我認為關於軍事機器人的很多觀點都被嚴重誤導了。然而,這是一個完全不同的話題


言歸正傳,如下是在AI預測方面經常犯的七類錯誤。這七類錯誤影響着A、B、C、D四種情況發生的時間和可能性。不過,其中有些錯誤對錯誤預估的影響要大於其他的錯誤。下文中,小標題里用字母標出了這七類錯誤主要會造成A、B、C、D中的哪些情況。第一類錯誤對所有情況都會造成影響!


1. [A,B,C,D]高估與低估


未來主義者Roy Amara,是位於斯坦福大學內的For The Future研究機構的聯合創始人與主席,無數項目的資本風投家,也是硅谷的智囊之一。讓他被世人所知的是他的那句著名格言,常被引用為“Amara法則”--我們總是傾向於高估技術帶來的短期影響,並低估其長期影響。


關於Amara法則的雙向性有一個很好的例子,即美國全球定位系統(GPS)30年的歷程。自1978年起陸續在軌道上放置了24顆衛星(算上備份的話是30顆)。


地球上的任何一點可以同時看到其中的4顆,這樣就可以計算經緯度和海拔高度。位於科羅拉多州Schriever空軍基地的指揮中心不間斷的監視衛星的軌道的精確度和機載原子鐘的準確性,出現微小的偏差後便上傳修正的數據。


如果沒有這些上傳的數據,GPS將會在一至兩周之內出現定位到別的街道的錯誤,再過幾個月之後,誤差就可能將你定位在別的城鎮了。


GPS的目標本是為了令美軍精準的投放炸彈,這是設計之初的期望。美軍在1991年的“沙漠風暴”軍事行動中首次使用,起初的效果貌似十分理想。


但在90年代GPS計劃一直受到質疑因為其精確程度一直沒有達到最理想的效果,直到21世紀初被美軍全面接受之前,整個項目面臨着一次又一次被裁掉的風險,度過了一段艱難的日子。


如今,GPS的使用進入了長期的規劃,當初把它投放到衛星軌道時根本沒想到會有如此多的用途。比如當我在外面跑步時,正是利用Apple手錶上的GPS模塊記錄我的位置,其精度可以達到分辨出我在沿着一條街的哪一邊行進。


GPS信號接收器的尺寸之小、價格之低及應用之廣估計是它原來的設計者門怎麼也想像不到的。它在為全球的物理實驗提供同步服務、成為美國國家電網的核心組成部分、甚至幫助股市里高頻投資的操作者們規避時間誤差所造成的災難。


GPS應用在所有的美國大大小小的飛機導航系統上、跟蹤定位獲得假釋的犯人、告訴人們什麼種子應種植在哪片土地上。它獲取卡車隊伍的信息並報告司機們的表現、基於地面上反彈回去的信號判斷地面濕度,並制定灌溉計劃。


GPS始於一個單一的目標並艱難的為之努力。現在它已滲透進我們生活的諸多領域,如果沒有了GPS,我們在生活中遇到的問題不止迷路這麼簡單,而是可能會處於一個饑寒交迫的環境,最終導致死亡。


在過去三十年中我們也看到了同樣模式的技術型產品。首先是一個宏偉的設想,緊接着就是失望,然後一點點的發展,最後超越了當初所設想的目標。比如區塊鏈(比特幣是其第一個應用),人類基因組測序,太陽能,風能,甚至送貨上門服務。


或許最著名的一個例子就是計算機。當1950年代第一台商業計算機問世時引起了廣泛的恐慌,大家都認為以後所有人都會因計算機的出現而丟掉工作(可以看看1957年的電影《Desk Set》)。


但在此之後30年裡計算機幾乎沒有對人類的直接影響,甚至到了1987年仍沒有用在消費類設備上的微處理器。所有的改變都發生在接下來的30年中,也被稱之為第二次工業浪潮,現在看看我們身上、車裡、房屋裡,計算機已隨處可見。


為了闡述計算機的長期影響如何被一貫地低估,我們需要回顧一下舊科幻電影或電視劇中描繪的未來是什麼樣子。在1966年版的《星際迷航》中300年後宇宙飛船計算機的樣子已經讓30年後的人們笑掉大牙,但我們不妨三個世紀以後再回頭來看看現在的科幻電影。


《星際迷航:下一代》和《星際迷航:深空九號》這兩部電影的時間跨度是雖然達到13年(1986-1999),但影片中遙遠未來的太空船里,演員手上仍需要攜帶大量的文件,與空間站的文件傳輸仍然不能通過網絡的方式(就像當時的AOL網絡一樣),而飛船中用來檢索資料的數據庫由於仍採用互聯網時代之前的“未來”設計樣式而顯得十分的落伍。


絕大多數的科技產品的短期效應會被高估,因為他們是籠罩着光環的新鮮事物。人工智能由於被貼上新鮮事物的標籤在1960年代和1980年代一次又一次的被高估,現在也是同樣的情況。(一些大型公司釋放出的在市場上應用AI的消息是帶有欺騙性的,在不遠的將來可能就會砸了自己的腳。)


並不是所有的科技產品的長期效應會被低估,但AI的長期效應的確被低估了。問題在於“多久”才算長期,以下是6個常犯的錯誤觀點,會助於更好的理解為什麼AI的長期效應是被嚴重低估了的。


2.[B,C,D]想象魔法



亞瑟·克拉克(Arthur C. Clarke)、羅伯特·海因萊因(Robert Heinlein)與艾薩克·阿西莫夫(Isaac Asimov)並稱為科幻界的“三巨頭”。但克拉克絕不僅是科幻作家,他更是一位發明家、科普作家與未來主義者。


早在1945年2月,他給《無線世界》(Wireless World)寫了一封信,提到了與地球同步的軌道衛星的創意,同年10月他又發表了一篇論文,概述了這些衛星可以向全球範圍提供了無線電信號的覆蓋。


在1948年他寫了一篇短篇小說《前哨(The Sentinel)》,為斯坦利·庫布里克(Stanley Kubrick)的經典電影《2001太空漫遊》提供了核心靈感。在電影拍攝期間,卡拉克為電影撰寫了同名書籍,為電影觀眾們解答了諸多的疑惑。


在1962年至1973年期間,克拉克明確三大假說,後被稱為克拉克三大定律(他說牛頓僅用了三條定律,對他來說三條也足夠了)。


  • 定律一:如果一個年高德劭的科學家說,某件事情是可能的,那他可能是正確的;但如果他說,某件事情是不可能的,那他也許是非常錯誤的;

  • 定律二:要發現某件事情是否可能,唯一的途徑是跨越“可能”的這個界限,從不可能回到“可能”中去;

  • 定律三:任何非常先進的技術,初看都與魔法無異。


想象一下我們乘坐時間機器(時間機器本身就如同魔法一般)帶着牛頓從17世紀晚期來到現在劍橋大學的三一學院教堂。這座教堂在牛頓生前已經佇立100多年了,所以當他突然發現身處其中時應該並不會感到太過震驚,在沒有意識到當前的日期之前。


然後我們給牛頓先生展示一下蘋果(大家都知道牛頓與蘋果的故事)。從兜中拿出一個蘋果手機,開機並遞給牛頓先生讓他看看發亮的屏幕和充滿各種應用的圖標。


別忘了牛頓的偉大成就之一就是通過三稜鏡將白光分離成不同頻譜的光,從而揭示了光的秘密。所以在陰暗的教堂里,從一個如此小的物體中釋放出如此艷麗的光,無疑會給他一個巨大的驚喜。


接着給他播放一段英國田園風景的小視頻,或許再配上一些他熟悉的動物和教堂中的音樂,這些畫面暫時跟未來世界的樣子無關。最後,打開一個網頁,裡面是500多頁他親筆注釋的著作《自然哲學的數據原理》的電子版,教他用手勢操作來放大查看細節。


牛頓能夠解釋出這麼小的設備是怎麼做到這些功能的嗎?雖然他發明了微積分、研究出光學和重力等物理理論,但他從未能將鍊金術和化學區分開。


所以他會很困惑,甚至無法設想出這台設備最基本的理念框架。這與他生前致力研究的神秘事物並無二致。對他來說這就是魔法無異。請記住,牛頓可是一個十分聰明的傢伙!


如果一類事物被定義為魔法,我們則很難知曉它的界限。假如我們進一步給牛頓展示手機如何在暗處發光、如何拍照及錄音,如何用來當放大鏡和鏡子,還可以讓手機以不可思議的速度來進行多位小數的算術運算,再把它佩戴到身上用作計步器。


牛頓看完這些後,會猜測這台小機器還能做什麼?他會不會猜出通過這台設備就在這座教堂里即可與世界上任意角落的人通話?


三稜鏡效應是永恆的,牛頓會不會猜測出iPhone也會像三稜鏡一樣永遠有效,而不明白事實上它需要充電(記住我們是在邁克·法拉利出生前100多年找到的他,所以當時關於電的概念並沒有普及)?如果不需要火就可以產生光,那麼能把鉛煉成金嗎?


這就是我們所有人想象未來科技時所遇到的問題。如果距離我們所能理解的科技太過遙遠,我們將不會知曉它的界限,那對於我們來說就是魔法。


一項科技一旦超越了那條“魔法線”,它將不可能再被證偽,因為那的確就是魔法。


每與別人探討人類是否應該懼怕泛用人工智能時,經常遇到這樣的情景,暫時先不論上文中C和D的情況,人們總是認為我不明白它有多強大。可這並不是一個論點,因為我們甚至都不知道它是否存在。以觀察到的種種跡象顯示我們仍不知道如何建造一個泛用人工智能。所以它的各項屬性性能便無從知曉,所以從字面意思上看它的確具有強大的魔力,沒有界限。


然而,宇宙中沒有任何事物可以沒有界限,再強大的AI也不例外。


留神那些說未來科技如同魔法一般的說法,這個說法永遠無法被證偽,因為這是一種源於信念的說法,而不是源於科學的。


3. [A,B,C]表現 vs 勝任



在日常的社交中,我們可以判斷出我們周圍人的個體能力值,的確有時個別例外情況會顛覆或混淆我們的估計,這也是種族主義、性別歧視與階級歧視等問題的根源。


然而總的來說,我們通過觀察一個人曾經做事的表現來評估他完成其他事情的能力,也能夠從其在一項任務的表現來推測他能否勝任更艱巨的任務,我們自然而然的能從一個人表現出的能力去推斷出他在相關領域的勝任能力。


當我們在國外向陌生人問路時,如果他們滿懷信心的用我們問的語言進行回答,並且所指的路線看起來也沒錯。我們就會覺得值得再碰碰運氣,繼續問乘坐公交時怎麼付費。


如果我們十幾歲的孩子可以配置新遊戲機連到家裡的WIFI上,那麼我們會認為只要他們願意就可以把新的家用電腦也連到WIFI上。


如果一個人可以駕駛手動擋的汽車,堅信他也可以開動自動擋的汽車。可是如果這個人生活在北美洲,我們並不認為他可以反着來一遍。


如果我們在一座大型五金商店內詢問員工家用電器的配件在哪,他卻領我們走到了花園工具的那一行。我們就不太可能再去問同一個人哪能找到浴室里的水龍頭。因為我們認為他既然不知道家用電器配件在哪,說明他其實不太清楚店裡的布局,所以我們便傾向於找其他人問第二個問題。


現在,讓我們來看一下當今AI系統的一些表現的案例。


假設一個人向我們展示一張人們在公園裡玩飛盤的照片,我們自然的相信他可以回答下面這些問題:“飛盤是什麼形狀的?”、“一個人大概可以把飛盤扔多遠?”、“飛盤可以吃嗎?”、“大概多少人在玩飛盤?”、“3個月大的寶寶可以玩飛盤嗎?”、“今天的天氣適合玩飛盤嗎?”等問題。


與之相反,我們不能指望當一個人因為文化差異,完全不明白照片裡顯示的是什麼時,仍能夠回答這些問題。如今,圖像標籤(image labelling)系統雖然可以比較準確的為網絡上的圖片打上“人們正在公園內玩飛盤”諸如此類的標籤,但仍然不能回答上述那些問題。


而且事實是它們僅限於打標籤,根本不能回答任何問題。它們不知道圖片中的內容意味着什麼,人類是什麼,公園通常是在戶外的,人類有年齡這個屬性,天氣本身遠比圖片上看到的天氣要複雜得多等等……


但是這並不代表這個系統毫無用處。他們對於搜索引擎公司來說具有重大的意義,因為僅是做好打標籤的工作就可以讓搜索引擎公司從單一文字搜索跨越到可以對圖片進行搜索。


不過值得注意的是,搜索引擎通常會為一個問題提供多個答案,讓搜索者自己決定哪一個才是真正相關的內容。搜索引擎公司一直為了能在推薦的前幾個選項中包含最佳選項而不斷的提升搜索引擎的性能。


這種依賴於用戶去甄選答案的做法,使得搜索引擎沒必要每次都將最佳答案排到第一個。但如果只能給出一個答案,無論是搜索“巴黎的高檔酒店”,或是在一個電子商務網站搜索“時髦領帶”的圖片,這些搜索引擎的用處將大打折扣。


這就是很多人犯錯的地方,每當他們聽說某個機器人或AI系統可以處理某一類任務,他們會按照推斷人類的“表現 -> 勝任”方式去對這個機器人或者AI系統進行判斷。


現階段機器人和AI系統能做的事情還很有限,人類社會中的歸納概括模式對它們並不適用。如果誰用了和人類同樣的推斷方式,就會得到十分錯誤的判斷。


4. [A,B] 手提箱詞



“手提箱詞”(Marvin Minsky創立的一個術語,意思是說一個單詞包含有很多含義,如手提箱打開後裡面有很多東西一樣,比如:意識,思考,經驗等等)。那篇文章討論了機器學習中的“學習”一詞,對人類而言可以有很多類型的學習。人類對於不同類型的學習當然有不同的應對。比如:學習使用筷子與學習一首新歌的體驗就非常不同;學習編寫代碼與在某一城市中學習新的路線也截然不同。


當人們知道機器學習在某個新的領域取得了進展以後,往往會將自己對該領域的學習、思考模式套用過去,對很多模稜兩可的詞彙的理解就會有偏差,比如“思考”對於人類和機器是完全不同的。


而且很多人不明白,機器的學習是有很多的前提的,它需要研究人員或工程師進行大量的前期工作,要針對不同領域的寫相應的代碼來處理輸入數據,還要有特定的訓練數據集以及針對每個新的領域的不同的學習結構。


對人類而言,面對一個新的領域無需精密且繁瑣的前期工作就可以直接開始全面的進行學習,這種海綿式的學習方式是目前機器學習遠遠無法達到的。


同樣,當人們聽到計算機現在可以擊敗國際象棋世界冠軍(1997年)或圍棋世界冠軍(2016年)時,他們往往認為它就像人類一樣是在“下”棋。 然而事實上這些程序並不知道遊戲實際是什麼,也不知道他們在玩什麼。


正如在The Atlantic網站中,圍棋世紀之戰文章中指出的那樣:驅動人類棋手李世石的是12盎司的咖啡,而AlphaGo作為分布式AI應用需要大量的機器部署,和超過100位科學家在其背後作為支持。


當人類選手進行比賽時,對規則進行小的變動並不會使他無所適從——好的選手懂得如何去適應規則。但對於AlphaGo或Deep Blue 來說並非如此。(Deep Blue 於 1997 年擊敗國際象棋大師 Garry Kasparov)


這類手提箱詞的使用會讓人們對現在機器能做到的事情產生誤解。 一方面,研究人員與他們所在機構的新聞部門,都渴望宣稱他們的研究取得了進展,因此這類手提箱詞便有了用武之地。


無論研究人員多麼謹慎(實情是往往並不是所有人都總是非常小心),只要研究結果傳到新聞部門,然後進入參差不齊的新聞媒體之中,文字中的很多細節便會丟失。 標題大肆宣揚“手提箱”字眼,不斷的使讀者對人工智能已到達多麼高的水平以及有多麼接近目標產生誤解。


我們甚至還沒怎麼談到Minsky列舉的許多關於AI系統的手提箱詞;比如“意識”,“經驗”或“思想”。對於我們人類來說,很難想象如何在沒有意識或沒有下棋經驗,或者行棋思路的情況下下棋。


截至目前,我們的AI系統在人類的各種活動中還遠遠沒有達到手提箱詞所能代表的水平,甚至還沒有到達初級階段。當我們誇讚特定領域的AI應用,認為它們在一定程度上達到了“智能”的水平時,媒體,或者說大多數看客,又會將AI的能力泛化,認為其無所不能。


我們擔心的是這些單詞的部分含義哪怕只是在非常有限的一方面得到了證明,人們往往便將其神化,以為機器在這些方面的智能已經接近類似人類的能力。


用語很重要,但只要我們用一個詞語描述有關AI系統的某個東西時,如果這個詞也適用於人的話,人們就會高估其對於AI系統的意義。迄今為止大多數適用人類的單詞在用到機器身上時,其表達的水平都不過是用在人身上時的千萬分之一。


下面是一些已經應用於機器的動詞,但在它們描述的實際能力方面機器又與人類完全不同:


預期(anticipate)、擊敗(beat)、 分類(classify)、 描述(describe)、 估計(estimate)、 解釋(explain)、 幻想(hallucinate)、 聽(hear)、想象(imagine)、 企圖(intend)、 學習(learn)、 建模(model)、計劃(plan)、 玩(play)、 認識(recognize)、讀(read)、 推理(reason)、 反映(reflect)、 看(see)、 理解(understand)、走(walk)、寫(write)。所有這些詞語,都可以在相關論文中找到,但在論文中的意思往往只是這些詞所蘊含的豐富含義的很小一部分。不幸的是,通過這些詞的使用,給人了一種機器已經與人類相差無幾了的錯覺。


這就導致了人們誤解並高估了當今AI的能力。


5.[A,B,B,B,…] 指數論


很多人都遭受過所謂的“指數論”之苦。


每個人對摩爾定律都有自己的想法,至少知道計算機的運算速度會隨着時間發展變得越來越快。


戈登摩爾實際上說的是,芯片上的組件數量會每年翻番。


1965年摩爾做出預測的時候所用的下面這張圖只有4個數據點:


只推斷了10年,但迄今為止已經過去了50年,定律中所說的“每年”也已經變成了“每兩年”,儘管這樣也慢慢要行不通了。


芯片的元件數翻番使得計算機速度也加倍。而且還使得內存芯片每2年容量變成之前的4倍。同時也使數碼相機分辨率越來越高,LCD屏幕像素呈指數增長。


摩爾定律見效的原因是在其將抽象的數字化問題變成了“是”與“不是”的問題。比如這樣的一個問題“是否存在電流或者電壓呢?”對這個問題而言,無論我們如何將其中的電子數減半再減半,答案都一直是肯定的。但如果一直減半到將其中的電子數隻剩幾個,量子效應便開始成為主導,答案將不再是肯定的。相似的,我們的硅晶芯片就走到這個關鍵的節點上。


摩爾定律和類似的指數論可能因三個不同原因失敗:


a. 它達到了一個物理限制,減半/加倍的過程不再有效。


b. 市場需求趨於飽和,因此推動定律生效的經濟因素不再存在。


c. 過程從一開始就不是指數型的。


當一個人深信指數論時,他們可能就會無視上述任何一個原因,並繼續用指數論捍衛自己的觀點。


在第一個原因的作用下,摩爾定律現在已經近乎止步不前,但正是因為摩爾定律50年來一直發揮其作用,技術的不斷創新,硅谷、風投的崛起才得以發生,也使一批極客成為全世界最富有的人。這些事實導致有太多的人認為,包括AI在內的技術的一切都是一直呈指數型發展的。


常識是很多指數型過程其實只是“S曲線”的一部分,也就是說到了一定程度指數型的高速增長就會放緩。諸如Facebook、Twitter等社交平台用戶數的指數型增長最終必將變成S曲線,因為可變成新用戶的人數是有限的,所以指數型增長無法一直持續下去。這就是上述情況(b)原因的例子。


但還不止這些。很多時候,個人用戶的需求可能階段性看起來是指數型的,但隨後就變得飽和了。


回到本世紀初,麻省理工學院的一個很大的實驗室(CSAIL),需要給超過90家研究小組籌集研究經費,試圖通過iPod內存的快速增長向贊助商說明世界在進行快速的發展。跟摩爾不一樣的是有5個數據點!通過5年的觀察,在每年6 – 9月會有新的機型發布,具體的數據是關於400美元可以給iPod提供多大存儲。數據如下:


Year

GigaBytes

2003

10

2004

20

2005

40

2006

80

2007

160


數據有非常完美的指數型(Gregor Mendel如果有這樣的數據恐怕會樂開花......)。 然後,用這些推斷了幾年後我們將對擁有的內容作何安排。

(譯者註:Gregor Mendel,遺傳學奠基人,早期因數據可靠性未受到重視)


如果推算到現在預計400美元的iPod應該有160000GB(或160TB)的內存。但是今天最高配的iPhone(售價超過400美元)也只有256GB的內存,還不到2007 產的iPod的2倍,而最高配的iPod Touch也只有128GB,相對於10年前的型號內存反而還下降了。


當內存容量大到可以容納任何常人完整的音樂庫時,這個特別的指數型就會突然崩塌。也就是說,當客戶需求不再存在時,指數型也會隨之停止。


同樣的,由於深度學習(機器學習的一種形式)的重大突破 — AI系統的性能突然得到大幅提升,很多人以為AI會以同樣的速度在先前的基礎上不斷的提升。但其實深度學習的成功是30年不懈努力的結果,並且沒人之前能預想到今天的成功,這只是個黑天鵝事件。


當然這也不是說不會有更多的黑天鵝事件,長期止步不前的AI研究的可能在某一天突然有所進展,並使的許多人工智能應用的表現得到提升。 但是並沒有任何一個“定律”說明這樣的偶然事件會多久發生一次。對AI的創新與發展而言,這其中並沒有物理過程,並不像摩爾定律中那樣只需要將元器件做得更小就可以了。這也就是上面的第三個原因(c)的例子。


所以當你看到有人把指數型指數型增長作為AI發展的判斷依據時,記住,所謂的指數型本身有時就是錯誤的,且就算對真正的指數型而言,在達到物理極限或者缺少更多的經濟動因時,指數型增長也將不復存在。


6.[C,D]好萊塢電影



很多好萊塢科幻片的情節是這樣的,電影中的世界和現實世界十分接近,除了有一兩點科技上的不同。這一兩點不同往往就是外星人突然出現的原因,原本一切如往常一般,但突然有一天,外星人就出現了。


外星人基於這一兩點的不同突然出現似乎在邏輯上還可以接受,但如果是對新的科技而言呢?現實生活中,難道很多新技術都是在同一時間出現麼。


在好萊塢的世界中,當整個人類科技受到極大衝擊時,電影有時能給出合理的解釋。比如《終結者》中,阿諾德·施瓦辛格所扮演的超級機器人來自未來,穿越回的世界就不需要通過一步步的發展進步到可以創造出超級機器人的科技水平。


但是在別的電影中,科技的發展過程就顯得有些可笑。


在電影《機器管家》中,Richard(Sam Neill飾)在等待可以獨立行走、交談的類人機器人(Robin Williams 飾)提供早餐時,隨手拿起了桌子上的一份報紙…打印在紙張上的報紙!不是平板電腦,也不是收聽類似於Amazon Echo智能音箱播放的電台,也不是通過神經鏈接直接訪問互聯網。


《銀翼殺手》中,Harrison Ford飾演了警探Rick Deckard,Sean Young飾演的機器人Rachael,在電影中Rachael和真人並無二樣,然而Deckard怎麼聯繫Rachael的?——用投幣公用電話。正如Tim Harford最近指出的,這樣的技術老到了讀這篇博客的大多數讀者都沒見識過。(Harford在同一篇文章中評論道:“預測未來技術的發展是及其有趣但是無濟於事的遊戲”。真是令人深刻的洞見。)


在這兩個好萊塢電影的例子中,作者、導演以及製片人設想出了擁有視覺、聽覺、能夠說話 - 像人類一樣存在於這個世界的機器人。不考慮那些神奇的材料和工作原理,這些機器人也算得上是泛用人工智能了。可這些創造家們卻不願意去思考一下在這些吸引人的新技術們發展時,這世界會變成什麼樣子。


似乎許多AI研究者和專家們,尤其是那些沉迷於預言C、D的悲觀主義者們,都忽視了這一點。


許多C、D相關的預言不僅僅在時間維度上犯了錯,還忽略了一個事實:如果我們最終創造了如此智能的機器,這個世界將與現在迥然不同。我們並不會驟然間驚訝於超級智能,隨着時間的流逝,人類逐漸發明並發展新的技術,世界將因為許多不同的智能設備而變得大不一樣。與此同時,我們人類對新的技術以及事物的理解也將與現在大不相同。


比如說,在D類情況(邪惡人工智能打算消滅人類)之前應該出現過不那麼智能、不那麼好戰的機器人,再之前有脾氣暴躁的機器人,再再之前有令人討厭的機器人,再再再之前有傲慢自大的機器人。


我們會一步一步的改變我們的世界,讓生活的環境和新技術相互融合。這並不意味着未來世界不會有意外出現,而是說未來並不會像很多人想象的那樣,突然一下子天翻地覆。那些驚世駭俗的假想很多是違背現實的,和未來一點關係都沒有。


“好萊塢電影”式的修辭手法在爭論中有時的確很唬人,但它們和真實的未來沒有關係。

7. [B,C,D] 應用速度



隨着這個世界逐漸變成軟件的天下,某些行業內的新版本發布頻率變得非常高。諸如Facebook這樣的平台幾乎每小時都有新功能上線。因為很多新功能只要經過了集成測試,就算出了問題,版本回退導致的經濟影響也是微乎其微。


常常發現在類似的平台上某些功能在短時間之內就突然失效了(今早Facebook的通知下拉菜單功能就失效了 ),也許就是因為發布時出了問題。但對於重要的盈利模塊,例如廣告投放,改動起來就很謹慎了,版本變化頻率基本以周為單位。


這就是硅谷或者網站開發者們習慣的節奏,這的確有用,因為發布新代碼的邊際成本是非常低的,近乎於零。


而硬件則相反,部署的邊際成本非常高,這從我們的日常生活中就能感覺到。如今我們購買的大部分車都不是自動駕駛,裡面甚至都沒有軟件的影子,而這些車可能在2040年還行駛在路上,這給自動駕駛的大規模普及形成了先天的限制。


如果我們建造一座新房子,會默認這座房子能夠維持超過100年。我現在住的房子就建造於1904年,而且它還不是附近最老的建築。


出於成本因素的考慮,實體設備都會設計得很耐用,就算其中有很多的科技甚至事關存亡也不例外。


美國空軍現在還在使用B-52轟炸機的變體B-52H轟炸機,這個版本是在1961年發明出來的,也就是說它已經56歲了。最新的一架是在1963年建造的,不過54年前而已。現在這些飛機還將服役到2040年,也有可能更長——據說有打算延長它們的使用期限到超過100年(和“千年鷹號”比比!)


在美國,對陸洲際彈道導彈(ICBM)是義勇兵三型的變體,於1970年引入,共450枚。發射系統依賴於八寸軟盤驅動,一些發射流程的數字通信則使用模擬有線電話。


一些工廠里,甚至還看到過使用Windows 3.0的電腦,這一版本發布於1990年。很多工廠的主旨是“只要還沒壞,那麼就別修它。”這些電腦以及其中的軟件已經可靠地運行了相同的軟件並完成了他們的任務超過了二十年。


工廠中的自動化控制機制大多基於可編程邏輯控制器(PLC),包括美國、歐洲、日本、韓國以及中國的新型工廠,這是1968年為了替代電磁繼電器而引入的。


“線圈”依舊是當今主要使用的控制單位,PLC的編程方式也和24伏特電磁繼電器網的效果類似。同時,有些直連的電線被以太網線替代,它們基於RS485八位字符串協議,效仿原來的網絡,通過模仿24伏的直流電來傳輸信息(較原有網絡已經有了很大的進步)。


以太網接線並不是開放網絡的一部分,而是以點對點的方式連接了這些翻新的自動化控制系統。在這個世界上的大多數工廠中,當你想改變信息流或者控制流時,都需要先請顧問團隊們花幾周的時間去明確相應的部分是怎麼運轉的,然後設計新的改動,再然後整個硬件團隊再去重新開發和配置這些設備。


理論上整個過程可以更加的合理化,但在現實生活中並不是這樣。這類情況並不只發生在技術停滯了的工廠中,即使是在今天、當下這一分鐘,搜索一下招聘信息 - 特斯拉還在給他們佛利蒙市的工廠尋找全職PLC技術顧問。當今最人工智能化的自動駕駛汽車的生產,仍然是由電磁繼電器仿真來完成的。


許多AI研究者以及專家都認為這是個數字化的世界,將新的AI技術應用於整個行業包括供應鏈、工廠、產品設計方面是輕而易舉的。


沒有什麼比這更不切實際了。


重新配置自動化設備所受到的阻力是任何人都想象不到的大。


在這個領域中,任何人都無計可施,只能讓改變一點點的發生。那個回形針的例子,既製造回形針的人工智能系統決定聚攏所有的資源用來生產更多的回形針,即使是以犧牲人類所需要的資源為代價。顯而易見這就是無稽之談,因為這整個過程中需要有人去為這個系統未來幾十年的物理布線去進行考慮和擔憂。


大規模應用機器人和AI相關的想法所需的的時間,幾乎都遠遠比業內、圈外的人們所想像的長得多。自動駕駛就是一個很好的例子,一夜之間似乎所有人都知道什麼是自動駕駛,並且認為很快就會大規模應用到生活中。但實際上,這個過程比想象中慢得多,整個發展過程可能需要花費數十年,而非幾年。


如果你認為這過於悲觀,想想看,第一輛上路的自動駕駛車是在30年前,而直到現在,我們還沒有開始真正普及。1987年在慕尼黑的Bundeswehr University, Ernst Dickmanns和他的團隊發明了自動駕駛的貨車,在公共高速公路上以90公里每小時(56英里每小時)的速度行駛了20公里(12英里)。


1995年7月,來自卡耐基梅隆大學的Chuck Thorpe和 Takeo Kanade帶領他們的團隊測試了第一輛不用掌握駕駛盤和踏板的迷你貨車。Google和Waymo已經研究自動駕駛車輛超過8年了,但是還沒有任何大規模生產的計劃。也許,從1987年開始尚需四十、五十甚至六十年,自動駕駛車輛才可以實現真正的普及。


機器人和AI的發明需要很長、很長的時間才可能成為現實並得到大規模應用。


結語


當你看到專家們對機器人和AI做出積極或消極的預測時,我建議好好利用這7類錯誤來評估一下他們的論證。以我的經驗來說,總是能在他們的論述中發現2到3個,或者4個類似的漏洞。


預測未來很難,尤其是在一切未知之前。


原文鏈接:

http://rodneybrooks.com/the-seven-deadly-sins-of-predicting-the-future-of-ai/

Original 大數據文摘                2018-03-17                                         文摘菌                            大數據文摘                                         

0%(0)
0%(0)
標 題 (必選項):
內 容 (選填項):
實用資訊
回國機票$360起 | 商務艙省$200 | 全球最佳航空公司出爐:海航獲五星
海外華人福利!在線看陳建斌《三叉戟》熱血歸回 豪情築夢 高清免費看 無地區限制
一周點擊熱帖 更多>>
一周回復熱帖
歷史上的今天:回復熱帖
2017: Facebook的一道面試題
2017: 人們為什麼會變得殘暴?(zt)
2016: 洪秀柱當選中國國民黨主席能有多大作用
2016: 美國最高法院的標誌性裁決
2015: 李光耀是毛賣華受斯大林愚弄,在南洋亂
2015: 優秀的孩子是這樣培養的(教育篇、成長
2014: 這句話英語怎麼說?
2014: 專氣致柔,能如嬰兒乎?
2013: 舉幾個單詞和造句的例子說明英語的落後
2013: 在講座中如何調整窗口和對話