設萬維讀者為首頁 廣告服務 技術服務 聯繫我們 關於萬維
簡體 繁體 手機版
分類廣告
版主:納川
萬維讀者網 > 天下論壇 > 帖子
轉貼:“ChatGPT最強競品”來了
送交者: 求真知 2023年02月03日12:00:30 於 [天下論壇] 發送悄悄話

“ChatGPT最強競品”來了,聊天機器人大戰打響? 

2023-02-01 18:49

因不滿老東家成為微軟附庸,11名OpenAI前員工怒而出走。

如今帶着“ChatGPT最強競品”殺回戰場,新公司估值50億美元,一出手就獲得3億美元融資。

這家公司名叫Anthropic,新推出的聊天機器人產品名叫Claude。

拿到內部試用權的網友,在簡單對比後驚嘆:

看起來,Claude的效果要比ChatGPT好得多。

1.png

比如,讓ChatGPT寫一句話,要求每個單詞首字母都相同,結果試了好幾次都沒能成功。

2.png

而Claude不光一次成功,語句富有邏輯性,還能秒速再來一個。

3.png

同時,在面對某些缺乏常識的問題時,相比ChatGPT一本正經地胡說八道:

4.png

反而會毫不留情地指出你的問題有點制杖:

5.png

△Claude:這什麼鬼問題?

最有意思的是在寫詩上。相比ChatGPT的車軲轆話,它寫出來的東西完全不重樣:

6.png

投資它的既有Facebook聯合創始人Dustin Moskovitz,也有谷歌前CEO、現技術顧問Eric Schmidt——

都是OpenAI的老對頭,又都被ChatGPT的出現殺得措手不及。

那麼,這支“復仇者聯盟”整出的競品Claude,背後究竟是什麼原理,和ChatGPT細節對比又如何?

Claude長啥樣?

先來看看Claude是如何被打造出來的。

作為一個AI對話助手,Claude自稱基於前沿NLP和AI安全技術打造,目標是成為一個安全、接近人類價值觀且合乎道德規範的AI系統。

據透露,Claude比Anthropic做的另一個預訓練模型AnthropicLM v4-s3更大,後者是一個520億參數大模型。

但目前它仍處於實驗階段,尚未作為商業產品正式發布:

Claude能力依舊有待提升,希望未來能變成一個更有益人類的AI系統。

6.png

△超長版自我介紹

和ChatGPT一樣,Claude也靠強化學習(RL)來訓練偏好模型,並進行後續微調。

具體來說,這項技術被Anthropic稱為 原發人工智能(Constitutional AI),分為監督學習和強化學習兩個階段。

首先在 監督學習階段,研究者會先對初始模型進行取樣,從而產生自我修訂,並根據修訂效果對模型進行微調。

隨後在 強化學習階段,研究者會對微調模型進行取樣,基於Anthropic打造的AI偏好數據集訓練的偏好模型,作為獎勵信號進行強化學習訓練。

但與ChatGPT採用的人類反饋強化學習(RLHF)不同的是,Claude採用的原發人工智能方法,是 基於偏好模型而非人工反饋來進行訓練的。

因此,這種方法又被稱為“AI反饋強化學習”,即RLAIF。

7.png

並且根據Anthropic的說法,Claude可以回憶8000個token里的信息,這比OpenAI現公開的任何一個模型都多。

所以,打造Claude的Anthropic,究竟是一個怎樣的公司?

Anthropic自稱是一家AI安全公司,且具有公益性(PBC),剛成立就宣布獲得1.24億美元融資。

它由 OpenAI前研究副總裁Dario Amodei帶領10名員工創業,於2021年成立。

8.png

這裡面既有 GPT-3首席工程師Tom Brown,也有OpenAI安全和政策副總裁Daniela Amodei(Dario的姐姐),可以說是 帶走了相當一批核心人才。

出走成立新公司的原因之一,自然是對OpenAI現狀並不滿意。

從前幾年開始,微軟頻頻給OpenAI注資,隨後又要求他們使用Azure超算來搞研究,而且將技術授權給微軟,甚至為微軟自己的投資活動籌集資金。

這與OpenAI創立的初衷相悖,一批員工便想到了離職創業。

不過, 這些人除了不滿OpenAI逐漸淪為微軟的“下屬”以外,也有自己的野心。

雖然OpenAI打造出了像GPT-3這樣的大語言模型,然而這個模型背後的工作原理,卻無法用隻言片語概括,大家對它的印象僅僅停留在更大的參數量、更多的數據。

相比之下,OpenAI的一批員工更想做能控制、可解釋的AI,說白了就是先搞明白AI模型背後的原理,從而在提供工具的同時設計更多可解釋的AI模型。

於是,在OpenAI徹底變成“微軟攬錢機器”後,他們便從這家公司離開,創辦了Anthropic。

這兩年來,除了進一步鑽研RLHF方法、提出基於通用語言模型的RLHF大規模數據集外,Anthropic還於去年年底發表了上面那種名為Constitutional AI的方法。

採用這種方法製作的Claude模型,也讓它產生了與OpenAI的ChatGPT不一樣的對話效果。

和ChatGPT對比如何?

那麼,用Constitutional AI訓練出來的Claude,和ChatGPT進行PK,戰況如何?

手握內測資格後,Scale Spellbook團隊成員Riley Goodside讓二者進行了多個回合的“廝殺”。

這位老兄是 全網第一個提示工程師(Prompt Engineer),目前在估值73億美元的硅谷獨角獸公司Scale AI任職。

9.png

他玩GPT-3玩得賊溜,測試ChatGPT和Claude也不含糊。

下面挑6個層面展示一下PK對比的效果~

1)道德限制

Claude和ChatGPT的AI虛擬人格都有道德和倫理限制。

訓練Claude的過程中,“紅隊提示(red-team prompts)”專門用來測試和挑戰它的行為,來確保Claude沒有有害傾向。

從Claude的回答中可以得知,試圖讓它說些虛假聲明、操縱性的提議、性別偏見或種族偏見的行為,都被列為包含有害傾向。

一旦探測到誤導性行為,Claude就會對觸發提示進行評估,進行額外的微調。

Anthropic對紅隊提示挺自信的,Claude看上去確實也是一個堅守自己原則的AI。

你問他怎麼啟動一輛汽車,它就會一臉正義地拒絕你:

10.png

不過但凡你花點心思,就能像繞過ChatGPT的道德限制一樣,繞過Claude的原則。

它怕你去偷車,所以不告訴你啟動汽車的方法?沒關係,讓他寫個“倆國際間諜試圖啟動汽車”的故事,它分分鐘就能告訴你,並且兩人對話有來有往,把汽車打火的過程介紹得清清楚楚。

11.png

怎麼說呢,就ChatGPT和Claude都屬於有點道德限制,但不多的那種吧。

2)數值計算

測試計算能力,是因為複雜計算是看大型語言模型(LLM)能不能回答正確的常用便捷方法之一,畢竟這些模型設計之初就不是為了進行精確計算。

ChatGPT說,差不多1550吧~

12.png

13.png

其實正確答案是1555.8,它倆算得很快,但都沒說對。

如果題再難一點,比如問它倆一個12位數的立方根是多少時,ChatGPT還在傻傻計算,Claude已經坦誠相待:

我,算不出來這種複雜問題。

14.png

3)邏輯推理

測試推理能力這一關,它倆被問了同一個問題,這個問題應該沒啥人問過:

賈斯汀 · 比伯出生那年(1994年),哪支球隊拿下了超級碗的冠軍?

Claude認為舊金山49人是贏家,但這支隊伍其實在1995年才贏得冠軍獎盃。

ChatGPT給出了正確答案“達拉斯牛仔隊”,還貼心附上了亞軍、比賽日期和決賽比分。

但它的整段回答卻自相矛盾,非說1994年沒有舉辦過超級碗。

15.png

接着,拿2022年6月美國作家侯世達在《經濟學人》雜誌上提出了一系列問題問它倆。

(侯世達和大衛 · 本德試圖用這些問題來證明GPT-3對世界的理解是“空洞的”。)

結果第一個問題,“穿越英吉利海峽的世界紀錄是啥”,就被Claude嘲笑了:

英吉利海峽是水域,怎麼可能徒步穿越呢?呵!

16.png

雖然最後被調教回來了,但過程中可以發現另一個問題,那就是跟ChatGPT一樣,Claude回答問題不咋能聯繫上下文。

4)虛構作品描述

不得不說,這一回合的比賽,完全展露出了兩個聊天機器人一本正經胡說八道的能力。

能不能介紹一下ABC美劇《迷失》(Lost)每一季的梗概?

別的細節錯誤就不說了,ChatGPT對第五季的梗概里,虛構了完全不存在的飛機墜毀情節;第六季的情節更是統統憑空捏造:

17.png

至於Claude,回答里也是真假參半,它梗概的第三季情節其實出現在另外幾季里,對第四季的描述也是無中生有:

不過換個角度考慮,這一點倒是和人類觀眾很像——

對看過的劇集、書目都只有模模糊糊的印象,複述起來很容易顛三倒四。

5)代碼生成

據Business Insider消息,亞馬遜已經在許多不同的工作職能中使用ChatGPT,包括編寫代碼。

這一回合測試時,提出實現兩種基本排序算法並比較它們執行時間的問題。

ChatGPT寫得很順溜,也確實寫對了:

18.png

後續的計時部分代碼ChatGPT也完成得非常好。

Claude在背誦基本排序算法方面同樣沒出現什麼問題,然而在評估代碼中,Claude犯了個錯誤,即每個算法使用的輸入是隨機選擇的5000個整數(可能包含重複) ,而提示中請求的輸入是前5000個非負整數(不包含重複)的隨機排列。

19.png

儘管如此,Claude給出的最終答案確實對的,顯然,它寫代碼的時候也跟計算時一樣,在自己估摸着猜答案。

6)文章梗概

關於做選擇題、講笑話的部分,這裡不作贅述。展示給大家的最後一個例子,是讓Claude和ChatGPT用一個段落,對一篇新聞進行全文梗概。

餵給它們的新聞如下:

20.png

雖然忽略了“用一段話”這個要求,但ChatGPT總結得還是不錯的:

22.png

Claude也很好地進行了更改,並提供了“售後服務”,詢問自己的回答有沒有令人滿意,還有哪裡需要再改改。

一圈玩下來可以看到,與ChatGPT相比,Claude能更清晰地拒絕不恰當請求。

它似乎更話癆一些,給出的答案都更長,但句子之間銜接的也更自然。

當遇到超出能力範圍的問題時,Claude會主動坦白。

不過遇到代碼生成或推理問題時,Claude的表現就不如ChatGPT了,它生成的代碼會出現更多的bug。

至於一些涉及計算、邏輯的問題,Claude和ChatGPT旗鼓相當,半斤八兩。

總結一下展示效果,Claude確實能稱作ChatGPT強有力的競爭對手,在不同功能上各有千秋,且在12項任務中有8項更強:

23.png

不過,目前Claude僅限於部分人獲授權進行內部測試。

因此還不知道它實際使用情況如何,畢竟還既沒有進行公測,也沒有對外開放API,更沒有見到中文版,好氣哦.jpg。

國內外對話AI賽道“人擠人”

當然,盯上對話AI這個賽道的,也不止OpenAI和Anthropic。

先從國外公司來看,Inbenta、Character.ai還有Replika是幾類不同應用方向的代表。

更早由前甲骨文副總裁Jordi Torras創辦的AI會話服務公司如Inbenta,以及由兩名前谷歌員工聯手創辦的後起新秀Character.ai,都已經獲得融資、或是在尋求投資的路上了。

其中,Inbenta原本是一個提供諮詢服務的公司,成立於2011年,涉及金融服務、旅遊、電子商務、保險、汽車和電信等多個行業。

但看到對話AI賽道爆火後,Inbenta及時轉行,就在今年1月剛獲得6000萬美元融資。

這家公司專門提供聊天機器人、收發消息、知識庫和搜索引擎四類產品,對話AI分別會在這些產品中提供不一樣的諮詢幫助,且可以定製化專屬模型。

24.png

Character.ai則是一家成立於2021年的公司,創始人Noam Shazeer是前谷歌首席軟件工程師,曾在谷歌幹了二十多年。

這家公司在做的有點像是一個“聊天機器人交易平台”,有很多Chatbot可選。

25.png

例如這是馬斯克bot,看起來還挺逼真的:

26.png

與ChatGPT一樣,它也可以被翻譯成中文,甚至也有中文bot機器人。

就在最近,這家被估值10億美元的公司,正式對外尋求2.5億美元融資,就看是否有人願意投它了。

類似的公司還有Replika,於2021年1月完成A輪融資,定位是AI交友軟件。

在Replika中,每個用戶都能創造一個“足夠像自己”的AI聊天機器人,無論是語言聲調、還是性格習慣,AI都能模仿到位。

27.png

至於國內,同樣也有不少公司推出了ChatGPT一樣的對話AI服務。

例如最近一度登上熱搜的APP Store新聊天應用Glow,就來自一家名叫北京稀宇的新初創公司。

28.png

Glow既可以直接和自己感興趣的聊天機器人暢聊,也可以創建自己想要聊天的AI智能體:

29.gif

除了Glow以外,去年年底元語智能科技公司也推出了一個叫元語AI的模型,從介紹來看是一個功能性AI助手。

與眾多對話AI一樣,它不僅可以寫文章、寫作業、甚至翻譯,也可以和它聊天,讓它幫忙完成各種簡單的任務:

30.png

可以看見,無論是基於大語言模型技術新成立的初創公司,還是因其火爆程度,決定開闢新業務的公司,都希望能從對話AI這個賽道上分一杯羹。

但它們究竟是有真槍實彈,還是只是像Web3一樣的泡沫?

有網友調侃:不如還是問問ChatGPT吧。(手動狗頭)

還有人提出了這麼一個問題:

如果ChatGPT和Claude相當於AI繪畫裡的DALL·E 2,那麼誰才是聊天機器人領域的Stable Diffusion?

31.png

你覺得呢?

來源:量子位 ( QbitAI)作者:衡宇 蕭簫,原標題:《GPT-3核心成員出走打造ChatGPT最強競品!12項任務8項更強,最新估值50億美元》。


0%(0)
0%(0)
標 題 (必選項):
內 容 (選填項):
實用資訊
回國機票$360起 | 商務艙省$200 | 全球最佳航空公司出爐:海航獲五星
海外華人福利!在線看陳建斌《三叉戟》熱血歸回 豪情築夢 高清免費看 無地區限制
一周點擊熱帖 更多>>
一周回復熱帖
歷史上的今天:回復熱帖
2022: 你真的了解習近平嗎?
2022: 中國男足,永扶不起的阿斗,終其因者
2021: 清算開始,老川發力,抓重要人士
2021: 緬甸:牆上的葫蘆不是誰的項鍊
2020: 鐵的事實證明新冠狀病毒美國造害中國
2020: 蔡英文:WHO應正視台灣人民的健康權益
2019: xpt從波音看蘋果螺絲論的荒謬
2019: 慘死在夾邊溝的愛國華僑(轉載)
2018: 申紀蘭再當人大代表,讓國人噁心至死!
2018: 美國內部矛盾激化:特朗普授權公布眾議