華為就喜歡當第一,新推的盤古AI已夠秒殺國外GPT-3了

嗯,這個標題的確有點太那個啥,說不定就因為標題黨誇張等嫌疑而被和諧或被迫改正。不過呢,看了這次華為官宣推出的盤古人工智慧,的確給人有點驚豔的感覺。在這次

HDC

華為開發者大會上,那個讓我們大家都很熟悉的餘大嘴再次宣佈一個很重磅的世界第一:

華為雲盤古大模型

。這個驚人的千億級的引數規模,已經逼近人類神經元的數量了。

話說,華為怎麼這麼喜歡當第一呢,說中國第一倒也罷了,居然還自豪官宣世界第一。這個重磅的世界第一

AI

,是業界首個千億級生成與理解中文

NLP

大模型,是業界最大的

CV

大模型。你沒看錯,它並不僅僅侷限於人工智慧的某一個單獨的領域比如自然語言處理

NLP

,而是海納百川,集

AI

多個熱門方向於一身的全能型人工智慧。

這個頗有開天闢地的中國傳統文化元素的盤古

AI

大模型,包含自然語言處理(

NLP

)大模型、計算機視覺(

CV

)大模型、多模態大模型、科學計算大模型。據機智客瞭解,華為雲盤古

NLP

大模型:是業界首個千億引數中文語言預訓練模型,預訓練階段學習了

40TB

中文文字資料,是最接近人類中文理解能力的

AI

大模型。具體而言,盤古

NLP

大模型在權威的中文語言理解評測基準

CLUE

榜單中,總成績及分類、閱讀理解單項均排名第一,重新整理三項榜單世界歷史紀錄,總成績得分

83。046

而其中的華為雲盤古

CV

大模型,則是目前業界最大的視覺預訓練模型,包含超過

30

億引數。而它的“肌肉力量”呢?則是在

ImageNet 1%

10%

資料集上的小樣本分類精度上,達到了業界最高水平。

當然,大,並不是華為盤古

AI

大模型唯一的特色,還有讓開發者能感同身受體會到優勢的開發模式呢。它的開發模式,是“預訓練

+

下游微調”,這也是與目前全球主流大模型(如

Bert

)所匹配的一種模式。也就是說,在泛化能力(這是機器學習領域最基本的概念)上說一數二。另外,對於困擾開發者的樣本規模問題,華為盤古

AI

大模型還能做到在少量樣本的情況達到高精度,在這方面超越了

GPT

系列。

瞧瞧,已在超越

GPT

系列了。雖然這裡我們不能橫向簡單對比盤古

AI

GPT-3

,畢竟

GPT-3

已經公開並有多次演示和應用了,不過在規模、泛化能力、樣本少的問題等方面,盤古

AI

大模型有著顯著的優勢。再者說,盤古

AI

大模型不僅適用於推理、訓練場景,還能夠實現“端邊雲協同”。這就意味著不必在不同的終端,再去開發不同的運算元,大大提高了效率。就問你厲害不厲害吧。

相關文章