華為就喜歡當第一,新推的盤古AI已夠秒殺國外GPT-3了
嗯,這個標題的確有點太那個啥,說不定就因為標題黨誇張等嫌疑而被和諧或被迫改正。不過呢,看了這次華為官宣推出的盤古人工智慧,的確給人有點驚豔的感覺。在這次
HDC
華為開發者大會上,那個讓我們大家都很熟悉的餘大嘴再次宣佈一個很重磅的世界第一:
華為雲盤古大模型
。這個驚人的千億級的引數規模,已經逼近人類神經元的數量了。
話說,華為怎麼這麼喜歡當第一呢,說中國第一倒也罷了,居然還自豪官宣世界第一。這個重磅的世界第一
AI
,是業界首個千億級生成與理解中文
NLP
大模型,是業界最大的
CV
大模型。你沒看錯,它並不僅僅侷限於人工智慧的某一個單獨的領域比如自然語言處理
NLP
,而是海納百川,集
AI
多個熱門方向於一身的全能型人工智慧。
這個頗有開天闢地的中國傳統文化元素的盤古
AI
大模型,包含自然語言處理(
NLP
)大模型、計算機視覺(
CV
)大模型、多模態大模型、科學計算大模型。據機智客瞭解,華為雲盤古
NLP
大模型:是業界首個千億引數中文語言預訓練模型,預訓練階段學習了
40TB
中文文字資料,是最接近人類中文理解能力的
AI
大模型。具體而言,盤古
NLP
大模型在權威的中文語言理解評測基準
CLUE
榜單中,總成績及分類、閱讀理解單項均排名第一,重新整理三項榜單世界歷史紀錄,總成績得分
83。046
。
而其中的華為雲盤古
CV
大模型,則是目前業界最大的視覺預訓練模型,包含超過
30
億引數。而它的“肌肉力量”呢?則是在
ImageNet 1%
、
10%
資料集上的小樣本分類精度上,達到了業界最高水平。
當然,大,並不是華為盤古
AI
大模型唯一的特色,還有讓開發者能感同身受體會到優勢的開發模式呢。它的開發模式,是“預訓練
+
下游微調”,這也是與目前全球主流大模型(如
Bert
)所匹配的一種模式。也就是說,在泛化能力(這是機器學習領域最基本的概念)上說一數二。另外,對於困擾開發者的樣本規模問題,華為盤古
AI
大模型還能做到在少量樣本的情況達到高精度,在這方面超越了
GPT
系列。
瞧瞧,已在超越
GPT
系列了。雖然這裡我們不能橫向簡單對比盤古
AI
和
GPT-3
,畢竟
GPT-3
已經公開並有多次演示和應用了,不過在規模、泛化能力、樣本少的問題等方面,盤古
AI
大模型有著顯著的優勢。再者說,盤古
AI
大模型不僅適用於推理、訓練場景,還能夠實現“端邊雲協同”。這就意味著不必在不同的終端,再去開發不同的運算元,大大提高了效率。就問你厲害不厲害吧。
相關文章
- 2021-09-27為什麼有人買X70Pro+也不願意買華為Mate40Pro+?
- 2021-09-25機器學習中的資料級聯:被低估的資料,被高估的模型
- 2021-09-20尷尬!這部劇中,知名男星被全程換臉,網友評論集體跑偏…
- 2021-09-08格靈深瞳:摘掉天才光環之後
- 2021-04-27手把手教你: 使用Oracle AutoML進行預測(實戰教程)