ZeroCLUE零樣本學習榜(第一行為人類得分)

FewCLUE小樣本學習榜(第一行為人類得分)

FewCLUE小樣本學習榜(第一行為人類得分)

在對“源1.0”進行的“圖靈測試”中,將源1.0模型生成的對話、小說續(xù)寫、新聞、詩歌、對聯(lián)與由人類創(chuàng)作的同類作品進行混合并由人群進行分辨,測試結果表明,人群能夠準確分辨人與“源1.0”作品差別的成功率已低于50%。

巨量模型的發(fā)展備受關注。斯坦福大學李飛飛教授等人工智能領域知名學者近期在論文中表示,這類巨量模型的意義在于突現(xiàn)和均質(zhì)。突現(xiàn)意味著通過巨大模型的隱含的知識和推納可帶來讓人振奮的科學創(chuàng)新靈感出現(xiàn);均質(zhì)表示巨量模型可以為諸多應用任務泛化支持提供統(tǒng)一強大的算法支撐。

源1.0中文巨量模型的發(fā)布,使得中國學術界和產(chǎn)業(yè)界可以使用一種通用巨量語言模型的方式,大幅降低針對不同應用場景的語言模型適配難度;同時提升在小樣本學習和零樣本學習場景的模型泛化應用能力。

浪潮人工智能研究院表示,“源1.0”將面向?qū)W術研究單位和產(chǎn)業(yè)實踐用戶進行開源、開放、共享,降低巨量模型研究和應用的門檻,有效推進AI產(chǎn)業(yè)化和產(chǎn)業(yè)AI化的進步,切實為國家在人工智能研究創(chuàng)新和產(chǎn)業(yè)發(fā)展作出貢獻。



分享到

xiesc

相關推薦