何止 Meta x Oakley,小米等十家 AI 拍攝眼鏡上新!下半年好看!

模型太多應(yīng)用太少,李彥宏談大模型的「冷思考」和「熱驅(qū)動(dòng)」
文心大模型調(diào)用量超其他 200 家之和
“中國的大模型很多,但是基于大模型開發(fā)出來的 AI 原生應(yīng)用卻非常少。”11 月 15 日,在深圳 2023 西麗湖論壇上,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏談及國內(nèi) AI 行業(yè)現(xiàn)狀時(shí)表示。當(dāng)天,他分享了關(guān)于 AI 原生時(shí)代的兩個(gè)「冷思考」和三個(gè)「熱驅(qū)動(dòng)」。

李彥宏在兩個(gè)「冷思考」中指出,截至 10 月份,國內(nèi)已經(jīng)發(fā)布 238 個(gè)大模型,大模型太多,而模型之上開發(fā)的 AI 原生應(yīng)用太少。他同時(shí)表示,許多行業(yè)、企業(yè)、甚至城市都想從頭訓(xùn)練自己的專用大模型,但專用大模型沒有智能涌現(xiàn)能力,價(jià)值非常有限。
談及「熱驅(qū)動(dòng)」時(shí),李彥宏表示,強(qiáng)大的基礎(chǔ)大模型能驅(qū)動(dòng) AI 原生應(yīng)用爆發(fā),當(dāng)前,最好的 AI 原生應(yīng)用還沒出現(xiàn),“AI 原生時(shí)代一定會(huì)有優(yōu)秀的 AI 原生應(yīng)用是基于這些大模型開發(fā)出來的”。與之相對(duì),AI 原生應(yīng)用也會(huì)驅(qū)動(dòng)模型、芯片等 AI 技術(shù)棧的發(fā)展,“只有通過更多的場景落地應(yīng)用,才能夠形成更大的數(shù)據(jù)飛輪,才能夠讓芯片做到夠用和好用。”
他特別指出,擁抱 AI 時(shí)代需要一把手驅(qū)動(dòng),“因?yàn)橹挥?CEO,才會(huì)關(guān)心新技術(shù)對(duì)自己業(yè)務(wù)的關(guān)鍵指標(biāo)是不是產(chǎn)生了正向作用。”
一、“我們需要 100 萬量級(jí)的 AI 原生應(yīng)用,但是不需要 100 個(gè)大模型”
“我們需要 100 萬量級(jí)的 AI 原生應(yīng)用,但是不需要 100 個(gè)大模型。” 李彥宏指出,在全球市場上,AI 原生應(yīng)用正在成為主要趨勢。“微軟沒有自己的基礎(chǔ)大模型,它是跟 OpenAI 合作的,但是它有最成功的 AI 原生應(yīng)但,大家知道就是 Office365 的 Copilot,30 美金一個(gè)月。”
而對(duì)于國內(nèi),他分析說,截至 10 月份,國內(nèi)已經(jīng)發(fā)布了 238 個(gè)大模型,相較于 6 月份的 79 個(gè),在四個(gè)月內(nèi)增長三倍,但相較于國外的幾十基礎(chǔ)大模型和上千個(gè) AI 原生應(yīng)用來看,國內(nèi) AI 原生應(yīng)用數(shù)量卻很少。

李彥宏表示,“不斷地重復(fù)開發(fā)基礎(chǔ)大模型是對(duì)社會(huì)資源的極大浪費(fèi)”,李彥宏回顧 PC 時(shí)代和移動(dòng)互聯(lián)網(wǎng)時(shí)代表示,各種 PC 軟件都基于 Windows 系統(tǒng)開發(fā),移動(dòng)時(shí)代的操作系統(tǒng)也僅有安卓和 iOS 兩家,大模型類似操作系統(tǒng),那么最終開發(fā)者只會(huì)依賴為數(shù)不多的大模型開發(fā) AI 原生應(yīng)用。
“由于沒有智能涌現(xiàn)能力,專用大模型的價(jià)值非常有限。” 李彥宏分析說,很多行業(yè)、企業(yè)甚至城市都在買卡、囤芯片,建智算中心,想從頭訓(xùn)練自己的專用大模型,殊不知這樣煉出來的大模型是沒有智能涌現(xiàn)能力的。
「智能涌現(xiàn)」即為大模型觸類旁通的能力,也就是沒有教過的東西,大模型也會(huì),“只有當(dāng)你的模型的參數(shù)規(guī)模足夠大,訓(xùn)練數(shù)據(jù)量足夠多并且能夠不斷投入,進(jìn)行迭代,才能夠產(chǎn)生智能涌現(xiàn)。”
李彥宏認(rèn)為,“大模型的產(chǎn)業(yè)化模式,應(yīng)該是把基礎(chǔ)模型的通用能力和行業(yè)領(lǐng)域的專有知識(shí)相結(jié)合。” 也就是說,大模型套小模型,專用小模型反應(yīng)快、成本低,大模型更智能,可以用來兜底。他直言,“國內(nèi)有 200 多個(gè)大模型,上了這個(gè)榜單、進(jìn)了那個(gè)排名,但其實(shí)調(diào)用量是很小的。文心大模型一家的調(diào)用量比這 200 多家大模型的調(diào)用量加起來還要多。”

二、只有 CEO 才會(huì)關(guān)心新技術(shù)對(duì)業(yè)務(wù)指標(biāo)的正向作用
“我見到很多企業(yè),上上下下都非常重視這次機(jī)會(huì),但是對(duì)問題的本質(zhì)理解不深,” 李彥宏提及當(dāng)前行業(yè)現(xiàn)象表示,CEO 把任務(wù)交給 IT 負(fù)責(zé)人,以為 “自己搞個(gè)基礎(chǔ)模型,或者按照網(wǎng)上傳播的評(píng)測方法來挑選一款評(píng)分高的大模型,” 就是擁抱 AI 時(shí)代了,這其實(shí)是對(duì)公司和社會(huì)資源的極大浪費(fèi)。

“為什么需要一把手來驅(qū)動(dòng)?因?yàn)橹挥?CEO 才會(huì)關(guān)心新技術(shù)對(duì)自己業(yè)務(wù)的關(guān)鍵指標(biāo)是不是產(chǎn)生了正向作用。” 李彥宏表示,大模型有沒有對(duì)互聯(lián)網(wǎng)公司的 DAU、時(shí)長、用戶留存這些指標(biāo)產(chǎn)生正向影響,有沒有對(duì)企業(yè)的收入、利潤、成本產(chǎn)生影響,才是問題的本質(zhì)。
他以百度文庫舉例,經(jīng)過 AI 原生化重構(gòu)后的百度文庫,能夠在 1 分鐘內(nèi)生成一個(gè) 20 幾頁的 PPT,包括圖表生成、格式美化等,而且?guī)缀跏橇愠杀荆瑢?shí)現(xiàn)了從內(nèi)容工具到生產(chǎn)力工具的轉(zhuǎn)變。因?yàn)檫@一改造,“文庫的付費(fèi)率有了明顯的提升,這就是我說的 AI 對(duì)業(yè)務(wù)關(guān)鍵指標(biāo)的促進(jìn)作用。”
“在百度,我們堅(jiān)決地對(duì)旗下各產(chǎn)品線進(jìn)行了 AI 原生化重構(gòu),” 李彥宏表示。他認(rèn)為,AI 原生的概念肯定會(huì)先被 C 端用戶和創(chuàng)業(yè)公司接受,其次是中小企業(yè),最后才是大企業(yè)。他表示,大公司分工明確,需要 CEO 主動(dòng)引領(lǐng)變革。
三、AI 原生應(yīng)用與基礎(chǔ)大模型互利共生、彼此成就
在李彥宏看來,強(qiáng)大的基礎(chǔ)大模型會(huì)驅(qū)動(dòng) AI 原生應(yīng)用的爆發(fā),“中國有領(lǐng)先的基礎(chǔ)大模型,這是 AI 原生應(yīng)用發(fā)展的堅(jiān)實(shí)基礎(chǔ),是底層的能力。”
他介紹說,自 3 月 16 日基于文心大模型 3.0 的文心一言發(fā)布后,文心大模型持續(xù)迭代,在上個(gè)月升級(jí)至 4.0 版本,在文心一言的網(wǎng)站和 APP 上叫做專業(yè)版。在理解、生成、邏輯和記憶四大能力上,文心 4.0 都有明顯提升。自 8 月 31 日文心一言向全社會(huì)開放以來,文心大模型的 API 調(diào)用量,呈現(xiàn)指數(shù)級(jí)的增長。
“而 AI 原生應(yīng)用,就是基于大模型智能涌現(xiàn)后產(chǎn)生的理解、生成、邏輯和記憶能力而開發(fā)出來的應(yīng)用。這些能力是過去的時(shí)代所不具備的,因而才能打開無限的創(chuàng)新空間。”

與之相對(duì),李彥宏表示,模型、芯片等 AI 時(shí)代的技術(shù)棧,也需要 AI 原生應(yīng)用的驅(qū)動(dòng)。“好的應(yīng)用會(huì)帶動(dòng)市場,倒逼市場變化。” 他以新能源汽車產(chǎn)業(yè)作類比表示,新能源減免購置稅、上路不限號(hào)不限行等措施,有效拉動(dòng)了新能源汽車產(chǎn)業(yè)的快速增長,AI 產(chǎn)業(yè)也是需求驅(qū)動(dòng),應(yīng)該在需求側(cè)、應(yīng)用側(cè)發(fā)力,鼓勵(lì)企業(yè)調(diào)用大模型來開發(fā) AI 原生應(yīng)用,用市場推動(dòng)產(chǎn)業(yè)發(fā)展。
“只有通過更多的場景落地應(yīng)用,才可以形成更大的數(shù)據(jù)飛輪,才能讓芯片做到夠用、好用”。李彥宏表示。