2023年5月,微軟CEO納德拉拋出一個驚人數(shù)字,未來全球的開發(fā)者數(shù)量即將達(dá)到10億。
那時候Meta的Llama早已開源4個月,但一些中國的開發(fā)者顯示,從小以英文語料喂養(yǎng)起來的Llama,對中文天下并不友好。
這將來的“10億”開發(fā)者里會有多少中文開發(fā)者,這個問題難以推測,但至少早已有755萬人了。
圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney
755萬人,這是2023年在GitHub上注冊的我國程序員數(shù)量,當(dāng)今的程序員一定會是將來大模型的第一批開發(fā)者。
大部分人已經(jīng)是了。
在浙江省電力設(shè)計院工作的陶佳,嘗試用一個開源的大模型來做基于私有知識庫的檢索問答類應(yīng)用。他所面對的場景很突出,經(jīng)常需要從幾十萬甚至上百萬字的文檔中查找內(nèi)容。陶佳的專注是電力系統(tǒng)控制優(yōu)化,里面有一些混入了傳統(tǒng)數(shù)學(xué)方法和AI方法的領(lǐng)域,因此對AI有基本認(rèn)識,也從去年底就一直在關(guān)注著這波大模型的浪潮。
他試了幾款,試下來通義千問是最好的?!按_切,而且‘手感’很好,沒有那些獨(dú)特古怪的bug”,他說。
要做的事也很簡單。有一些基本的軟硬件基礎(chǔ)后,在家里買個服務(wù)器、扔三四塊顯卡上去,下載通義千問、讓它在服務(wù)器上運(yùn)行,再搞個FRP反向代理,從阿里云上買最便宜的30多塊錢一個多月的服務(wù)就行,這樣就能經(jīng)過外網(wǎng)訪問家里的服務(wù)器,在單位里也能用通義千問做實驗。
當(dāng)一個開源生態(tài)開始成型,這樣的開發(fā)者也進(jìn)一步變多。
開始閉環(huán)的開源生態(tài)
陶佳對大模型最深處的祈盼來自一個終極問題:人類能否成為上帝?
美國的將來學(xué)家?guī)炱濏f爾在2023年早已提出過這種沒準(zhǔn)性。庫茲韋爾的想象里,人類到2030年將抑或成為半機(jī)器人。通過在腦中植入納米機(jī)器人,人類將可能干脆接入互聯(lián)網(wǎng),智力將變得更高,并且將擁有幽默、音樂和愛等歡愉的天賦和能力。人類將成為像上帝相仿的完美存在。
那一年OpenAI剛才建立,但8年前庫茲韋爾的設(shè)想放到目前依舊有同樣的地方,只但是當(dāng)下看起來好像在一個機(jī)器人(Agent)中添加意識和人性,這條路好像更近點——也就是AGI。
但哪怕技術(shù)是爆炸、是躍遷式的,正在離AGI還很遠(yuǎn)。如若說AGI會再造一個新的天下,那現(xiàn)時人類對大模型的期望,依然是在現(xiàn)實基礎(chǔ)上改造全國。而這首先需要建立在我們知道這個地球是什么形狀的,哪里需要被改造。世界真實的聲音需要被聽到,建立一條通道異常要緊。
大模型時代的開源,意義就在這里。來自不同現(xiàn)實場景,又具有代碼能力的人們需要一個廣場,來讓技術(shù)主動和場景對齊,然后具有代表性的產(chǎn)品才沒準(zhǔn)顯示。
這個廣場要供大家互動用,還要有豐盛且價格合適的算力資源,同時也需要足夠充足的可調(diào)用模型來做選擇。開發(fā)者要的是這樣一個閉環(huán)的開源生態(tài),通義千問的特長開始出現(xiàn)出來。
算力是關(guān)于大模型所有想象力的基礎(chǔ)。通義千問背后的阿里云占有我國最強(qiáng)的智能算力儲備算作基礎(chǔ)設(shè)施支持。其智算集群可達(dá)最大十萬卡GPU規(guī)模,這意味著在阿里云上可以承載多個萬億參數(shù)大模型同時在線訓(xùn)練,為大規(guī)模AI集群供給無擁塞通訊的自研RDMA網(wǎng)絡(luò)架構(gòu)和低成本高可靠的高性能存儲CPFS。
而在4月,阿里云在推出通義千問的同時,也公布了史上最大幅度的一次降價,對比上一代主售產(chǎn)品最高可下降40%的同時,還開放了計算、存儲、數(shù)據(jù)庫、機(jī)器學(xué)習(xí)等核心產(chǎn)品免費(fèi)試用的機(jī)會。這為大批新涌入的AI開發(fā)者供給了測驗和試錯的機(jī)會。
在阿里云的算力支撐下,像陶佳肖似的開發(fā)者開始帶著“野心”涌入魔搭社區(qū)。
去年11月的云棲大會上,阿里云與CCF開源發(fā)展委員會合伙推出AI模型社區(qū)“魔搭”ModelScope,在社區(qū)上線同時貢獻(xiàn)了300多個AI模型,全面開源開放,其中超過1/3為中文模型。上線一年后,魔搭社區(qū)上的AI開發(fā)者數(shù)量早已超過280萬人,AI模型超過2300+,下載超過1億+。
隨著大模型的熱潮轉(zhuǎn)向Agent,魔搭社區(qū)在今年9月推出了AI Agent開發(fā)框架ModelScope-Agent,并且搭建了一個“打樣產(chǎn)品”ModeScopeGPT,它允許調(diào)用社區(qū)里眾多AI模型的API,然后自主達(dá)成人類布置的任務(wù)。這個ModeScopeGPT 的調(diào)用量曾經(jīng)超過了40萬次。
除了通義千問之外,Llama2、智譜AI、百川智能甚至最新推出大模型的零一萬物等近百款開源模型而今都已經(jīng)進(jìn)入社區(qū)。并且“而今大陸有一半大模型公司跑在阿里云上”,阿里云CTO周靖人在2023年云棲大會上這樣說的時候,魔搭早已是眼前中國規(guī)模最大、用戶最活躍的AI模型開源地。
當(dāng)下加入的參數(shù)量
12月1日,阿里云舉行通義千問發(fā)布會,開源了通義千問720億參數(shù)模型Qwen-72B。在參數(shù)量上這是當(dāng)今大陸主流視線中最大的開源大模型,而在能力上,Qwen-72B的性能已經(jīng)在測驗中超越開源標(biāo)桿Llama2-70B。
Qwen-72B的訓(xùn)練基礎(chǔ)是3T tokens的高品質(zhì)數(shù)據(jù),它采用了更多的參數(shù)和訓(xùn)練數(shù)據(jù),實現(xiàn)了全面的性能抬高。這個模型延續(xù)了通義千問預(yù)訓(xùn)練模型的卓越展示,在10個權(quán)威測試中取得開源模型中的最佳成績,并在某些評測中超越了非公開的GPT-3.5和GPT-4。
在英語任務(wù)方面,Qwen-72B在MMLU基準(zhǔn)嘗試中獲得開源模型中的最高分。在中文任務(wù)中,它在CEVAL、CMMLU、Gaokao等評測中領(lǐng)先,甚至超過了GPT-4。在數(shù)學(xué)推理領(lǐng)域,Qwen-72B在GSM8K、MATH評測中遠(yuǎn)超其他開源模型。同時,在代碼理解任務(wù)上,經(jīng)過HumanEval和MBPP評測,Qwen-72B映現(xiàn)了顯著的進(jìn)步,其代碼能力實現(xiàn)了質(zhì)的飛躍。
從8月初開始,Qwen-7B和Qwen-7B-Chat兩款開源模型在魔搭社區(qū)上線開始,通義千問本身的模型開源開始提上日程。8月25日,以Qwen-7B為基座語言模型新意,支持圖文輸入,具備多模態(tài)音訊理解能力大規(guī)模視覺語言模型 Qwen-VL開源。
Qwen-VL開源的一個月往后,阿里云在9月25日開源了通義千問百億級的參數(shù)模型Qwen-14B及其對話模型Qwen-14B-Chat。這款模型在性能上開始頭一回看向Llama-70B,加上前幾款開源的模型,一個多月時間內(nèi)在開源社區(qū)的下載量突破100萬,在性能和可用性的平衡上,70億和140億參數(shù)的尺寸也是對開發(fā)者最友好的。
但當(dāng)這個大模型開源生態(tài)開始走深,開發(fā)者對模型的性能上限有了更高的要求,也就需要更大參數(shù)的模型。Qwen-72B開始吸引到一些初創(chuàng)團(tuán)隊的目光。
“我對72B的模型抱有極度大的渴望,好奇72B在我們領(lǐng)域中的能力極限值。”
顏鑫是華東理工大學(xué)X-D Lab(心動實驗室)的成員,X-D Lab實驗室之前的酌量方向網(wǎng)羅社會計算與社會智能、群體智能與隱私保護(hù)、公共衛(wèi)生與輿情監(jiān)測、工業(yè)智能與智能系統(tǒng)等方面,大模型呈現(xiàn)往后,開始聚焦AI情感計算領(lǐng)域。
基于開源的通義千問基座模型,顏鑫和其他團(tuán)隊成員陸續(xù)開發(fā)了心理健康大模型 MindChat(漫談)、醫(yī)療強(qiáng)壯大模型 Sunsimiao(孫思邈)、教育/考試大模型 GradChat(錦鯉)三款垂直領(lǐng)域大模型,此刻已有超過20萬人次使用過這三款大模型,累計提供了超過100萬次的問答服務(wù)。
研討到計算資源的限制以及一些客戶對于私有化部署的需求,顏鑫表示現(xiàn)時團(tuán)隊在供應(yīng)問答服務(wù)時7B或14B尺寸的大模型是更合適的選擇,但在更開放的學(xué)術(shù)酌量上——例如應(yīng)該利用聯(lián)邦學(xué)習(xí)算法處理數(shù)據(jù)——Qwen-72B有著前者不具備的性能特長。
而開源模型參數(shù)量的向上思量,將來也有機(jī)會推動ModelScope-Agent這樣關(guān)于如何接近AGI的暢想更接近現(xiàn)實。
此前在阿里從事大數(shù)據(jù)業(yè)務(wù)近7年的秦續(xù)業(yè),日前身份是未來速度Xorbits協(xié)同創(chuàng)始人&CEO。Xorbits打造了公司級的分布式推理框架Xinference。通過Xinference,開源模型允許降落在個人用戶和開發(fā)者的個人電腦上,企業(yè)用戶抑或在計算集群上輕松部署并管理模型,享受私有化部署帶來的安全、定制化以及低成本。
秦續(xù)業(yè)表態(tài),倘使外接知識庫做問答應(yīng)用,經(jīng)過大模型召回一些數(shù)據(jù),放到上下文中進(jìn)行總結(jié),最終給出有用的答復(fù),那么小尺寸(10B以下)的模型是夠用的。萬一需要具備一定的邏輯推理能力的模型,20-30B的中等尺寸模型是比較好的選擇。
“但在Agent恐怕需要強(qiáng)大推理能力的場景中,70B+的大模型會更有優(yōu)勢?!?/p>
AI Agent是秦續(xù)業(yè)遠(yuǎn)處的祈盼,但他相似也是個現(xiàn)實主義者。眼下把模型用起來是更緊要的事情,所以Xorbits曾經(jīng)攻克的焦點,是讓通義千問跑在一臺Mac電腦上。
秦續(xù)業(yè)覺得這一點能擊中很多人。由于很多開發(fā)者都是用Mac電腦,他們直白在本地拉起Qwen類別模型,可以極大提高開發(fā)效力。
Qwen序列的全尺寸完善不止一個72B的大參數(shù)模型。與Qwen-72B同步,阿里云本次開源了通義千問18億參數(shù)模型Qwen-1.8B和通義千問音頻大模型Qwen-Audio,至此,通義千問開源光譜曾經(jīng)了覆蓋從18億、70億到140億、720億參數(shù)的4款大語言模型,以及視覺理解(Qwen-VL)、音頻理解兩款多模態(tài)大模型。
大模型的開源生態(tài),這是AI時代最后恐怕洶涌而來的一味藥引。周靖人對通義千問的定位是“AI時代最開放的大模型”,目下打點好一切,靜待開發(fā)者登場了。
(舉報)