在新加坡國家人工智能計劃(AISG)的最新進展中,一項具有里程碑意義的合作引發(fā)了全球關(guān)注。該計劃宣布,其最新研發(fā)的國家級大語言模型“海獅”(Sea-Lion v4)將徹底摒棄美國技術(shù)路線,轉(zhuǎn)而以阿里的通義千問Qwen3-32B開源模型為核心構(gòu)建。這一決定標志著中國開源大模型在全球技術(shù)競爭中邁出了關(guān)鍵一步,尤其是在“主權(quán)AI”和“多語言適配”領(lǐng)域展現(xiàn)出強勁實力。
回溯至2023年12月,新加坡啟動了一項耗資7000萬新元(約5200萬美元)的計劃,旨在建立多模態(tài)大型語言模型的研究與工程能力,其中核心項目便是開發(fā)覆蓋東南亞語言的Sea-Lion。然而,這一擁有6億人口、數(shù)字經(jīng)濟規(guī)模接近萬億美元的市場,長期被西方AI技術(shù)忽視。以meta Llama 2為代表的主流模型中,東南亞語言內(nèi)容占比不足0.5%,導致早期基于Llama2訓練的Sea-Lion在區(qū)域常識測試中表現(xiàn)堪憂,甚至將南美洲國家委內(nèi)瑞拉誤列為東盟成員國。
語言與文化的隔閡進一步放大了西方模型的局限性。東南亞地區(qū)普遍存在“語碼轉(zhuǎn)換”現(xiàn)象,即在英語中混入方言,如新加坡式英語(Singlish)或馬來西亞式英語(Manglish)。這種復雜的語言環(huán)境對標準美式AI模型構(gòu)成挑戰(zhàn),而Llama2等模型在處理泰語、緬甸語等非拉丁語系文字時效率低下,暴露了其“英語中心主義”的基因缺陷。
面對這些痛點,AISG開始重新評估技術(shù)路線。他們發(fā)現(xiàn),阿里的Qwen3模型在預訓練階段已通過36萬億個token的數(shù)據(jù)覆蓋全球119種語言和方言,具備原生多語言能力。這種底層邏輯上的語言理解優(yōu)勢,顯著降低了后續(xù)訓練的門檻。例如,Qwen-Sea-Lion-v4采用字節(jié)對編碼(BPE)分詞器,精準切分泰語、緬甸語等無空格文字,不僅提升了翻譯準確度,還大幅優(yōu)化了推理速度。
商業(yè)落地的現(xiàn)實需求也推動了合作深化。東南亞中小企業(yè)普遍缺乏高端算力資源,而Qwen-Sea-Lion-v4經(jīng)過優(yōu)化后,可在配備32GB內(nèi)存的消費級筆記本電腦上流暢運行。這一特性使得印尼開發(fā)者僅憑一臺高配電腦即可本地部署國家級模型,精準切中了區(qū)域算力稀缺的痛點。
此次合作并非單向技術(shù)輸出,而是雙向融合的典范。阿里提供通用推理底座,AISG則貢獻其清洗后的1000億個東南亞語言token,這些數(shù)據(jù)版權(quán)風險低且區(qū)域內(nèi)容濃度高達13%,是Llama2的26倍。通過“高級后訓練”技術(shù),阿里將這些區(qū)域知識注入模型,使其能精準捕捉當?shù)匚幕毠?jié)。效果立竿見影——在Sea-Helm評估榜單上,搭載阿里技術(shù)的Sea-Lion v4迅速登頂同量級開源模型。
從AWS到阿里云,從Llama到Qwen,新加坡Sea-Lion項目的演變折射出全球AI格局的微妙變化。長期以來,美國壟斷著全球技術(shù)基礎(chǔ)設(shè)施,但中國企業(yè)在多語言環(huán)境理解和性價比優(yōu)化上的突破,正使其成為“全球南方”國家構(gòu)建主權(quán)AI的首選伙伴。這一趨勢不僅體現(xiàn)在新加坡,此前硅谷大佬Chamath Palihapitiya選擇Kimi替代OpenAI,美國Vercel、Windsurf等平臺接入智譜模型,以及愛彼迎CEO對阿里Qwen的認可,均印證了中國開源模型的全球競爭力。
本文鏈接:http://m.rrqrq.com/showinfo-48-9103-0.html中國開源模型顯實力!新加坡國家AI計劃棄美選阿里千問筑新基
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 大潤發(fā)“斷奶”求變,山姆“引援”遇波折:零售業(yè)變革下的冰火兩重天
下一篇: 榮耀親選LCHSE耳夾式耳機2 Pro發(fā)布:自適應(yīng)佩戴、44小時續(xù)航、AI翻譯超實用