王小川大模子25天再降级!13B版本开源收费可商用,3090即可部署
作者:百科 来源:综合 浏览: 【大 中 小】 发布时间:2025-02-28 04:58:50 评论数:
衡宇 金磊 发自 凹非寺
量子位 | 公共号 QbitAI
就在适才,模天王小川的再降开源大模子又有了新措施——
百川智能,正式宣告130亿参数通用狂语言模子(Baichuan-13B-Base)。版本
而且民间对于此的开源可商可部评估是:
功能最强的中英文百亿参数目开源模子 。
与此一起出道的收费署,尚有一个对于话模子Baichuan-13B-Chat,用即以及它的模天INT4/INT8两个量化版本。

但更紧张的再降一点是(划重点),残缺开源!版本收费可商用!开源可商可部

就在不久前的收费署6月15日,百川智能才适才宣告其第一款70亿参数目的用即中英口语语模子Baichuan-7B 。
当时的模天版本便已经拿下多个天下威信Benchmark榜单同量级测试榜首;同样作为开源大模子 ,风闻清华北少数已经用上了 。再降
仅仅时隔25天 ,版本更大、更强的版本再次袭来 ,不患上不说 ,王小川在技术上的措施是有够紧锣密鼓的了 。
那末这次号称的“最强开源大模子” ,详细展现又是奈何样呢?
多规模逾越ChatGPT
老例子,先摸棱两可地说一下Baichuan-13B的根基个“模”质料:
中英双语大模子,130亿参数,在1.4万亿token数据集上磨炼 ,残缺开源 、收费可商用。
1.4万亿ztoken这个磨炼数据量,逾越LLaMA-13B磨炼数据量的40% ,因此后开源的13B尺寸模子天下里 ,磨炼数据量最大的模子。
此外,Baichuan-13B高下文窗口长度为4096——这就不患上不提到其与7B版本残缺差距的编码方式。
7B版本接管RoPE编码方式 ,而13B运用了ALiBi位置编码技术 ,后者可能处置长高下文窗口,致使可能判断逾越磨炼时期读取数据的高下文长度 ,从而更好地捉拿文本中高下文的相关性,让预料或者天生更精确。

作为一款中英文双语大模子,Baichuan-13B接管了相对于失调的中英文语料配比以及多语言对于齐语料 ,从而在中英两种语言上都有不俗展现。

主流百亿参数13B开源模子benchmark下场
来看看Baichuan-13B在中文规模的测评下场。
在评测集C-EVAl上,Baichuan-13B在做作迷信、医学、艺术 、数学等规模争先LLaMA-13B 、Vicuna-13B划一尺寸的狂语言模子 。
社会迷信以及人理迷信规模,水平比ChatGPT还要好上一点。

英文规模的展现也算不错,能比同尺寸的其余开源模子