AI公司MosaicML推出70亿参数模子MPT

综合 2024-10-27 02:24:34 98198

AI 守业公司 MosaicML 克日宣告了其 70 亿参数模子 MPT-7B-8K,公司据悉 ,推出该模子一次可能处置 8000 字文本,亿参至关长于从事长文重点摘要以及问答,数模还能在 MosaicML 平台上凭证特界说务,公司进一步微调相关配置装备部署。推出

据悉,亿参系列模子接管了 150 万个 Token,数模并以 256 块 H100 GPU 花 3 天实现模子磨炼而成。公司MosaicML 本次宣告了 3 个版本模子 ,推出搜罗 MPT-7B-8k  、亿参MPT-7B-8k-Instruct 以及 MPT-7B-8k-Chat 。数模

其中,公司第一个版本 MPT-7B-8k 、推出因此 Transformer 解码器为根基,亿参并以 FlashAttention 以及 FasterTransformer 机制来减速磨炼与推论,能一次处置 8000 字文本,MosaicML 公司展现,该模子开源、应承商用。

第二个版本 MPT-7B-8k-Instruct 因此第一个版本 MPT-7B-8k 微调而成,MosaicML 公司展现 ,MPT-7B-8k-Instruct 模子可处置长篇指令,特意看重于天生“摘要以及问答”,该模子同样开源且可商用。

第三个版本 MPT-7B-8k-Chat 则是机械人对于话式的 AI 模子 ,MosaicML 公司宣称,该模子格外多用了 15 亿个谈天数据 Token,在第一版模子 MPT-7B-8k 之上不断磨炼而成,该模子开源 ,但不应承商用。

据此前报道 ,MosaicML 公司也推出了一款号称磨炼老本仅为竞品零头的 MPT-30B 开源模子 ,该公司日前已经将所有开源模子宣告于 Huggingface 平台,感兴趣的小过错们可从前往妨碍相关清晰,还可能在当地硬件上运用自己的数据,不才载后 ,对于模子妨碍种种微调。

本文地址:https://ppfjmjbdj.strain.blog/news/567c698750.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

全站热门

三连胜!卡子哥爆砍41+5+5,祖巴茨18+12,快船客场击败爵士啦个球2023-12-09 13:58江苏啦个球2023-12-09 13:58江苏

英超开赛,第一轮战罢强队优势明显,各球队持续引援中光腚出镜,上下失守!柳岩靠“球”博人眼球,刘晓庆装嫩哗众取宠

被封为“极品女神”的她, 欠缺身段太好, 不愧是直男的心头肉

科贝电台:米利唐受伤,皇马不思考在转会市场追寻替换者

原创 正负值-228!联盟倒数第一!离开勇士,普尔彻底废了

[瞎话板]加里

老鹰队与快船队将产生重磅交易?

江苏警方传递女子被分尸:因生涯杂事发生矛盾,4名嫌犯被抓

友情链接