华为宣布开源盘古7B 稠密和 72B 混合专家模型

i黑马  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

华为6月30日正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。华为表示:“此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。”

文章评价
华为宣布开源盘古7B 稠密和 72B 混合专家模型 匿名用户
发布
发布

    随意打赏

    提交建议
    微信扫一扫,分享给好友吧。