人工智能大模型,不是越大越好?

虎嗅网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

近期,谷歌和霍普金斯大学联合发布了一篇论文,研究显示,对于像Sora这样的潜在扩散模型,并不是越大越好。大模型参数越多,效果并不一定会越好。在计算资源少的时候,想要达到效率和质量的平衡,什么比参数量更重要呢?

随意打赏

提交建议
微信扫一扫,分享给好友吧。