独家丨MiniMax 高级研究总监钟怡然已于半年前离职
雷峰网 (公众号:雷峰网) AI 科技评论独家获悉,MiniMax 高级研究总监钟怡然已离职,具体去向暂未公开。
据公开资料显示,钟怡然博士毕业于澳大利亚国立大学,师从李宏东教授与 Richard Hartley 院士。并曾在国际权威期刊及顶级学术会议上累计发表了 40 余篇研究论文,涵盖 TPAMI、IJCV、IEEE TIP、CVPR、NeurIPS、ECCV、ICCV、ICLR、EMNLP 等领域,且持有多项美国专利。
钟怡然的科研成果在学术界与产业界都受到了广泛关注,相关论文累计被引用近 2000 次。还曾获的 2023 年 ICCV Workshop 最佳论文奖以和 2014 年 ICIP 最佳学生论文奖。
博士毕业后,钟怡然于 2021 年加入商汤科技,担任高级经理,负责大语言模型、多轮对话及多模态融合方向的研究。随后在 2022 年,以青年科学家的身份加入上海人工智能实验室,担任新架构探索组的 PI,OpenNLPLab负责人,专注于高效的大语言模型和视听语言多模态融合。
2023 年底,钟怡然在 MiniMax 就大模型的高效架构方向提出构想,与研发团队共同推进线性注意力机制在大规模语言模型中的应用。
2024 年,团队正式启动 MiniMax-01 项目,由钟怡然担任项目负责人,全面主导模型的架构设计与研发工作。经过近一年的迭代与优化,MiniMax 于 2025 年初正式发布基于 Lightning Attention 架构的 MiniMax-01 模型。
该模型一经推出便在业界引发广泛关注,被普遍认为是一款具有突破性意义的大语言模型。MiniMax-01 在超长上下文处理能力方面表现尤为突出,采用团队自主研发的 Lightning Attention 架构,通过线性或近线性注意力机制,大幅提升了模型在长序列输入下的计算效率与可扩展性,有效突破了传统 Transformer 在复杂度上的性能瓶颈。
总体而言,业内普遍认为 MiniMax-01 在大模型的架构创新与效率优化方面走出了一条独特路径,代表了“高效长上下文建模”方向的重要技术进展。
作为成就这一成果的核心人物之一,钟怡然在项目中发挥了关键作用。他带领团队完成了从理论创新到工程落地的全过程,推动 Lightning Attention 成为业内关注的焦点,为 MiniMax 的技术体系奠定了基础。
对此 MiniMax 回应雷峰网 AI 科技评论,“钟怡然已于半年前离职,此前只参与 M1 部分研发工作,祝福他未来有更好发展。”
雷峰网原创文章,未经授权禁止转载。详情见 转载须知 。