• 开源
    开源的相关报道 本页是关于(开源)的所有博文,按照时间倒序展现。实时更新。

    总数 3030 1/50
  • 腾讯混元发布开源加速库,生图时间缩短75%

    砍柴网  • 
    6月6日,腾讯发布针对腾讯混元文生图开源大模型(以下简称为混元DiT模型)的加速库,让推理效率大幅提升,生图时间缩短75%。混元DiT模型的使用门槛也大幅降低,用户可以基于ComfyUI的图形化界面,使用腾讯混元文生图模型能力。同时,混元DiT模型已经部署至Hugging Face Diffusers通用模型库中,用户
  • 阿里云发布全球最强开源模型Qwen2,性能超越众多中国闭源模型 | 速途网

    速途网  • 
    速途网6月7日消息(报道:李楠)今日,阿里云更新技术博客:重磅发布全球性能最强的开源模型Qwen2-72B,性能超过美国最强的开源模型Llama3-70B,也超过文心4.0、豆包pro、混元pro等众多中国闭源大模型。所有人均可在魔搭社区和Hugging Face免费下载通义千问最新开源模型。相比2月推出的通义千问Qw
  • 重磅!斯坦福 AI 团队被曝抄袭中国大模型开源成果,推特舆论开始发酵

    雷锋网  • 
    过去一年,中国大模型一直被贴上「追赶美国」的标签,但近日,推特上却有人曝出: 美国斯坦福大学的一个 AI 团队疑似抄袭、「套壳」一家中国大模型公司的开源成果,模型架构与代码完全相同。 雷峰网 舆论已经开始发酵,引起了圈内人士的广泛讨论。 雷峰网根据 AI 科技评论整理,事情的经过大致如下
  • 昆仑万维开源2千亿稀疏大模型天工MoE,全球首创能用4090推理 | 速途网

    速途网  • 
    速途网6月3日消息(报道:李楠)今日,昆仑万维宣布开源 2 千亿稀疏大模型 Skywork-MoE , 性能强劲, 同时推理成本更低。Skywork-MoE 基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来,是首个完整将 MoE Upcycling 技术应用并落地的开源千亿 Mo
  • 扎克伯格,AI开源让他再次成为硅谷红人

    砍柴网  • 
    扎克伯格因为AI开源在硅谷又火了核心提示:1.扎克伯格让AI模型开源,这与谷歌、OpenAI等公司的做法大相径庭。2.尽管扎克伯格仍在应对许多Meta问题,但工程师、程序员、技术专家都支持他的开源立场。 3.Stripe CEO对扎克伯格说,开源LLaMA是脸书在 科技 界做过的最受欢迎的事。
  • 腾讯混元文生图大模型全面开源

    i黑马  • 
    5月25日获悉,腾讯近日宣布旗下混元文生图大模型全面升级,并对外开源。这是业内首个中文原生的DiT架构文生图开源模型,具备原生中文理解能力和双语编码能力,参数量15亿。此次开源的模型包含模型权重、推理代码、模型算法等完整模型,供企业与个人开发者免费商用,目前已在专注于自然语言处理的开源机器学习平台Hugging Fac
  • OpenHarmony开发者大会2024圆满举办,聚焦技术革新,加速开源生态繁荣

    砍柴网  • 
    5月25日, 以“鸿心聚力 智引未来”为主题的OpenHarmony开发者大会2024(以下简称大会)在深圳成功举办。大会以OpenHarmony 4.1 Release版本根技术特性解读为契机,聚焦OpenHarmony技术革新和社区生态进展,共设立70余项精彩议题,上百位专家学者齐聚一堂,共同探讨OpenHarmo
  • 中国开源软件推进联盟携手IBM发布《可信赖的企业级生成式AI白皮书》

    砍柴网  • 
    (2024年5月23日,北京)今天,IBM 在北京举行“AI for Business论坛”,与客户、合作伙伴、生态联盟等行业参与者一起,探讨如何将生成式 AI 应用到企业创新和实践当中。会上,中国开源软件推进联盟与 IBM 联合发布《可信赖的企业级生成式AI白皮书》(以下简称“白皮书”),旨在为中国企业提供
  • 围绕算力+数据,矩阵起源建设开源 AI 原生软件平台

    砍柴网  • 
    一年多前,ChatGPT初露头角,其突破性的自然语言交互能力撼动了整个世界。之后十几个月,Transformer 架构和大语言模型 LLM 成为划时代的技术,激发了整个 AGI 领域的 创业 和创新。OpenAI 和 Google 相继推出了 GPT-4o、Project Astra 等「AI
  • 腾讯集团副总裁蒋杰:腾讯混元大模型性能提升50%,多个模型将开源

    砍柴网  • 
    5月17日,腾讯集团副总裁蒋杰在腾讯云生成式AI产业应用峰会上表示,腾讯混元大模型经过持续迭代,目前整体性能居国内第一梯队,部分中文能力追平GPT-4。腾讯集团副总裁 蒋杰自2023 年 9 月首次亮相以来,腾讯混元大模型不断探索最新技术,已拓展至万亿规模,并在国内率先采用混合专家模型(MoE) 结构,带来模型总体性能
提交建议
微信扫一扫,分享给好友吧。

您最多可以有 个私人频道。
邀请好友可以增加到5个
也可以替换已有猎物

×