人人搬家,广州人人搬家,广州人人搬屋

广州人人搬家公司

咨询电话020-85276700

广州人人搬家公司二微码,广州人人搬家二微码,人人搬家二微码

再开源两款大模型 腾讯慢慢来 广州人人搬家公司

来源: 本站 作者: wjh6828 发布时间: 2024-11-07 13:13:51 浏览次数: 29

腾讯混元Large模型总参数量389B,激活参数量52B,上下文长度256K。除了这些大模型的常规数据,康战辉在3个多小时的沟通会上多次强调MoE架构。“腾讯混元Large是目前开源领域参数规模最大、效果最好的MoE模型。” MoE(Mixture of Experts),即混合专家模型,是目前国内外主流的大模型结构。2024年初,腾讯混元宣布在国内率先采用MoE架构模型,总体性能比上一代Dense模型提升50%。此后,腾讯混元推出基于MoE架构的多模态理解大模型以及基础模型“混元turbo”。

之所以强调MoE架构,“是因为腾讯做MoE架构很早,我们很早发现这里面的潜力,所以一直在延续”,康战辉解释,“本质上来讲,MoE是一个高性价比的东西,同等算力下,模型参数量越大,MoE的性价比更高,更适合复杂的任务。Dense模型的优势在于完成一些相对简单的任务”。

不过康战辉也表示,“架构的选择长期看是殊途同归,罗马在哪里是很清楚的,路怎么走各家不一样”。

另一款开源的腾讯混元3D生成大模型,首批包含轻量版和标准版,轻量版仅需10s即可生成高质量3D资产,目前已在技术社区公开发布,包含模型权重、推理代码、模型算法等完整模型,可供开发者、研究者等各类用户免费使用。

在应用层面,腾讯混元3D模型负责人郭春超介绍,目前腾讯3D生成相关技术已经开始应用于UGC 3D创作、商品素材合成、游戏3D资产生成等腾讯业务中。腾讯地图基于腾讯混元3D大模型,发布了自定义3D导航车标功能,支持用户创作个性化的3D导航车标,相比传统的3D车标重建方案,速度提升了91%。

对于开源节奏,腾讯没有遮掩,态度是“不急于为了开源而开源”“在内部业务打磨好再开源”“要开就要有诚意,与公司内应用模型同宗同源”。

有关推广策略和营收等则不是腾讯当天的重点,“开源有利于大模型厂商形成更开放的生态,吸引到更多研究者或开发者来丰富基于这些模型的应用和服务,相应地也能推动模型持续地优化迭代。尽管模型本身是开源的,但仍然可以在这个基础上提供多种形式的服务,包括定制开发、技术支持、培训等”。易观分析研究合伙人陈晨告诉记者。http://www.rrbj01.com