其中,语言主干网络基于混合专家(MoE)架构构建,包含 103 层 Transformer,训练初始阶段参数规模 1515B,通过 LAEP方法创新,团队在预训练过程中将模型参数优化至 1010B,预训练算…
硅谷豪赌算力烧到停电,中国团队反向出击!这一刀,直接砍碎Scaling Law
据硅基流动官微消息,硅基流动大模型服务平台已上线腾讯混元团队最新开源的翻译模型Hunyuan-MT-7B。该模型支持33个语种互译(除中文、英语、日语等常见语种外,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等…
快科技9月7日消息,日前,腾讯混元宣布,混元翻译模型Hunyuan-MT-7B登顶 Hugging Face模型趋势榜第一位。 在8月底结束的国际计算语言学协会(ACL)WMT2025比赛中,Hunyuan…
Hunyuan-MT-7B于9月1日开源,是一个能力全面的轻量级翻译模型。
腾讯混元开源轻量级翻译模型:支持5种汉语言与方言互译
当输入一段包含海浪、沙滩人群及海鸥的视频,且文字描述仅为“海浪声”时,Hunyuan-Foley不仅能敏锐捕捉海浪画面,生成与之同步的波浪音效,精准响应文本需求,还能巧妙地捕捉视频中人群交谈的声音、海鸥盘旋的…
腾讯混元开源端到端AI模型Hunyuan-Foley:视频+文字=“电影级”音效
10/31 16:58
10/31 16:56
10/31 16:55