小红书的人文智能实验室(Humane Intelligence Lab,简称hi lab)近日低调开源了其首个多模态大模型dots.vlm1,为视觉语言模型(VLM)领域带来了新气象。这款模型基于小红书自研…
近日,该实验室宣布开源其最新的视觉语言模型dots.vlm1,这一举措不仅展示了其在技术自研方面的决心,也为多模态AI的发展带来了新的活力。dots.vlm1是小红书hi lab首个开源的多模态大模型,它基…
dots.vlm1作为hi lab首个开源的多模态大模型,其构建基础是全自研的12亿参数NaViT视觉编码器和DeepSeek V3大语言模型。这一严谨的训练流程确保了dots.vlm1在视觉和文本两个领域…
最新开源的首个多模态大模型dots.vlm1,基于自研视觉编码器构建,实测看穿色盲图,破解数独,解高考数学题,一句话写李白诗风,视觉理解和推理能力都逼近Gemini2.5 Pro闭源模型。 一个理由是,hi…
文心大模型4.5是百度首个原生多模态大模型,多项测试表现优于GPT4.5
商汤大装置与铁一院打造国铁价值工程多模态大模型应用平台,首次将多模态大模型应用于铁路工程设计知识的智能传承与应用,其融合文本、图纸、公式等异构数据,为设计人员提供了知识检索、智能问答、文本生成、文本审核、多…
GR-3聚焦人机情感连接,适用于公共空间、教育等场景
该模型创新性地提出了一种通用于AR系统的“时间编码”机制
具身智能不止VLA
腾讯混元小模型全家桶开源:4款齐发,单卡部署,微信读书、会议已用上。
四个模型均在Github和Huggingface等开源社区上线
高德本次变革引入了“空间智能”理念。
原阿里通义语音负责人鄢志杰加入京东探索研究院
07/09 12:23
07/09 12:22
07/09 12:21
07/09 12:20