当前位置: 首页 » 资讯 » 科技头条 » 正文

今晚19点|2GPU+2CPU微调超大模型,带你上手开源KTransformers

IP属地 中国·北京 量子位 时间:2025-11-11 12:17:38

视点 发自 凹非寺
量子位|公众号 QbitAI

2GPU+2CPU就可以在本地微调自己的DeepSeek 671B / Kimi K2 1TB超大模型了。

这就是前两天量子位介绍的明星开源项目KTransformers,吸引了很多伙伴的关注。毕竟谁不想在本地跑个自己的猫娘呢(误)。



KTransformers如何实现更低成本的LoRA微调?与其他技术方案有什么不同?低成本高性能的微调方案对于大模型落地意味着什么?

于是,我们邀请到了KTransformers项目的两位重要成员——

章明星,清华大学计算机系副教授,KTransformers项目主要指导老师李沛霖,趋境科技KTransformers项目核心参与者

带大家上手实践如何用KTransformers+LLaMA-Factory在本地微调超大模型,也一起聊聊项目背景与最新进展。

欢迎在「量子位」视频号预约&观看直播

直播嘉宾



章明星
清华大学计算机系副教授

章明星教授是KTransformers项目主要指导老师。其主要研究方向为计算机系统机构领域,相关成果在包括OSDI、SOSP、ASPLOS、HPCA、FSE、VLDB、ATC、EuroSys等国际顶级会议和期刊上发表论文二十余篇。曾获ACM SIGSOFT 杰出论文奖,IEEE TCSC、ACM SIGOPS等组织颁发的优秀博士毕业论文奖。获得国家自然科学基金青年科学基金及博士后基金一等项目资助。博士毕业后进入清华大学与深信服联合培养的博士后计划,负责创新业务孵化,担任深信服首席算法技术专家,后任职创新研究院院长。



李沛霖
趋境科技KTransformers项目核心参与者

李沛霖,目前就读于西北工业大学计算机学院,即将进入清华大学计算机系攻读博士学位。参与了趋境科技引擎开发,是KTransformers项目核心参与者,微调功能核心技术开发人员。曾获国家奖学金,院长奖学金(全院所有年级仅1人),多次获得国家级竞赛奖项。

核心话题

认识KTransformers项目:如何实现更低成本的LoRA微调?手把手实操KTransformers聊聊KTransformers背后的技术与思考

参与直播

欢迎在「量子位」视频号预约&观看直播

关于「365行AI落地方案」

AI技术的落地应用不仅限于科技领域,它已经渗透到各行各业,成为推动产业升级的重要力量。因此,“365行AI落地方案”主题策划应运而生,我们寻找各行各业中成功应用AI技术的案例和方案,分享给更多的产业内人士。



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。