当前位置: 首页 » 资讯 » 科技头条 » 正文

最大游戏up主也玩本地AI?让笔记本都能跑大模型的Parallax来了

IP属地 中国·北京 机器之心Pro 时间:2025-11-20 18:21:06



机器之心发布

机器之心编辑部

11 月 3 日,全球知名游戏博主 PewDiePie 发布视频,展示其自建本地 AI 系统的全过程。该视频目前浏览量已经超过 300 万,视频标题则赫然写着双关梗 “STOP: Using AI Right now”。

到底 PewDiePie 要停止使用怎样的 AI?又要开始使用怎样的 AI?



他投入 2 万美元,组装了包含 10 块英伟达 GPU(含 8 块改装版 RTX 4090 和 2 块 RTX 4000 Ada)的本地系统,支持 700 亿至 2450 亿参数的大模型运行,全程无需依赖云计算。 通过 vLLM 框架,他试验了 Qwen-235B 等模型,构建了具备搜索、记忆、RAG(检索增强生成)和音频输出功能的定制化 AI 界面。

要知道 PewDiePie 是海外游戏博主顶流中的顶流,Youtube 粉丝超 1.1 亿,Ins 粉丝 2 千万。他下场部署本地 AI 引起全网巨大轰动。

一夜之间,本地部署 AI 大模型成为讨论热度极高的话题。







为什么本地 AI 的热情一点即燃?

这要先从本地 AI 的特性说起。

在传统 AI 订阅模式中,大模型 + 云服务 = 账号 + API Key + 账单。

你只是在租用大公司的算力 + 模型 + 前端,这个环节里没有任何东西是属于你的。

你喜欢的模型随时可能被修改和替换你的人生经验和记忆变成云上的共享资产你辛苦 “养成” 的 Agents 其实也在为千万用户提供一样的服务

而在本地 AI 系统里,你的设备 = 你完全掌控的 AI 土壤。

隐私无忧。关于 AI 大厂如何管理及使用用户数据医疗记录、公司文档再也不用上传第三方。性能全掌控。本地推理意味着大大减少复杂外在环境的不可控性。再也不用忍受 Chatbot 想半天以后告诉你 “网络错误,请重试”。模型自由选用。在 gpt-5 被大家诟病但一众广受好评的就模型被一刀切拿掉的同时,开源模型越来越卷。几乎每周都有新的模型推出,小而美到巨无霸,选择非常多,统统供你差遣。

本地 AI 的黄金价值:隐私 + 性能 + 可组合性

然而,打造自己的 AI 实验室听起来似乎是一件门槛很高的事情。

为了跑最新的大模型就去购买几张 A100、几张 4090 并不是普通用户会去考虑的选择。

其实你有没有想过 —— 一台 M3 Ultra Mac Studio、一台游戏本、再加上隔壁工位的 Windows 主机,就能组成一个媲美企业级 AI 推理集群的「本地超算网络」?

本地 AI 新贵:Parallax

大家可能已经熟知 LMStudio、Ollama、Exo 等本地 AI 项目。而近期,一个叫 Parallax 的开源 AI 项目又频频出现在开源 AI 行业朋友圈中。阿里千问、Kimi、智谱 Z.ai、MiniMax、SGLang/LMSys 通通转发打 call 。









除了活跃的朋友圈,Parallax 更在 Product Hunt 冲上日榜第一, AI 产品周榜第四。



我们非常乐意看到更多团队为大家带来强力本地 AI 工具,让越来越多人拥有和创造 AI,而不只是从大公司租用闭源服务。

什么是 Parallax?

Parallax 不只是一个工具 —— 它是自主本地 AI 时代的全自主化操作系统。

就像当年 Linux 挑战 Windows,今天,Parallax 正在挑战 “AI 必须上云” 的霸权逻辑。

它是全球首个「全自主 AI 操作系统」,由 Gradient 团队打造并开源,Parallax 的目标只有一个:

让每个人都能掌控自己的 AI ,不再依赖云端大厂。

该系统支持在 Mac、Windows 等异构设备上跨平台、跨地域部署大模型,让用户完全掌控模型、数据与 AI 记忆。Parallax 内置网络感知分片与动态任务路由机制,可根据推理负载实现智能调度,在单机、本地多设备、广域集群三种模式间无缝切换。目前,Parallax 已兼容 Qwen3、Kimi K2、DeepSeek R1、gpt-oss 等 40 余种开源大模型。开发者可以进行本地部署,以完全自主的方式构建并运行编程助手、个人智能体,多模态生成等多种 AI 应用,将所有敏感数据与控制权限均保留在本地。





Parallax 最独特的优势?

支持异构设备组网

不像大部分框架只支持单机 Host,Parallax 支持任意设备的组合。无论是单 Mac Studio、PC + Mac Book Pro,还是本地 Mac Mini 集群,Parallax 都能无缝支持。Parallax 为不同模型与场景准备好了三种模式,实现本地 AI 无缝扩容:

单机模式 (LocalHost):在个人设备上部署模型LAN 集群 (Co-Host):与朋友或同事组建本地集群,部署较大的模型WAN 集群 (Global Host):通过广域网,与遍布全球的机器一起部署和运行超大模型

为本地设备提供服务器级别性能优化

通过动态 KV 管理与连续批处理,Parallax 的目标是媲美商业服务器的高并发,可以为你的个人设备带来更高吞吐量。隐私与性能,无需做选择。



实测:在 M3 Ultra + RTX 4080 组合下,Parallax 推理 Llama-3.8B 在单 GPU 本地部署场景中,相对 llama.cpp 推理速度提升了 40% 以上;在 LAN 集群场景中,相对 Exo 则减少了一半的 time-to-first-token;如果组成 GPU 池进行任务调度,相对 HexGen 总 Throughput 提升 3.2 倍!



目前,Parallax 支持在 GPU 和 Apple Silicon 上无缝运行 40 + 模型,兼容 Windows、MacOS、Linux 三大操作系统,让分布各地、不同配置的设备能够协同工作。

如何上手?

Parallax 的 Github Repo 还是比较清晰的,无论是什么类型的电脑都可以按照引导开始上手。

小编用自己 + 同事的 2 台 Macbook Pro (M4 Pro 芯片) 上成功跑上了 Qwen 235B,现在已经不怎么用 ChatGPT 来处理日常需求了,黑科技打卡成功✅。

推荐感兴趣的 AI 爱好者,或者重度硬件爱好者可以前往尝试,看看怎么组合自己的设备运行喜欢的模型:

https://github.com/GradientHQ/parallax

如果你是科研党,想要了解更多 Parallax 的背景和测试环境,他们的论文也值得一读。

http://arxiv.org/abs/2509.26182v1

宣布开源后,Parallax 团队也在持续更新,支持了包括 Kimi K2 Thinking 等最近一些广受欢迎的大模型。希望早日看到他们对多模态模型的支持,这将进一步提升本地 AI 的想象空间。

文末彩蛋

本来这篇文章就在这里告一段落了。但是发文前,突然发现 Parallax 最近发布了一个活动,类似小型黑客松。参与门槛很低,奖品却很给力, 大家有兴趣的话不妨参与。

你只需要以图片、视频等方式记录下自己使用 Parallax 搭建与运行本地 AI 的成果,并在社交媒体发帖,就可以参与到评选当中。大奖是一台 DGX Spark 与若干台 Mac Mini。

在小红书搜索 “我的 AI 实验室”,就可以了解更多详情了。活动到月底结束,要参与的朋友们赶快尝试起来吧。



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新