当前位置: 首页 » 资讯 » 科技头条 » 正文

AI 致富教程:先搞色色,再去卖课

IP属地 中国·北京 果壳 时间:2026-03-22 22:19:23

食色性也,大部分伟大的商业模式的崛起都离不开这点事,AIGC 也不例外。

A16Z,硅谷投资圈的顶流 VC,出了一份研究 AI 消费趋势的报告。这份本该正经讨论 AI 生产力的报告里,藏着一页让人哭笑不得的折线图:去年美国用户花在 OpenAI 和纽约时报上的钱,加起来还没有花在 OnlyFans 上的多。


A16Z 报告表格

很讽刺,也很真实——生产力,还不如性张力。

那么,靠 AI 擦边,能赚多少钱?


图片来源 Giphy

生产力不如性张力

第一波做 AI 虚拟模特的人,最清楚。

大概从 2022 年底开始,Midjourney、Stable Diffusion 这类工具刚刚能稳定出图,就有人意识到:这东西能捏出以假乱真的人脸,能批量生产,成本几乎为零。他们用 AI 生成虚拟女性形象,配上一个名字、一段人设、几条精心设计的“生活日常”,在 Instagram 和 TikTok 上以真人面目运营,私信里的亲密回复则由 ChatGPT 代劳,提供所谓的“女友体验”。整条链路几乎全自动化,背后的操盘手甚至不需要露面。


图片来源 Giphy

这套玩法在 OnlyFans 的竞品平台 Fanvue 上跑得最顺。Fanvue 对 AI 内容的态度更宽松,据其官方披露,2023 年 11 月 AI 虚拟模特已经贡献了平台 15%的总收入。到 2024 年,头部 AI 虚拟模特的月收入普遍在两万美元以上,部分运营成熟的账号年收入已超过二十万美元。2025 年,这个数字还在涨。据 Fanvue CEO Will Monange 在 2025 年接受采访时透露,平台上 AI 创作者的总体收入较 2024 年同期增长超过 60%,虚拟模特已经成为平台增长最快的内容品类。

OnlyFans 官方明确禁止 AI 内容,但一直有人在钻空子。Reddit 上经常有人讨论怎么用 AI 擦边在 OnlyFans 上赚钱,常见的办法是找真人女性完成平台的人脸认证,再用她的照片训练 AI 模型批量生产内容。


图片来源 Giphy

平台再严格,架不住技术在进步,现在 AI 出图以假乱真的程度就连老司机都难以分辨。前几天我就在小红书刷到一个擦边帅哥坐在车里的视频,要不是打开评论区看到置顶的评论是“这个 AI 审美真好”,我都没反应过来这是 AI 帅哥。

成人内容之外,还有一波人靠 AI 赚到了钱,方向完全不同:儿童绘本。

赵磊(化名)是最早入场的那批人之一。2022 年底,他刚从一家大厂的产品岗被裁,正在家里研究新出路。那会儿 Midjourney 刚刚能稳定出图,他看着生成出来的水彩风小动物,脑子里冒出一个念头:这不就是绘本插画吗?他花了两周研究 Amazon KDP,逻辑极其简单:ChatGPT 写故事,Midjourney 出图,排版上传,等着收钱。“那时候真的好赚,”他说,“几本叠上去,一个月能有一万多的被动收入。”

但窗口没开多久。2023 年下半年,KDP 上的 AI 绘本开始爆炸式增长,TikTok 上冒出将近九万条同类教程,标题清一色的风格:EASY AI Money,靠儿童绘本月入十万。

所有人涌进同一条赛道,销量迅速被摊薄。质量问题也随之暴露,AI 绘本里开始出现长着巨大前腿的恐龙、手指数量对不上的小孩。各大平台开始要求上传时必须申报是否使用了 AI,这条赛道基本宣告终结。“现在靠 AI 绘本赚钱就已经很难了。”赵磊说。

然后他和那批做 AI 擦边的人,不约而同走向了同一个终点:卖课(在这一点上,近期爆火的“龙虾”做到了极致)


图片来源 Giphy

赵磊卖的是“AI 绘本从零到上架全流程”,做擦边的人卖的是“AI 虚拟模特搭建教程”,买单的都是下一批刚听说这件事、还以为窗口没关的人。

两个赛道,两套内容,包装不同,卖的是同一种东西:一个“我也能做起飞的猪”的幻觉。

审美和“旧技能”,卡住了一堆人

这些听起来是站在风口捡钱的生意,到底有什么门槛?

一个互联网 UX 设计师朋友给过我一个答案:网络区域限制和会员费。她在 Midjourney 刚出来的时候写了一本操作指南,99 块一本,现在还挂在小红书上做睡后收入。从工具使用的角度来说,她看得很准——门槛确实在快速下降。

但作为一个绘画功底停留在火柴人、在各类 AIGC 工具里丑图频出的人,我得补充一点她没说的:还有一个门槛,叫审美。


图片来源 Giphy

以前大家开玩笑说,AI 替代不了设计师,因为甲方根本不知道自己要什么。我以为这是个段子,直到我亲自去用这些工具,才发现这个段子在我身上一字不差地应验了。

去年我做了一个媒体账号,想用“可积岛”这个物理概念来做 logo。可积岛大概可以理解成,在混沌的信息流中,那些值得沉淀下来的东西。我找来了这个概念的参考图,打开工具,把图丢进去,又写了一堆描述性的提示词,然后开始出图。结果出来的东西一团乱,改了七八版,每一版都在乱的基础上换了个乱法。我知道我想要某种感觉,但完全不知道怎么把那个感觉翻译成指令。最后还是找了一个做设计的朋友帮忙,她花了二十分钟,出来的版本和我折腾两个小时的结果,根本不是一个量级。


上图为修改前、下图为修改后

问题不在工具,在我。更准确地说,在于我没有办法把脑子里模糊的审美感受,变成精确的语言。

这个困境不只是我一个人的。

一个做内容运营的朋友去年开始用 Seedance 做短视频,工具本身她很快就学会了,但真正卡住她的是写分镜。“我知道我想要一个有质感的画面,但'有质感'这三个字放进提示词里什么用都没有,”她说,“我不知道那个质感具体是什么光、什么景别、什么运镜。”最后做出来的东西,她形容是“有点像但哪儿都不对”。

Seedance 生成视频

另一个朋友用 Marble 做内容素材,一个可以通过文字和图片生成 3D 画面的工具,反复出图反复推翻,折腾了半天才意识到,自己根本没有参考系,不知道“好”长什么样,也就没办法判断生成出来的东西到底是不是自己想要的。


Marble 生成 3D 图全景

对比鲜明的是一个有摄影经验的朋友,同样的工具,他的出图质量明显高出一截。他说他其实没花太多时间研究提示词技巧,“就是知道自己想要什么构图、什么光线,把这些说清楚,工具自然就给得准。”

工具的能力在快速变强,但使用者之间的差距并没有因此缩小,反而在某种程度上被放大了。以前大家都做不出好东西,现在有审美积累的人可以做出很好的东西,没有的人还是在“能用”和“好用”之间徘徊。

工具也在对这个现实做出回应。NotebookLM 这类一键模板工具的走红,背后逻辑很简单:它绕开了“你得先知道自己要什么”这个前提。模板帮你做了审美决策,你只需要填内容。但模板的上限也在这里,它能解决“能用”,解决不了“好看”。

这件事在文字方向上体现得同样清楚。我有一个做市场策划的朋友,最近被调去负责 PR,需要大量输出文字稿件。领导说可以用 AI,她反而更困惑,来找我要之前写的一个 AI 写作手册。症结在于:她对“一篇好的 PR 稿”没有感觉,不知道好的标准是什么,面对 AI 生成的内容,她没有办法判断要往哪个方向改。


图片来源 Giphy

而我自己用 AI 写作反而顺手很多。不是因为我更懂工具,是因为做文字记者多年,对表达有判断,知道一句话好在哪、哪里别扭,知道 AI 给的东西差在什么地方、要往哪里推。审美在这里变成了一种很实用的能力:它让你知道终点在哪,而不是漫无目的地让 AI 一遍遍重跑。

当工具能力不是问题的时候,审美和“旧技能”就成了最大的门槛——用不好的甚至还不如完全不用的。

我要的是色色,AI 和真人的分别重要吗?

最先吃到螃蟹的人不仅会吃到甜头,也会惹上争议。现在的 AIGC 圈就出现了一个吊诡的现象:用不用 AI,比作品好不好,还重要。

方远(化名)是个品牌设计师,他接了一个品牌视觉的项目,用 AI 工具把以往要花两周的流程压进了三天,他自己觉得出来的效果比以前还好一截。东西发出去,等对方回复。

结果对方回的第一句话不是对作品的评价,而是“这么快,你是不是用 AI 了?”方远还没来得及回,紧接着又来一条:“我们不接受有 AI 参与的设计作品。”他到现在也不确定对方有没有打开过附件。他很郁闷,效率太高,还成罪过了。


图片来源 Giphy

面对这个处境的不止他一个人。AI 已经在很多人的评价体系里,悄悄变成了一个道德审判的坐标。这和 Photoshop 或者 Excel 不一样。没有人会在收到一张修过图的照片时问“你是不是用了修图软件”,也没有人会在拿到一份财务报表时追问“你是用 Excel 算的吗”。

AI 触发的是另一种怀疑,一种更接近“你有没有真的做这件事”的追问。

创意工作里向来有一种隐性的契约,好的作品意味着有人为它付出过时间、精力、打磨。AI 的出现却正好破坏了“付出”和“产出”之间那条大家默认存在的因果线。

你用 AI 三天做出来的东西,和别人手工两周做出来的东西放在一起,哪怕质量一样,前者会让人觉得有什么地方不对劲。这种“不对劲”可以总结成”不公平”。

亚利桑那大学曾做过一项研究,结果设计师如果主动告知客户使用了 AI 辅助,即便解释了 AI 只是辅助环节,客户对设计师的信任依然平均下降了 20%。

而随着 AIGC 技术的成熟,这个问题逐渐从甲乙方个人信任问题,上升到了平台问题。

从 2023 年开始,国家陆续出台相关规定,要求对 AI 生成内容进行标注:先是 1 月的《互联网信息服务深度合成管理规定》,主要管 AI 换脸、合成声音这类深度合成技术;同年 8 月《生成式人工智能服务管理暂行办法》正式落地,把 ChatGPT 类的生成式服务也纳入进来。到了 2025 年 3 月,监管再度升级,国家网信办联合多部门发布《人工智能生成合成内容标识办法》,这一次的规定覆盖了文字、图片、音频、视频全部内容形态。

但规范无法划清的,是定义。

平台能识别一段 100%由 AI 生成的视频,却很难判断边界地带,一张自拍照放进 AI 里调了色和构图,算不算 AI 生成内容;一段视频,素材是自己拍的但剪辑和配乐都交给了 AI,要不要打标签;一篇稿子,AI 出了初稿,人改了七成,这个标签算谁的……


图片来源 Giphy

边界感的难题背后,其实是权责的问题。定义不清楚,责任就没有落点。当一首歌的旋律是 AI 写的、人改了词,出了版权纠纷,谁来负责?或者一篇测评是 AI 生成的、博主只改了语气,买了推荐产品发现名不副实,我们追问“是不是 AI 做的”,其实是在追问一个更朴素的问题,这个作品背后,到底有没有一个人在认真负责,有没有人在想你的问题,有没有人在乎结果好不好?

最难划清的不是边界,是责任。

作者:沙拉酱

编辑:卧虫

封面图

内文插图除标注外均由作者提供


点个“小爱心”吧


免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。