当前位置: 首页 » 资讯 » 科技头条 » 正文

OpenAI智能时代新政:4天工作制、全民基本盘和模型遏制

IP属地 中国·北京 编辑:唐云泽 算泥社区 时间:2026-04-08 11:40:25

我们正处在一个不可逆转的时代转折点。

人工智能早就跨过了帮你写写邮件的阶段,正快速向超越最聪明人类的超级智能演进,而我们还没有做好准备。

OpenAI在刚刚发布了一份全新战略构想,告诉全世界,应该制定怎样的政策应对AI。

这份名为《智能时代的产业政策:以人为先》的文件,最引人注目的地方在于,它全方位提出涵盖4天工作制、全民基本盘和模型遏制等的生存指南。

全篇都在探讨我们要如何在新时代里保住每个人的饭碗、增加每个家庭的收入,同时把那些危险的超级模型关在笼子里。

人类探索未知的渴望一直推动着社会向前走。我们一路把沙子提纯变成精密芯片,通上电,孕育出越来越聪明的系统。短短几年,人工智能从只能干单一任务的工具,进化到能包揽人类数小时甚至数个月工作的超级大脑。

现在没人确切知道未来究竟会怎样演变。政策制定者应该把这些构想摆到台面上,把选择权交给普罗大众,希望能用一套惠及全民的产业政策来承接这场技术海啸。

守住普通人的钱袋子

科技大爆发的果实总是诱人的。就像电灯照亮了千家万户,流水线把昂贵商品的价格打了下来,超级智能有潜力加快医疗突破,让家家户户的生活成本直线下降。

这份美好愿景必须建立在一个前提上,好东西绝不能只被少数几家大公司独占。

历史上每一次技术大换血都会带来阵痛和失业。为了应对动荡,社会常常需要用极大的魄力重塑社会契约。

政府不能光靠修修补补,必须从根本上重构财富分配机制。

为了不让普通人掉队,建立一个全新的公共财富基金成了一个具想象力的方案。

这个基金会让每一位老百姓都成为人工智能经济增长的股东。

大家就算完全不懂金融,毫无启动资金,也能直接从超级智能创造的财富里分一杯羹。

政策制定者和科技公司会联手为这个基金注资,去投资那些研发和广泛应用这些技术的企业。赚到的钱会直接发放到每个人手里。

钱从哪里来是一个很现实的问题。

当机器接管了大量工作,企业的利润和资本利得会飙升,靠工资收入和工资税来支撑国家运转的老旧税收体系就会面临崩溃。

社会保障、医疗补助和住房补贴的资金池会见底。

税收政策必须跟着变,把征税重心转移到资本层面上来。政府可以对高居金字塔尖的资本利得征收更高的税,或者对机器自动化劳动力本身征税。

搭配上鼓励企业留住员工、为员工提供再培训的工资激励机制,就能在经济结构大换血的时期稳住基础民生项目的资金大盘。

让普通人过得更舒服的最直接方式,就是把机器提升的效率转化成实打实的员工福利。

当常规工作被机器包揽,企业运营成本大幅下降,多出来的利润完全可以换成对员工的慷慨回馈。

我们要鼓励企业增加退休金缴纳比例,承担更多的医疗费用,补贴员工找人照顾小孩和老人。

我们还能让企业和工会去尝试每周工作32小时或者每周上4天班的试验。只要总产出和服务水平没掉下来,就应该把省下来的时间变成永久的缩短版工作周,或者换成带薪假期。

机器大量替代人力的过程一定会有一大批行业的员工被迫转行。

现有的失业保险和SNAP(补充营养援助计划)等福利体系必须随时处于满血状态。

更进一步的做法是建立一套能随时应变的自适应安全网。利用失业率和特定行业人员流失指标等公开数据,对新技术如何影响工作和工资进行实时监测。

一旦某个地方的破坏程度超过了预先设定的红线,一套包含了快速现金援助、工资保险和培训代金券的临时性扩容福利包就会自动激活。等情况稳定下来,这些额外补贴再逐渐退出。

福利体系也应该变得便携,医疗、退休金和技能培训账户不用再死死绑定在某一家特定的雇主身上,它们会跟着人走。无论你是在打零工、在创业还是在念书,这些保障都能无缝衔接。

工作的人情味与科学大爆发

人力的解放绝不代表人类变得毫无用处。

在机器包揽了繁琐枯燥的活儿之后,人与人之间传递温度的工作会变得无比珍贵。

随着劳动市场大洗牌,儿童保育、老年护理、教育、医疗保健和社区服务这些充满人情味的领域,将成为绝佳的就业避风港。

人工智能可以帮护理人员处理繁杂的行政文件,人与人之间的情感连接是机器永远无法模拟的。

政府大力投资这些行业的培训,提高从业者的工资待遇,改善工作环境,能让受到冲击的工人顺利过渡到这些急需人手的岗位上。

对于在家里照顾小孩和老人的劳动付出,也应该设立专门的家庭津贴给予经济认可,让照顾家人成为一份有尊严、有保障的劳动。

想要在新时代里如鱼得水,离不开懂行的人去创业。

过去很多有着丰富行业经验的打工人,被做账、搞营销、跑采购这些繁琐的开公司杂活吓退。

给他们发放小微赠款,搭配用人工智能搭建的开箱即用创业支持包,把那些标准合同和共享后台全套配齐,就能帮普通工人把一身本事转化成新的小企业。

工人们往往最清楚工作流程的痛点,最明白机器到底能在哪里帮上忙。

必须给员工发声的机会,让他们和管理层坐在一起,决定怎么用机器来淘汰那些危险、重复的苦差事。对于那些可能增加工作强度、剥夺员工自主权的糟糕机器部署,必须划定清晰的红线。

人类在科学探索上的步伐也会因为超级智能的加持彻底迈开。

建立一个分布式的智能实验室网络,把人工智能直接塞进实验流程里。让机器自动处理日常数据,快速生成假设并进行海量测试,将那些过去需要数十年才能验证的猜想缩短到数天。

把这些实验室和配套的生产设施广泛分散在大学、社区学院和地区研究中心,培养大批懂得操控这些智能设施的技术人员,让新药研发和清洁能源的突破口遍地开花。

给超级聪明套上缰绳

当能力超强的机器系统渗透进社会的每一个毛细血管,新的隐患也随之而来。

有的系统可能会被坏人拿去制造网络攻击,有的系统可能会产生偏离人类意图的自主行为。

我们要对这种脆弱性保持清醒。

过去我们给电网加装保险丝,给飞机建立实时监控系统,这些经验在当下依然适用。我们需要用快得多的速度来建立安全网。

针对网络和生物层面的大规模风险,必须研发专门的保护模型。利用高级系统来做红蓝对抗,提前预测新型风险。

建立快速生产医疗物资的储备库,通过政府采购和保险框架,强行催生出一个互相竞争的防御性安全市场,让防护技术的更新速度永远咬死风险蔓延的脚步。

信任是一切的基础。

我们需要建立一套完善的信任栈,利用出处追踪和验证标准,给系统生成的内容和执行的动作打上安全且可验证的签名。

开发能在保护隐私前提下记录操作日志的系统,遇到问题时可以清楚地进行调查和追责,坚决避免建立无孔不入的监控网络。

对于那些处于能力巅峰的前沿模型,必须引入强制性的审计制度。强化CAISI(人工智能标准与创新中心)等机构的职能,制定严格的审计标准。

在极端情况下,可能会出现异常危险的系统被意外释放,比如模型权重泄露,或者系统具备了自主复制能力。

我们需要提前演练,在真实世界的复杂环境里尽量控制危险能力的扩散,最大限度降低破坏。

这种管控仅仅针对极少数掌握顶尖模型的大公司,不能以此为借口去给那些开发普通技术的初创企业增加合规负担。

研发超级智能的公司,应该把自己改造成带有公共利益使命导向的架构,做出明确承诺,把赚到的钱大量拿去做长期慈善。

要死死锁住核心模型的权重,持续审查模型有没有学会骗人。政府使用这些超级工具时也要有明确的法律界限,用极高的标准来要求可靠性。

政府要顺势对信息公开机制作出现代化升级,允许普通公民和监督组织使用新技术去审查政府的行动,让公权力的运行在智能时代更加透明。

技术的发展不能只听办公室里工程师的一面之词。

我们必须建立一套让老百姓也能参与进来的公共投入机制。遇到差一点就出大事的惊险时刻,哪怕安全措施最后兜住了底,也必须有一套机制让公司向指定的公共机构报告。

扩大信息共享的国际合作网络,各国联合起来防范那些跨越国界的深层危机。

这份构想是一场盛大讨论的开场白。

面对超级智能带来的财富爆发,没有任何一套单一的政策工具能搞定一切。

OpenAI为了让更多人加入讨论,文件发布方设立了专属反馈通道,启动了最高10万美元的研究资助,以及最高100万美元的API额度,专门支持那些基于这些政策理念进行探索的人,并计划于2026年5月在华盛顿举办研讨会。

超级智能的列车已经发车,车票就在我们每个人手里,重新设计社会契约的图纸就在桌上。

参考资料:

https://openai.com/index/industrial-policy-for-the-intelligence-age/

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。