一直以来,人们都在担心 AI 是否会超越人类智慧,但最新的研究却揭示了一个有趣的现象:像ChatGPT和Claude这样的顶尖 AI 模型,实际上在“过度神话”人类的理性。这些模型往往假设人类在做决策时会表现出极高的逻辑性和战略性,而现实情况并非如此。
研究人员通过经典的博弈论实验“凯恩斯选美比赛”(猜数字游戏)对 AI 进行了测试。实验要求参与者预测他人的选择以获得胜利。理论上,这需要深层的逻辑推演,但人类在实际操作中往往难以达到这种理想状态。有趣的是,当 AI 与人类对弈时,它们虽然能根据对手的背景(如大学生或专家)调整策略,但依然倾向于认为人类会做出最理性的选择。这种“把人想得太聪明”的偏差,导致 AI 在预测人类真实决策时经常失准。
这项研究提醒我们,尽管 AI 可以精准地模拟人类的人格特质,但在处理涉及真实人类行为的经济预测、策略建模等复杂任务时,如何校准 AI 对人类非理性行为的认知,将是未来技术发展的关键挑战。
划重点:





京公网安备 11011402013531号