当前位置: 首页 » 资讯 » 科技头条 » 正文

别乱动我的钱包:苹果研究表明用户讨厌AI自作聪明

IP属地 中国·北京 编辑:赵磊 IT之家 时间:2026-02-13 10:07:18

IT之家 2 月 13 日消息,苹果机器学习研究团队于 2 月 7 日发布论文《绘制计算机操作智能体用户体验设计空间》,聚焦揭示用户对 AI 智能体的真实期望及交互偏好。

研究人员指出,尽管市场在大力投资开发 AI 智能体,但关于界面形态及交互逻辑的探索仍显不足。为此,团队通过分析现有产品并开展实地用户测试,试图厘清这一新兴领域的设计规范。

在研究的第一阶段,IT之家援引博文介绍,团队深入剖析了包括 Claude Computer Use、OpenAI Operator 及 AutoGLM 在内的 9 款主流桌面及移动端 AI 智能体。

研究通过咨询 8 位资深从业者,研究人员构建了一套包含“用户指令”、“活动可解释性”、“用户控制”及“心智模型”四大维度的分类体系。该体系涵盖了从用户如何下达命令,到 AI 如何展示其操作计划、报错及移交控制权的全过程。

研究的第二阶段采用了经典的“绿野仙踪法”(Wizard of Oz)。团队招募了 20 名具有 AI 使用经验的用户,要求其通过聊天界面完成度假租赁或在线购物任务。

为了排除技术故障干扰,准捕捉用户在面对 AI 决策时的真实心理反应与行为模式,苹果采用真人模拟 AI 操作(包括故意犯错或陷入死循环)的方法,用户并不知道屏幕背后的“AI”实则是隔壁房间的研究员。

实验结果表明,用户对“透明度”有着微妙的需求:他们希望了解 AI 的动向,但拒绝微观管理每一个步骤,否则便失去了使用智能体的意义。

这种需求随场景而变:在探索性或不熟悉的任务中,用户渴望看到更多中间步骤与解释;而在高风险场景(如支付、修改账户信息)中,用户要求拥有绝对的确认权。

研究最后强调,信任是人机交互的基石,但它极其脆弱。当 AI 智能体在遇到模糊选项时未做询问便擅自做主(静默假设),或者在未告知的情况下偏离原定计划,用户的信任感会迅速崩塌。

在 AI 遇到不确定情况后,用户并不希望其为了追求“自动化”而随机选择,更倾向于 AI 暂停并寻求澄清,尤其当这些选择可能导致买错商品等实际损失时。

标签: 用户 苹果 智能 体系 界面 微观 人员 计算机操作 团队 任务 维度 体验 绘制 方法 房间 市场 模式 损失 领域 控制权 绿野仙踪 高风险 基石 技术 实际 设计规范 全过程 经典 场景 信任

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新