近日,Apple 研究人员联手普渡大学发布了一项名为 DarkDiff 的摄影黑科技,旨在解决智能手机在极端微光环境下拍照满是噪点、细节模糊的痛点。这项技术通过将生成式扩散模型直接引入相机的图像信号处理(ISP)流程,让手机镜头在黑暗中也能捕捉到惊人的细节。
传统的夜景模式往往依赖后期算法降噪,但这常导致照片出现像油画一样的虚假感或严重的涂抹痕迹。DarkDiff 的创新之处在于它并非简单的“后期修图”,而是让 AI 在图像生成的最初阶段就参与进来。它通过学习海量影像数据,能够“预判”并恢复传感器在暗光下丢失的纹理与色彩。为了防止 AI “凭空捏造”不真实的物体,研究团队还引入了局部斑块注意力机制,确保生成的每一处细节都符合拍摄现场的实际结构。
在实际测试中,研究人员使用索尼 A7SII 模拟极暗环境,在仅有0.033秒的极短曝光下,DarkDiff 还原出的照片质量极高,甚至能与使用三脚架进行300倍时长曝光的参考照片相媲美。
尽管效果惊人,但该技术要真正装进 iPhone 仍面临挑战。由于扩散模型对算力要求极高,运行起来非常耗电,未来可能需要依赖云端处理。此外,该模型目前在识别弱光环境下的非英语文字时仍有局限。虽然苹果尚未透露这项技术何时正式商用,但这无疑展示了未来移动摄影在 AI 加持下的无限潜力。





京公网安备 11011402013531号