三款新的iPhone 手机于上周发布了,iPhone 11 Pro 和 iPhone 11 Pro Max 的拍照能力可以说提高了很多。 除了让人很惊喜的夜间模式和改进的肖像模式外,还有一项新功能——Deep Fusion,利用了 Apple 在机器学习方面的成果,让用户可以拍出更好的照片。
我们不免想到谷歌 Pixel 系列的相机,使用机器学习来更好地分析图像并产生更好看的画面。
据了解,Deep Fusion(深度融合)的工作原理是 在按下 iPhone 快门按钮之前,系统就开始拍摄四张长曝光和短曝光照片,然后在按下按钮后拍摄更长时间的曝光照片。最后,iPhone 将所有九个图像组合在一起以产生具有最少噪点和最清晰细节的最佳图像。
从硬件方面来说,Deep Fusion 不仅仅得益于 iPhone 镜头的升级,主要还是依靠了 A13 仿生的神经网络引擎支持。