9 月 25 日上午消息,今年四款 iPhone 13 都支持“电影效果模式”,让用户可以录制具有浅景深和自动对焦变化的视频,外媒TechCrunch 与苹果公司营销主管 Kaiann Drance 和设计师 Johnnie Manzari 进行了交谈,了解该功能的技术原理和幕后故事。
▲ 电影效果模式可以自动判断对焦点
Drance 表示,对于照片而言,电影模式比人像模式更具挑战性,因为实时渲染自动对焦变化是一项繁重的计算工作。该功能由 A15 仿生芯片和人工智能神经引擎驱动。
“为视频带来高质量的景深将比人像模式更具挑战性。与照片不同,视频(的景深)会随着拍摄者的移动而动态变化。这意味着我们需要更高质量的深度数据,以便电影模式可以跨类别、在人物、宠物和物体等之间都生效,需要连续使用深度数据来跟上每一帧。而实时渲染这些自动对焦变化,背后是繁重的计算。”
但电影模式并非只是技术的进步,还有对真实物理世界的观察。
Manzari 补充说,苹果公司的设计团队花时间研究电影制作和摄影技术的历史,以实现逼真的焦点过渡。
“在设计过过程中,我们首先对目前已有的图像和电影制作怀有深深的敬畏与尊重。我们着迷于诸如哪些图像和电影制作原则是永恒的?什么工艺在文化上经受住了考验,这背后的原因是什么?”
Manzari 表示,苹果公司在片场观察摄影指导、摄影师和其他电影制作专业人士,以了解浅景深在故事中的目的,这让苹果意识到引导观众注意力的重要性。
在评测 iPhone 13 时候,新浪数码也提到了这个功能,它是苹果公司用硬件计算能力做基础,在这之上发挥其计算能力,将人文内容引入的过程。这个效果的背后,是 A15 仿生芯片的强大计算能力作后盾,它强到足以一边拍杜比视界 HDR 视频,一边用 AI 能力去实时理解该对焦给谁,并把焦外做虚化处理。还能把景深信息保留下来进行二次处理。
对一般用户来说“电影效果模式”的意义已经很明显了,无论是 vlog,还是小团队视频制作组,都获得了一种成本更低、更轻便易用的方式,去实现过去只有光学镜头才带来的效果。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“物联之家 - 物联观察新视角,国内领先科技门户”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。
延伸阅读
版权所有:物联之家 - 物联观察新视角,国内领先科技门户