9 月 15 日消息,今日凌晨,苹果新一代 A15 仿生芯片千呼万唤始出来,采用 5nm 工艺技术,以 150 亿颗晶体管“杀”疯全场,AI 算力高达 15.8TOPS。
为了研发出“宇宙最强芯”,苹果整个团队实属下了不少功夫,直接联动摄像头硬件、软件和操作系统团队,通过优化显示引擎等方式,更大程度地发挥 A15 芯片的性能。
不过,这次库克直接对 A15 芯片“开刀”,分别搭载于 iPhone13 和 iPhone13 Pro 的 A15 芯片也玩起了差异化,后者机型的 A15 芯片比前者多了 1 颗 GPU 核心!
“刀工了得”的苹果直接将 A15 芯片分割成了两个不同版本。
整体来看,A15 芯片在 CPU 方面搭载了全新 6 核 CPU,包括 2 颗性能核心和 4 颗能效核心,CPU 性能提升 50%。
苹果还提升了 CPU 中机器学习加速器的性能,Siri 语音合成技术、地图 App 的导航处理等任务得到了进一步优化。
GPU 方面是 A15 芯片性能的“分水岭”。
其中 iPhone13 机型的 A15 芯片搭载了 4 核 GPU,性能提升 30%,能更好地处理高级游戏运行等图形密集任务,大大提升游戏中的视觉及光影效果,以及更好的摄像系统体验,尤其是电影拍摄模式。
而在 iPhone13 Pro 以及 iPhone13 Pro Max 上,A15 芯片多出了一颗 GPU 核心,5 核 GPU 使得手机的图像处理性能最高提升 50%。
加之苹果定制的显示引擎,iPhone13 Pro 能够驱动更高性能游戏,以及各类强大的拍摄功能,支持 Apple ProRaw 和 4K 杜比视界视频。
除此之外,A15 芯片性能的提升还大大优化了能耗效果,手机续航大幅提升 2.5 小时。
除了 CPU 和 GPU 性能增强之外,A15 芯片还搭载了更快的神经网络引擎和新一代图像信号处理器。
在机器学习性能方面,A15 搭载了 16 核神经网络引擎,AI 算力高达 15.8TOPS,适用各类机器学习任务。
值得一提的是,为了进一步提升 iPhone13 系列的视频和图像处理能力,苹果在设计神经网络引擎过程中还与摄像头硬件及软件团队合作,大大增强了芯片的机器学习运算能力,从而实现 iOS 15 的实况文本、优化地图导航等功能体验。
对于开发者来说,他们能够借助 A15 芯片的机器学习性能,提升更多开发应用功能。例如在 SwingVision 中,开发者能够流畅地运行 CoreML 和 AR 模型,对网球的运动路径进行实时追踪、视频分析和远程指导。
整体来看,除了核心性能的提高外,A15 芯片在新的显示引擎、新视频编码器和解码器,以及 2 倍系统缓存等方面也有着大幅度提升。
回看整场槽点满满的苹果秋季发布会,A15 芯片的亮相确实为苹果挽回了不少“颜面”,不管是图像拍摄及游戏运行体验,还是 AI 性能都有了大幅度提升。尽管这次苹果将 A15 芯片分为了两个档次,但不可否认,苹果芯片依然能给我们带来意料之外的惊喜。
不过,在 A15 芯片对比中,苹果并没有明确给出对标的芯片,只在 PPT 中用一小行字标注上了“competition”,性能实际提升情况究竟如何,还是给大家留下了不少悬念。希望在接下来的时间中,苹果能为我们一一揭晓。
版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“物联之家 - 物联观察新视角,国内领先科技门户”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场。
延伸阅读
版权所有:物联之家 - 物联观察新视角,国内领先科技门户