你的 iPhone 14 到货了吗?有人已经把 Core ML 的性能测试出来了。
每年苹果发布新版 iPhone 之后,图片编辑软件 PhotoRoom 的公司团队都会测试一下新 iPhone 的 Core ML 性能。现在,前几天发布的 iPhone 14 的基准测试结果出炉了。
PhotoRoom 团队的这项系列测试旨在探究苹果公司最新硬件的计算能力,以及计算能力的提升对设备上的机器学习系统意味着什么。
Core ML 是苹果集成多个 API 构建的机器学习框架,允许 iOS 开发人员发布和执行机器学习模型,以加速在 iPhone、iPad、Apple Watch 上的人工智能任务。
今年,PhotoRoom 分析了多个 iPhone 机型和 iOS 版本上的 Core ML 性能。
作为一款图片编辑软件,图片裁剪和抠图是 PhotoRoom 非常重要的基础功能。
![]()
这项功能依托于 iPhone 上的 Core ML 框架执行,PhotoRoom 团队基于此任务在多个 iPhone 机型和 iOS 版本上进行了基准测试,包括:
-
iPhone 12 Pro A14 Bionic (iOS 15 + iOS 16)
-
iPhone 13 Pro A15 Bionic (iOS 15 + iOS 16)
-
iPhone 14 Pro A16 Bionic (iOS 16)
-
iPad Pro 2021 M1 (iOS 15 + iOS 16)
-
MacBook Pro 2021 M1 Pro (macOS 12)
![]()
对于每个设备,该团队根据不同的 Core ML 计算配置(包括仅在 CPU 上运行、GPU+CPU、ALL、神经网络引擎(ANE)+CPU),统计了模型的平均执行时间(不包括模型加载时间)。其中,每个设备、操作系统版本和计算单元配置都测量了 40 次并取平均值,结果如下:
![]()
-
从 CPU 到 GPU 再到 ANE ,运行速度持续提升;
-
当在 iOS 16 上从 ALL 转到 ANE+CPU 时,推理时间(几乎)持续增加,这表明模型中的一些层无法在 ANE 上运行,而是默认使用 GPU;
-
-
在 A 系列芯片(A14 Bionic - A15 Bionic - A16 Bionic)中,所有配置的性能都有缓慢而稳定的提升。苹果公司也称其新的 A16 Bionic 芯片(17 TFlops)比 A15 Bionic(15.8 TFlops)提高了 7.5%,使得推理时间从 iPhone 13 Pro 的 45ms 缩短到 iPhone 14 Pro 的 41ms;
-
iPad Pro 的 M1 芯片与新的 A16 Bionic 相比,CPU 和 ANE 的性能相当,并其 M1 的 GPU 似乎更强一些。这也许和 M1 芯片比 A16 Bionic 具有更多 GPU 内核有关。
值得注意的是,从这项基准测试看,MacBook Pro 中 M1 Pro 芯片的性能似乎并不比 iPad Pro 中的 M1 芯片好很多,甚至 ANE 的表现要差一些。
对于新发布的产品,iPhone 14 Pro 的推理时间缩短至 41ms,这是一个重要的突破。但这项测试也显示出苹果神经网络引擎还存在一些问题。
原文链接:https://www.photoroom.com/tech/core-ml-performance-2022/
掌握「声纹识别技术」:前20小时交给我,后9980小时……
《声纹识别:从理论到编程实战》中文课上线,由谷歌声纹团队负责人王泉博士主讲。
课程视频内容共 12 小时,着重介绍基于深度学习的声纹识别系统,包括大量学术界与产业界的最新研究成果。
同时课程配有 32 次课后测验、10 次编程练习、10 次大作业,确保课程结束时可以亲自上手从零搭建一个完整的声纹识别系统。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com