苹果M1「徒有其表」?「地表最强」芯只能剪视频引知乎热议

2021 年 10 月 20 日 新智元



  新智元报道  

来源:网络

编辑:好困 小咸鱼

【新智元导读】5nm工艺,570亿晶体管,70%CPU性能提升,4倍GPU性能提升。号称史上最强芯片的M1 Max,只能「剪剪视频」?


最近,苹果开了一个 芯片 新品发布会。
 
光看参数,M1 Pro和M1 Max两款芯片确实太顶了!
 
M1 Pro,晶体管面积达到245mm²,内置337亿个晶体管,是M1的2倍多。
 
 
而M1 Max更夸张,搭载570亿个晶体管,比Pro还要大70%,芯片面积达到432mm²。
 
 
M1 Pro和M1 Max均采用大小核设计,最多10个核心,包括8个高性能内核和2个高效内核,CPU的性能直接比前代M1芯片提升70%。
 
GPU方面,M1 Pro采用最多16个核心,性能比M1芯片的GPU高出两倍。
 
而M1 Max一举将GPU的核心数量干到32个,算力可以达到恐怖的10.4TFLOPs,比M1的GPU还要再快4倍!
 
 
10TFLOPs,这个数字有点熟悉啊?
 
对GPU性能敏感的朋友可能联想到了,空气显卡公司Nvidia的RTX 2080给出的GPU参考性能也是这个数字。
 

M1

M1 Pro

M1 Pro

M1 Max

M1 Max

GPU核心数

8

14

16

24

32

Teraflops

2.6

4.5

5.2

7.8

10.4

AMD GPU

RX 560 

(2.6TF)

RX 5500M 

(4.6TF)

RX 5500 

(5.2TF)

RX 5700M 

(7.9TF)

RX Vega 56 

(10.5TF)

Nvidia GPU

GTX 1650

(2.9TF)

GTX 1650 Super 

(4.4TF)

RTX3050-75W(4.4TF

GTX 1660 Ti 

(5.4TF)

RTX 2070

(7.4TF)

RTX 2080 

(10TF)

RTX3060-80W(10.94TF)

 
现在深度学习这么火,要不让M1系列的芯片和RTX 2080比试比试?
 

M1 VS 2080Ti


提到深度学习框架无非就是TensorFlow和PyTorch。
 
然而,这俩一直以来都只支持在NVIDIA的GPU上使用CUDA加速。而苹果用户只能在CPU上慢慢跑。
 
不过,苹果在2020年11月推出了采用M1芯片的Mac之后,很快,TensorFlow也出了2.4版本更新,支持在M1的GPU上训练神经网络。
 
https://machinelearning.apple.com/updates/ml-compute-training-on-mac
 
「TensorFlow 2.4的tensorflow_macos利用ML Compute,使机器学习库不仅能充分利用CPU,还能充分利用M1和英特尔驱动的Mac中的GPU,大幅提高训练性能。」
 
 
说得这么nice,到底怎么样,还是要实践才知道。
 
鉴于搭载M1 Pro和M1 Max的最新款Macbook Pro还未开售,就先用他们的小弟M1代替他们出场吧。M1的GPU最高可以跑到2.6TFLOPs,差不多是Nvidia RTX 2080独显的四分之一。
 
先在fashion-MNIST数据集上,训练一个小的三层全连接网络试试。
 
#import librariesimport tensorflow as tfimport time
#download fashion mnist datasetfashion_mnist = tf.keras.datasets.fashion_mnist(train_images, train_labels), (test_images, test_labels) = fashion_mnist.load_data()
train_set_count = len(train_labels)test_set_count = len(test_labels)
#setup start timet0 = time.time()
#normalize imagestrain_images = train_images / 255.0test_images = test_images / 255.0
#create ML modelmodel = tf.keras.Sequential([ tf.keras.layers.Flatten(input_shape=(28, 28)), tf.keras.layers.Dense(128, activation='relu'), tf.keras.layers.Dense(10)])
#compile ML modelmodel.compile(optimizer='adam', loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True), metrics=['accuracy'])
#train ML modelmodel.fit(train_images, train_labels, epochs=10)
#evaluate ML model on test settest_loss, test_acc = model.evaluate(test_images, test_labels, verbose=2)
#setup stop timet1 = time.time()total_time = t1-t0
#print resultsprint('\n')print(f'Training set contained {train_set_count} images')print(f'Testing set contained {test_set_count} images')print(f'Model achieved {test_acc:.2f} testing accuracy')print(f'Training and testing took {total_time:.2f} seconds')
 
测试开始,先在一台搭载Intel i7-9700K,拥有32GB内存,以及一张Nvidia RTX 2080Ti独立显卡的Linux系统电脑上运行上面的代码。
 
 
很快,就得到了结果:训练和测试花了7.78秒。
 
接着,用搭载M1处理器(8个CPU核心,8个GPU核心,16个神经引擎核心)和8GB内存的Mac Mini训练模型。
 
 
结果非常amazing啊!
 
训练和测试仅仅耗时6.70秒,比RTX 2080Ti的GPU还要快14%!这就有点厉害了。
 
但说实话,fashion-MNIST分类这种任务有点过于简单了,如果想在更大的数据集上,训练更强大的模型呢?
 
所以,得给它们来点更难的任务,分别用M1和RTX 2080Ti在Cifar10数据集上训练一个常用的ResNet50分类模型如何?

#import librariesimport tensorflow as tffrom time import perf_counter
#download cifar10 datasetcifar10 = tf.keras.datasets.cifar10(train_images, train_labels), (test_images, test_labels) = cifar10.load_data()
train_set_count = len(train_labels)test_set_count = len(test_labels)
#setup start timet1_start = perf_counter()
#normalize imagestrain_images = train_images / 255.0test_images = test_images / 255.0
#create ML model using tensorflow provided ResNet50 model, note the [32, 32, 3] shape because that's the shape of cifarmodel = tf.keras.applications.ResNet50( include_top=True, weights=None, input_tensor=None, input_shape=(32, 32, 3), pooling=None, classes=10)
# CIFAR 10 labels have one integer for each image (between 0 and 10)# We want to perform a cross entropy which requires a one hot encoded version e.g: [0.0, 0.0, 1.0, 0.0, 0.0...]train_labels = tf.one_hot(train_labels.reshape(-1), depth=10, axis=-1)
# Do the same thing for the test labelstest_labels = tf.one_hot(test_labels.reshape(-1), depth=10, axis=-1)
#compile ML model, use non sparse version here because there is no sparse data.model.compile(optimizer='adam', loss=tf.keras.losses.CategoricalCrossentropy(), metrics=['accuracy'])
#train ML modelmodel.fit(train_images, train_labels, epochs=10)
#evaluate ML model on test settest_loss, test_acc = model.evaluate(test_images, test_labels, verbose=2)
#setup stop timet1_stop = perf_counter()total_time = t1_stop-t1_start
#print resultsprint('\n')print(f'Training set contained {train_set_count} images')print(f'Testing set contained {test_set_count} images')print(f'Model achieved {test_acc:.2f} testing accuracy')print(f'Training and testing took {total_time:.2f} seconds')

测试再次开始,在RTX 2080Ti运行新代码,表现非常不错。
 
 
训练了10个epoch,训练和测试共耗时418.73秒,GPU的利用率在65%和75%之间波动。
 
接下来,在M1 Mac Mini上运行新代码。
 
 
看上去有点拉胯啊,M1 Mac Mini训练和测试总耗时2286.16秒,是RTX 2080Ti GPU耗时的5.46倍。
 
理论上讲,M1的GPU性能是RTX 2080Ti GPU的3.84分之一,这么看,其实际性能还是略有欠缺。
 
 
通过Mac的活动监视器也能看到,CPU的使用率确实较低,GPU几乎没有怎么使用,看来还是Tensorflow对M1硬件资源的调度优化得不够好。
 
不过,最近,Tensorflow放出了对M1 Metal GPU插件支持。
 
https://developer.apple.com/metal/tensorflow-plugin/

还给出了安装指导教程,感兴趣的朋友可以尝尝鲜(需安装TensorFlow v2.5或v2.6)。
 
 
友情提示,先看看TensorFlow_macOS GitHub仓库的issue的数量,劝退不。。。
 
 
这么来看,M1确实可以训练深度学习模型,实际性能也勉强能用。
 
要是换上那个4倍加成的M1 Max没准还真能和RTX 2080Ti GPU碰一碰。
 
但是还是那个问题:能用不代表好用。
 

为啥评测只有「剪视频」


M1一直以来都有一个被诟病的地方:生态不行。
 
推特上有大神留言:「M1确实能用于数据科学,但恐怕你得花一个通宵装配置才能用」。
 
 
其实,不仅仅是机器学习,很多大型游戏和工业软件目前都不兼容苹果的M1系列芯片。
 
在知乎上,就有人提出了质疑:为什么在宣传苹果的M1芯片的性能时,总是以视频剪辑为例呢?
 
 
排第一的回答就说得很有道理:「他们惊叹M1的强大的时候,自然用自己最顺手的方式来说明M1强大。看起来是清一色的用视频来验证M1的强大,其实只是他们的声音大罢了。」
 
而且,看完刚才那段用M1跑机器学习的体验,这个问题其实也就不难回答了。
 
写个文:用不着;
编个程:不会用。
 
当然,也有非专职博主做过Spring性能的测试,在转译模式下跑Java,性能也很不错。特别是对小内存的优化,以及几乎无敌的不发热和没噪声。
 
不过对于这一点,有网友表示:「软件开发在Mac上是劣势,在M1上更是劣势中的劣势。」
 
 
那这么看来,在「生产力」里面,可能也就只有「视频」既能体现出性能强劲,又方便好做了。
 
然而,网友吐槽说:「M1也就用来剪点小片子玩玩还行了」。
 
 
除此以外也一大堆插件只支持Intel,甚至连Mac都没有。
 
游戏呢,一直都不是Mac的重点,这次苹果就更直接了,一句都没提。以前好歹还放一个狂野飙车9呢。
 
既然苹果的态度都这么明显了,何必非要用MAC去自己折磨自己呢。
 
有网友就表示:「既然我有钱16199买mbp,我自然也有windows主机」。
 
 
挖矿这事吧,不提倡,而且就M1的表现来说,非常拉垮。不知道M1 Max能不能一雪前耻。
 
 
话说回来,最常用的生产力难道不是word、ppt、keynote这些么,买一个M1的MacBook,续航长,屏幕好,速度快还便宜,多香。
 
 

参考资料:

文中引用了青空,Hate Letter等人的回答,具体参见:

https://www.zhihu.com/question/460373656

https://www.zhihu.com/question/493188474

https://www.zhihu.com/question/493188575

https://appleinsider.com/articles/21/10/19/m1-pro-and-m1-max-gpu-performance-versus-nvidia-and-amd

https://developer.apple.com/metal/tensorflow-plugin/

https://medium.com/analytics-vidhya/m1-mac-mini-scores-higher-than-my-nvidia-rtx-2080ti-in-tensorflow-speed-test-9f3db2b02d74

https://twitter.com/theshawwn/status/1449930512630525956?s=21




登录查看更多
0

相关内容

最新《知识图谱表示学习补全》综述论文,16页pdf
专知会员服务
65+阅读 · 2020年10月29日
最新《深度学习视频异常检测》2020综述论文,21页pdf
专知会员服务
84+阅读 · 2020年9月30日
【经典书】Python金融大数据分析,566页pdf
专知会员服务
122+阅读 · 2020年8月1日
苹果 Mac mini 要搭载 M2 系列芯片?
ZEALER订阅号
0+阅读 · 2022年3月10日
M1 Max 还不够?苹果最强 Mac 明年见
ZEALER订阅号
0+阅读 · 2021年11月23日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年4月20日
Max-Margin Contrastive Learning
Arxiv
17+阅读 · 2021年12月21日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Arxiv
13+阅读 · 2019年11月14日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员