“全球人工智能”拥有十多万AI产业用户,10000多名AI技术专家。主要来自:北大,清华,中科院,麻省理工,卡内基梅隆,斯坦福,哈佛,牛津,剑桥...以及谷歌,腾讯,百度,脸谱,微软,阿里,海康威视,英伟达......等全球名校和名企。
今天,百度在GitHub上公开了一个移动端深度学习框架mobile-deep-learning(MDL),致力于让卷积神经网络极度简单的部署在手机端。目前正在手机百度内运行。支持iOS gpu计算。体积小,速度快。
体积 armv7 340k+
速度 iOS GPU mobilenet 可以达到 40ms、squeezenet 可以达到 30ms
一、演示效果:以图搜图
如果你想先运行demo试试效果。或者你仅仅是想快速用起来,而不关心CNN细节实现。我们已经为您编译好了安装文件, 直接扫码安装即可。
iOS-MobileNet Android-Googlenet
一键部署,脚本参数就可以切换ios或者android
支持iOS gpu运行MobileNet、squeezenet模型
已经测试过可以稳定运行MobileNet、GoogLeNet v1、squeezenet模型
体积极小,无任何第三方依赖。纯手工打造。
提供量化脚本,对32位float转8位uint直接支持,模型体积量化后4M上下
与ARM相关算法团队线上线下多次沟通,针对ARM平台会持续优化
NEON使用涵盖了卷积、归一化、池化所有方面的操作
汇编优化,针对寄存器汇编操作具体优化
loop unrolling 循环展开,为提升性能减少不必要的CPU消耗,全部展开判断操作
将大量繁重的计算任务前置到overhead过程
github:https://github.com/baidu/mobile-deep-learning
AI专家问答平台