【干货】深度学习三大硬件+四大学习库基准测试对比,指标全面呈现

2023-06-05 0 370

原副标题:【蔬果】广度自学五大硬体+五大自学库排序方法试验对照,分项全面性呈现出

1 新智元校对1

翻译者:闻菲、胡祥杰

进场】

❶ 业内领导者追述60年AI历史,全球谈话人工智慧未来考验,权威性正式发布2016世界人工智慧全明星及我国人工智慧产业发展发展报告;❷ 国际大咖“音频”远距与会, Bengio 和李Bazelle倾情恭贺我国人工智慧;❸ 揭秘讯飞苍及宏碁方舟生物医学,最强大CTO与六大研究所主任较量;❹ 滴滴CTO与腾讯执行官CTO坐阵智能驾驶高峰论坛,新智元五大Chalancon班底破天荒;❺ 我国“水柏枝”与”X-Dog”震撼人心现身,观音寺电脑僧“贤二”卖萌。

【新智元编者按】广度自学排序该买那款GPU,优先选择别的网络平台?这篇文章为你提供对照手册。

买回用作运转广度自学演算法的硬体时,他们经常找不出任何管用的排序方法,惟一的优先选择是买两个GPU然后用它来试验。现在市售操控性最合适的GPU几乎都源自英伟达,但其中也有很多优先选择:是买两个Chavanges的TITAN X Pascal还是昂贵些的TITAN X Maxwell,又或者GTX 1080?责任编辑中他们对几个最常用的英伟达GPU和最常用的一些广度自学演算法进行了排序方法试验。应用软件方面,他们较为了最近正式发布的五个开放源码广度自学库:Tensorflow v0.10.0、Neon v1.6.0、Caffe rc3和caffe的英伟达版NVcaffe v0.15.10。

GPU排序方法试验:GeForce GTX 1080 vs Titan X(Maxwell) vs Titan X (Pascal)

他们较为了GeForce GTX 1080、Titan X Maxwell和Titan X Pascal三款GPU,使用的广度自学库是Neon、Tensorflow和Caffe,广度自学网络是AlexNet、GoogleNet、OverFeat和VGG-A。

所有排序方法试验都使用64位系统,每个结果是100次迭代排序的平均时间。

基于库的试验结果

训练排序方法试验

使用四种库(Tensorflow,NVcaffe,Caffe,Neon)进行一次前向迭代和反向迭代的总时间[ms](越少越好)。结果如下:

推论排序方法试验

使用四种库(Tensorflow,NVcaffe,Caffe,Neon)进行一次前向迭代的总时间[ms](越少越好)。结果如下:

基于神经网络的试验结果

训练排序方法试验

使用四种神经网络(VGG-A, OverFeat,AlexNet, GoogLeNet)进行一次前向迭代和反向迭代的总时间(越少越好)。结果如下:

推论排序方法试验

使用四种神经网络(VGG-A, OverFeat,AlexNet, GoogLeNet)进行一次前向迭代的总时间(越少越好)。结果如下:

配置

排序方法试验工具

在Neon上进行排序方法试验使用的是neon库中的脚本neon/tests/run_benchmarks.py,在Tensorflow上使用的是convnet-benchmarks和不加修改的脚本convnet-benchmarks/tensorflow/benchmark_alexnet.py, convnet-benchmarks/tensorflow/benchmark_googlnet.py, convnet-benchmarks/tensorflow/benchmark_overfeat.py 和 convnet-benchmarks/tensorflow/benchmark_vgg.py。Caffe使用的也是convnet-benchmarks,但对脚本convnet-benchmarks/caffe/run_imagenet.sh作了修改以指向他们的caffe安装。

广度自学库排序方法试验:Caffe vs Neon vsNVcaffe vs Tensorflow

同样,所有排序方法试验都使用64位系统,每个结果是100次迭代排序的平均时间。

基于GPU的试验结果

训练排序方法试验

使用四种GPU(Titan X Pascal, Titan X Maxwell, GeForce GTX 1080)进行一次前向迭代和反向迭代的总时间(越少越好)。结果如下:

推论排序方法试验

使用四种GPU(Titan X Pascal, Titan X Maxwell, GeForce GTX 1080)进行一次前向迭代的总时间(越少越好)。结果如下:

基于神经网络的试验结果

训练排序方法试验

使用四种神经网络(VGG-A, OverFeat,AlexNet, GoogLeNet)进行一次前向迭代和反向迭代的总时间(越少越好)。结果如下:

推论排序方法测试

使用四种神经网络(VGG-A, OverFeat, AlexNet,GoogLeNet)进行一次前向迭代的总时间(越少越好)。结果如下:

配置

排序方法试验工具

在Neon上进行排序方法试验使用的是neon库中的脚本neon/tests/run_benchmarks.py,在Tensorflow上使用的是convnet-benchmarks和不加修改的脚本convnet-benchmarks/tensorflow/benchmark_alexnet.py, convnet-benchmarks/tensorflow/benchmark_googlnet.py, convnet-benchmarks/tensorflow/benchmark_overfeat.py 和 convnet-benchmarks/tensorflow/benchmark_vgg.py。Caffe使用的也是convnet-benchmarks,但对脚本convnet-benchmarks/caffe/run_imagenet.sh作了修改以指向他们的caffe安装。

豪华嘉宾班底,共飨 AI 盛宴

7 大主任齐聚新智元智库主任Chalancon高峰论坛

2016世界人工智慧大会技术高峰论坛特设“新智元智库主任Chalancon会议”,重量级研究所主任8仙过海,带来最前沿的AI研究动态、剖析技术发展趋势。

八位人工智慧界“高手”现场过招,思想的激烈碰撞会给目前的人工智能发展带来哪些洞见?八位主任对行业的发展会有哪些前瞻揭秘?10月18日下午,2016 世界人工智慧大会技术高峰论坛,答案将逐层揭晓。

新智元智库主任Chalancon汇集了我国人工智慧产学研三界最豪华主任班底:美团技术学院主任刘江担任主持人,微软亚洲工程院主任刘震、IBM我国研究所副主任邵凌、360人工智慧研究所主任颜水成、北京理工大学排序机学院副主任黄华、Intel 我国研究所主任宋继强、新华网融媒体未来研究所主任杨溟倾情出席。

2016世界人工智慧大会技术高峰论坛议程

购票链接:http://www.huodongxing.com/go/aiworld2016

票务联系 132·4023·6748

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务