Interrogez-nous, nous vous répondrons !

Tensorflow Alexnet benchmark

Tensorflow™ Alexnet benchmark

Attention: due to the newly amended License for Customer Use of Nvidia® GeForce® Sofware, the GPUs presented in the benchmark (GTX 1080, GTX 1080 TI) can not be used for training neural networks.(except blockchain processing). 

Les services LeaderGPU® visent à changer les règles du jeu du marché du calcul par le GPU. Les caractéristiques distinctives de LeaderGPU® démontrent la vitesse étonnante des calculs pour le modèle Alexnet - 2,3 fois plus rapide que dans le cloud de Google, et 2,2 fois plus rapide que dans l'AWS (les données sont données pour 8x GTX 1080). Le coût de la location à la minute du GPU dans LeaderGPU® commence à 0,02 euros, soit 4,1 fois moins que dans Google Cloud, et 5,35 fois moins que dans AWS (au 7 juillet 2017).

Tout au long de cet article, nous fournirons des résultats de tests pour le modèle Alexnet dans des services tels que LeaderGPU®, AWS et Google Cloud. Vous comprendrez pourquoi LeaderGPU® est un choix préférable pour tous les besoins de GPU-computing.

Tous les tests considérés ont été effectués en utilisant python 3.5 et Tensorflow-gpu 1.2 sur des machines avec GTX 1080, GTX 1080 TI et Tesla® P 100 avec le système d'exploitation CentOS 7 installé et la bibliothèque CUDA® 8.0.

Les commandes suivantes ont été utilisées pour exécuter le test :

# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Number of cards on the server) --model alexnet --batch_size 32 (64, 128, 256, 512)

GTX 1080 instances

Le premier test du modèle Alexnet sera effectué avec les instances du GTX 1080. Les données de l'environnement de test (avec des lots de 32, 64, 128, 256 et 512) sont fournies ci-dessous :

Environnement de test :

  • Types d'instances : ltbv17, ltbv13, ltbv16
  • GPU : 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • Système d'exploitation : CentOS 7
  • CUDA® / cuDNN : 8.0 / 5.1
  • TensorFlow™ GitHub hash : b1e174e
  • Benchmark GitHub hash : 9165a70
  • Commande : # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model alexnet --batch_size 32 (optional 64, 128,256, 512).
  • Modèle : Alexnet
  • Date des tests : juin 2017

Les résultats des tests sont présentés dans le diagramme ci-dessous :

Alexnet GTX 1080 test results

Instances GTX 1080TI

L'étape suivante consiste à tester le modèle Alexnet avec les instances de la GTX 1080TI. Les données de l'environnement de test (avec les tailles de lot 32, 64, 128, 256 et 512) sont fournies ci-dessous :

  • Types d'instances : ltbv21, ltbv18
  • GPU : 2x GTX 1080TI, 4x GTX 1080TI
  • Système d'exploitation : CentOS 7
  • CUDA® / cuDNN : 8.0 / 5.1
  • TensorFlow™ GitHub hash : b1e174e
  • Benchmark GitHub hash : 9165a70
  • Commande : # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model alexnet --batch_size 32 (optional 64, 128,256, 512).
  • Modèle : Alexnet
  • Date des tests : juin 2017

Les résultats des tests sont présentés dans le diagramme ci-dessous :

Alexnet GTX 1080 TI test results

Instance Tesla® P100

Enfin, il est temps de tester le modèle Alexnet avec les instances Tesla® P100. L'environnement de test (avec des tailles de lots de 32, 64, 128, 256 et 512) ressemblera à ceci :

  • Type d'instance : ltbv20
  • GPU : 2x NVIDIA® Tesla® P100
  • Système d'exploitation : CentOS 7
  • CUDA® / cuDNN : 8.0 / 5.1
  • TensorFlow™ GitHub hash : b1e174e
  • Benchmark GitHub hash : 9165a70
  • Commande : # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model alexnet --batch_size 32 (optionnel 64, 128, 256, 512).
  • Modèle : Alexnet
  • Date des tests : juin 2017

Les résultats des tests sont présentés dans le diagramme ci-dessous :

Alexnet Tesla® P100 test results

Des tests similaires d'Alexnet dans Google cloud et AWS ont montré les résultats suivants :

GPU Nuage Google AWS
1x Tesla® K80 656 684
2x Tesla® K80 1209 1244
4x Tesla® K80 2328 2479
8x Tesla® K80 4640 4853

* Les données fournies proviennent des sources suivantes :

https://www.tensorflow.org/performance/benchmarks#details_for_google_compute_engine_nvidia_tesla_k80 https://www.tensorflow.org/performance/benchmarks#details_for_amazon_ec2_nvidia_tesla_k80

Calculons maintenant le coût et le temps de traitement de 1 000 000 d'images sur chaque machine LeaderGPU®, AWS et Google. Le calcul a été effectué en fonction du résultat le plus élevé de chaque machine.

GPU Nombre d'images Temps de traitement Coût (par minute) Coût total
2x GTX 1080 1000000 5m 0,02 € 0,1 €
4x GTX 1080 1000000 2m 40sec 0,03 € 0,08 €
8x GTX 1080 1000000 1m 46sec 0,09 € 0,16 €
4x GTX 1080TI 1000000 2m 5sec 0,04 € 0,08 €
2х Tesla® P100 1000000 3m 15sec 0,08 € 0,26 €
8x Tesla® K80 Google cloud 1000000 3m 35sec 0,0825 €** 0,29 €
8x Tesla® K80 AWS 1000000 3m 26sec 0,107 € 0,36 €

** Le service Google Cloud ne propose pas de plans de paiement à la minute. Les calculs des coûts à la minute sont basés sur le prix horaire (5,645 $).

Comme le montre le tableau, la vitesse de traitement des images dans le modèle VGG16 est la plus élevée sur 8x GTX 1080 de LeaderGPU®, tandis que la vitesse de traitement des images dans le modèle VGG16 est la plus élevée sur 8x GTX 1080 de LeaderGPU® :

  • Le coût initial de location chez LeaderGPU® commence à partir de 1,92 €, ce qui est environ 2,5 fois inférieur aux instances de 8x Tesla® K80 de Google Cloud, et environ 3,6 fois inférieur aux instances de 8x Tesla® K80 de Google AWS ;
  • le temps de traitement a été de 38 minutes et 53 secondes, soit 1,8 fois plus rapide que dans les instances de 8x Tesla® K80 de Google Cloud, et 1,7 fois plus rapide que dans les instances de 8x Tesla® K80 de Google AWS.

Sur la base de ces faits, on peut conclure que LeaderGPU® est beaucoup plus rentable que ses concurrents. LeaderGPU® permet d'atteindre une vitesse maximale à des prix optimaux. Louez le meilleur GPU avec des tarifs flexibles chez LeaderGPU® dès aujourd'hui !

LEGAL WARNING:

PLEASE READ THE LICENSE FOR CUSTOMER USE OF NVIDIA® GEFORCE® SOFTWARE CAREFULLY BEFORE AGREEING TO IT, AND MAKE SURE YOU USE THE SOFTWARE IN ACCORDANCE WITH THE LICENSE, THE MOST IMPORTANT PROVISION IN THIS RESPECT BEING THE FOLLOWING LIMITATION OF USE OF THE SOFTWARE IN DATACENTERS:

«No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.»

BY AGREEING TO THE LICENSE AND DOWNLOADING THE SOFTWARE YOU GUARANTEE THAT YOU WILL MAKE CORRECT USE OF THE SOFTWARE AND YOU AGREE TO INDEMNIFY AND HOLD US HARMLESS FROM ANY CLAIMS, DAMAGES OR LOSSES RESULTING FROM ANY INCORRECT USE OF THE SOFTWARE BY YOU. 



Mis à jour: 18.03.2025

Publié: 07.12.2017


Des questions ? Écrivez-nous!

By clicking «I Accept» you confirm that you have read and accepted the website Terms and Conditions, Privacy Policy, and Moneyback Policy.