Interrogez-nous, nous vous répondrons !

Tensorflow ResNet-50 benchmark

Tensorflow™ ResNet-50 benchmark

LeaderGPU® est un service qui est entré sur le marché du calcul par le GPU avec une intention sérieuse depuis un bon moment. La vitesse des calculs pour le modèle ResNet-50 dans LeaderGPU® est 2,5 fois plus rapide par rapport à Google Cloud, et 2,9 fois plus rapide par rapport à AWS (les données sont fournies pour un exemple avec 8x GTX 1080 par rapport à 8x Tesla® K80). Le coût de la location à la minute du GPU dans LeaderGPU® commence à partir de 0,02 euros, ce qui est plus de 4 fois inférieur au coût de location dans Google Cloud et plus de 5 fois inférieur au coût dans AWS (au 7 juillet 207).

Tout au long de cet article, nous allons tester le modèle ResNet-50 dans des services aussi populaires que LeaderGPU®, AWS et Google Cloud. Vous pourrez voir en pratique pourquoi LeaderGPU® surpasse de manière significative les concurrents représentés.

Tous les tests ont été réalisés en utilisant python 3.5 et Tensorflow-gpu 1.2 sur des machines équipées de GTX 1080, GTX 1080 TI et Tesla® P 100 avec le système d'exploitation CentOS 7 installé et la bibliothèque CUDA® 8.0.

Les commandes suivantes ont été utilisées pour exécuter le test :

git clone https://github.com/tensorflow/benchmarks.git
python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Number of cards on the server) --model resnet50 --batch_size 32 (64, 128, 256, 512)

GTX 1080 instances

Pour le premier test, nous utilisons des instances avec la GTX 1080. Les données de l'environnement de test (avec des lots de 32 et 64) sont fournies ci-dessous :

  • Types d'instances : 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
  • Système d'exploitation : CentOS 7
  • CUDA® / cuDNN : 8.0 / 5.1
  • TensorFlow™ GitHub hash : b1e174e
  • Benchmark GitHub hash : 9165a70
  • Commande : # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model resnet50 --batch_size 32 (optional 64, 128,256, 512).
  • Modèle : ResNet50
  • Date des tests : juin 2017

Les résultats du test sont présentés dans le diagramme suivant :

ResNet-50 GTX 1080 test results

Instances GTX 1080TI

L'étape suivante consiste à tester les instances avec la GTX 1080 Ti. Les données de l'environnement de test (avec des lots de 32, 64 et 128) sont fournies ci-dessous :

  • Types d'instances : ltbv21, ltbv18
  • GPU : 2x GTX 1080TI, 4x GTX 1080TI
  • Système d'exploitation : CentOS 7
  • CUDA® / cuDNN : 8.0 / 5.1
  • TensorFlow™ GitHub hash : b1e174e
  • Benchmark GitHub hash : 9165a70
  • Commande : # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model resnet50 --batch_size 32 (optionnel 64, 128,256, 512).
  • Modèle : ResNet50
  • Date des tests : juin 2017

Les résultats des tests sont présentés dans le diagramme suivant :

ResNet-50 GTX 1080 TI test results

Instance Tesla® P100

La dernière étape consiste à tester les instances avec Tesla® P100. Les données de l'environnement de test sont fournies ci-dessous (avec des lots de 32, 64 et 128) :

  • Type d'instance : 2x NVIDIA® Tesla® P100
  • Système d'exploitation : CentOS 7
  • CUDA® / cuDNN : 8.0 / 5.1
  • TensorFlow™ GitHub hash : b1e174e
  • Benchmark GitHub hash : 9165a70
  • Commande : # python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model resnet50 --batch_size 32 (optionnel 64, 128, 256, 512).
  • Modèle : ResNet50
  • Date des tests : juin 2017

Les résultats des tests sont présentés dans le diagramme suivant :

ResNet-50 Tesla® P100 test results

Le tableau suivant représente les résultats du test Resnet50 pour Google cloud et AWS (taille de lot 64) :

GPU Nuage Google AWS
1x Tesla® K80 51.9 51.5
2x Tesla® K80 99 98
4x Tesla® K80 195 195
8x Tesla® K80 387 384

* Les données fournies proviennent des sources suivantes :

https://www.tensorflow.org/performance/benchmarks#details_for_google_compute_engine_nvidia_tesla_k80 https://www.tensorflow.org/performance/benchmarks#details_for_amazon_ec2_nvidia_tesla_k80

Calculons le coût et le temps de traitement de 1 000 000 d'images sur chaque machine LeaderGPU®, AWS et Google. Le comptage est disponible avec une taille de lot de 64 pour toutes les machines.

GPU Nombre d'images Temps de traitement Prix (par minute) Coût total
2x GTX 1080 1000000 64m 15sec 0,02 € 1,29 €
4x GTX 1080 1000000 34m 17sec 0,03 € 1,03 €
8x GTX 1080 1000000 17m 32sec 0,09 € 1,58 €
4x GTX 1080TI 1000000 23m 34sec 0,04 € 0,94 €
2х Tesla® P100 1000000 40m 33sec 0,08 € 3,24 €
8x Tesla® K80 Google cloud 1000000 43m 3sec 0,0825 €** 3,55 €
8x Tesla® K80 AWS 1000000 43m 24sec 0,107 € 4,64 €

** Le service Google Cloud ne propose pas de plans de paiement à la minute. Les calculs des coûts à la minute sont basés sur le prix horaire (5,645 $).

Comme le montre le tableau, la vitesse de traitement des images dans le modèle ResNet-50 est maximale avec 8x GTX 1080 de LeaderGPU®, alors qu'avec 8x GTX 1080 de LeaderGPU®, la vitesse de traitement des images est maximale avec 8x GTX 1080 de LeaderGPU® :

  • Le coût initial de location chez LeaderGPU® commence à partir de 1,28 €, soit environ 2,77 fois moins que pour les instances de 8x Tesla® K80 de Google Cloud, et environ 4,38 fois moins que pour les instances de 8x Tesla® K80 de Google AWS ;
  • le temps de traitement était de 17 minutes 32 secondes, soit 2,5 fois plus rapide que dans les instances de 8x Tesla® K80 de Google Cloud, et 2,49 fois plus rapide que dans les instances de 8x Tesla® K80 de Google AWS.

LeaderGPU® est nettement plus performant que ses concurrents en termes de disponibilité du service et de vitesse de traitement des images. Louez un GPU avec un paiement à la minute dans LeaderGPU® pour résoudre diverses tâches dans les plus brefs délais !

LEGAL WARNING:

PLEASE READ THE LICENSE FOR CUSTOMER USE OF NVIDIA® GEFORCE® SOFTWARE CAREFULLY BEFORE AGREEING TO IT, AND MAKE SURE YOU USE THE SOFTWARE IN ACCORDANCE WITH THE LICENSE, THE MOST IMPORTANT PROVISION IN THIS RESPECT BEING THE FOLLOWING LIMITATION OF USE OF THE SOFTWARE IN DATACENTERS:

«No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.»

Customer may use the LeaderGPU® Services for blockchain processing.

BY AGREEING TO THE LICENSE AND DOWNLOADING THE SOFTWARE YOU GUARANTEE THAT YOU WILL MAKE CORRECT USE OF THE SOFTWARE AND YOU AGREE TO INDEMNIFY AND HOLD US HARMLESS FROM ANY CLAIMS, DAMAGES OR LOSSES RESULTING FROM ANY INCORRECT USE OF THE SOFTWARE BY YOU.



Mis à jour: 18.03.2025

Publié: 07.12.2017


Des questions ? Écrivez-nous!

By clicking «I Accept» you confirm that you have read and accepted the website Terms and Conditions, Privacy Policy, and Moneyback Policy.