Test comparatif Tensorflow™ Alexnet
Services LeaderGPU® visant à changer les règles du jeu du marché du calcul GPU. Les caractéristiques distinctives de LeaderGPU® démontrent la vitesse étonnante des calculs pour le modèle Alexnet : 2,3 fois plus rapides que sur Google Cloud et 2,2 fois plus rapides que sur AWS (les données sont fournies pour 8x GTX 1080). Le coût de location à la minute du GPU sur LeaderGPU® commence à 0,02 euro, soit 4,1 fois moins que sur Google Cloud et 5,35 fois moins que sur AWS (au 7 juillet 2017).
Tout au long de cet article, nous fournirons des résultats de test pour le modèle Alexnet dans des services tels que LeaderGPU®, AWS et Google Cloud. Vous comprendrez pourquoi LeaderGPU® est un choix préférable pour tous les besoins de calcul GPU.
Tous les tests présentés ont été effectués en utilisant Python 3.5 et Tensorflow-gpu 1.2 sur des machines configurées avec des cartes GTX 1080, GTX 1080 Ti et Tesla® P100, le système d’exploitation CentOS 7 et la bibliothèque CUDA® 8.0.
Les commandes suivantes ont été utilisées pour exécuter les tests :
# git clone https://github.com/tensorflow/benchmarks.git
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=?(Nombre de cartes sur le serveur) --model alexnet --batch_size 32 (64, 128, 256, 512)
Instances GTX 1080
Les premiers tests du modèle Alexnet seront effectués avec les instances du GPU GTX 1080. Les données de l’environnement de test (avec les tailles de lot 32, 64, 128, 256 et 512) sont fournies ci-dessous :
Environnement de test :
- Types d’instance :ltbv17, ltbv13, ltbv16
- GPU: 2x GTX 1080, 4x GTX 1080, 8x GTX 1080
- OS:CentOS 7
- CUDA / cuDNN:8.0 / 5.1
- TensorFlow GitHub hash :b1e174e
- Benchmark GitHub hash :9165a70
- Commande :
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4,8) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
- Modèle :Alexnet
- Date du test :Juin 2017
Les résultats du test sont présentés dans le diagramme ci-dessous :
Instances GTX 1080 Ti
La prochaine étape consiste à tester le modèle Alexnet avec les instances GTX 1080 Ti. Les données de l’environnement de test (avec les tailles de lot 32, 64, 128, 256 et 512) sont fournies ci-dessous :
- Types d’instance :ltbv21, ltbv18
- GPU:2x GTX 1080TI, 4x GTX 1080TI
- OS:CentOS 7
- CUDA / cuDNN:8.0 / 5.1
- TensorFlow GitHub hash :b1e174e
- Benchmark GitHub hash :9165a70
- Commande :
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 (4) --model alexnet --batch_size 32 (optional 64, 128,256, 512)
- Modèle :Alexnet
- Date du test :Juin 2017
Les résultats du test sont présentés dans le diagramme ci-dessous :
Instance Tesla® P100
Enfin, il est temps de tester le modèle Alexnet avec les instances Tesla® P100. L’environnement de test (avec les tailles de lot 32, 64, 128, 256 et 512) ressemblera à ceci :
- Type d’instance :ltbv20
- GPU:2x NVIDIA® Tesla® P100
- OS:CentOS 7
- CUDA / cuDNN:8.0 / 5.1
- TensorFlow GitHub hash :b1e174e
- Benchmark GitHub hash :9165a70
- Commande :
# python3.5 benchmarks/scripts/tf_cnn_benchmarks/tf_cnn_benchmarks.py --num_gpus=2 --model alexnet --batch_size 32 (optional 64, 128, 256, 512)
- Modèle :Alexnet
- Date du test :Juin 2017
Les résultats du test sont présentés dans le diagramme ci-dessous :
Des tests Alexnet similaires sur Google Cloud et AWS ont montré les résultats suivants :
GPU | Google cloud | AWS |
---|---|---|
1x Tesla K80 | 656 | 684 |
2x Tesla K80 | 1209 | 1244 |
4x Tesla K80 | 2328 | 2479 |
8x Tesla K80 | 4640 | 4853 |
* Les données fournies ont été extraites des sources suivantes :
https://www.tensorflow.org/lite/performance/measurement#details_for_google_compute_engine_nvidia_tesla_k80
https://www.tensorflow.org/lite/performance/measurement#details_for_amazon_ec2_nvidia_tesla_k80
Calculons maintenant le coût et le temps de traitement de 1 000 000 d’images sur chaque machine LeaderGPU®, AWS et Google. Le calcul a été effectué en fonction du résultat le plus élevé de chaque machine.
GPU | Nombre d’images | Temps | Coût (par minute) | Coût total |
---|---|---|---|---|
2x GTX 1080 | 1000000 | 5m | €0.03 | €0.15 |
4x GTX 1080 | 1000000 | 2m 40sec | €0.02 | €0.05 |
8x GTX 1080 | 1000000 | 1m 46sec | €0.11 | €0.19 |
4x GTX 1080TI | 1000000 | 2m 5sec | €0.02 | €0.04 |
2х Tesla P100 | 1000000 | 3m 15sec | €0.02 | €0.07 |
8x Tesla K80 Google cloud | 1000000 | 3m 35sec | €0.0825** | €0.29 |
8x Tesla K80 AWS | 1000000 | 3m 26sec | €0.107 | €0.36 |
** Le service Google Cloud n’offre pas de plans de paiement à la minute. Les calculs de coût à la minute sont basés sur le prix horaire (5 645 $).
Comme on peut le conclure à partir du tableau, la vitesse de traitement d’image sur le modèle VGG16 a le résultat le plus élevé sur 8x GTX 1080 de LeaderGPU®, tandis que :
le coût de location initial sur LeaderGPU® commence à 1,92 € seulement, soit environ 2,5 fois moins que sur les instances de 8x Tesla® K80 de Google Cloud, et environ 3,6 fois moins que sur les instances de 8x Tesla® K80 de Google AWS ;
le temps de traitement était de 38 minutes 53 secondes, soit 1,8 fois plus rapide que sur les instances de 8x Tesla® K80 de Google Cloud, et 1,7 fois plus rapide que sur les instances de 8x Tesla® K80 de Google AWS.
Sur la base de ces faits, on peut conclure que LeaderGPU® est bien plus rentable que ses concurrents. LeaderGPU® permet d’atteindre une vitesse maximale à un prix optimal. Louez le meilleur GPU avec des étiquettes de prix flexibles chez LeaderGPU® dès aujourd’hui !