Vérifiez NVLink® sous Windows
Veuillez noter que vous devez Installer les pilotes NVIDIA® sous Windows ou Installer CUDA® toolkit sous Windows avant de vérifier les connexions NVLink®. Aussi, basculez le mode GPU en TCC.
Installer Visual Studio
Assurons-nous que tout fonctionne correctement en exécutant cuda-samples du dépôt officiel. Pour ce faire, nous devons installer séquentiellement Visual Studio 2022 CE (Community Edition) et réinstaller CUDA® Toolkit pour activer les plugins VS. Visitez https://visualstudio.microsoft.com/downloads/ pour télécharger Visual Studio 2022 :

Exécutez l'installateur téléchargé, cochez Développement de bureau avec C++, et cliquez sur le bouton Installer :

Exécuter des tests
Réinstallez CUDA® toolkit en utilisant notre guide étape par étape Installer CUDA® toolkit sous Windows. Redémarrez le serveur et téléchargez l'archive ZIP avec cuda-samples. Décompressez-le et ouvrez le sous-répertoire Samples\1_Utilities\bandwidthTest. Double-cliquez sur bandwidthTest_vs2022 et lancez-le en utilisant le raccourci clavier Ctrl + F5 :
[CUDA Bandwidth Test] - Starting...
Running on...
Device 0: NVIDIA RTX A6000
Quick Mode
Host to Device Bandwidth, 1 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(GB/s)
32000000 6.0
Device to Host Bandwidth, 1 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(GB/s)
32000000 6.6
Device to Device Bandwidth, 1 Device(s)
PINNED Memory Transfers
Transfer Size (Bytes) Bandwidth(GB/s)
32000000 637.2
Result = PASS
NOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.
Vous pouvez exécuter n'importe quel échantillon. Essayez Samples\5_Domain_Specific\p2pBandwidthLatencyTest pour voir votre topologie et votre matrice de connectivité :
[P2P (Peer-to-Peer) GPU Bandwidth Latency Test]
Device: 0, NVIDIA RTX A6000, pciBusID: 3, pciDeviceID: 0, pciDomainID:0
Device: 1, NVIDIA RTX A6000, pciBusID: 4, pciDeviceID: 0, pciDomainID:0
Device=0 CAN Access Peer Device=1
Device=1 CAN Access Peer Device=0
***NOTE: In case a device doesn't have P2P access to other one, it falls back to normal memcopy procedure.
So you can see lesser Bandwidth (GB/s) and unstable Latency (us) in those cases.
P2P Connectivity Matrix
D\D 0 1
0 1 1
1 1 1
Unidirectional P2P=Disabled Bandwidth Matrix (GB/s)
D\D 0 1
0 671.38 6.06
1 6.06 671.47
Unidirectional P2P=Enabled Bandwidth (P2P Writes) Matrix (GB/s)
D\D 0 1
0 631.31 52.73
1 52.83 673.00
Bidirectional P2P=Disabled Bandwidth Matrix (GB/s)
D\D 0 1
0 645.00 8.19
1 8.11 677.87
Bidirectional P2P=Enabled Bandwidth Matrix (GB/s)
D\D 0 1
0 655.96 101.78
1 101.70 677.92
P2P=Disabled Latency Matrix (us)
GPU 0 1
0 2.20 49.07
1 10.33 2.20
CPU 0 1
0 3.55 7.01
1 6.79 3.39
P2P=Enabled Latency (P2P Writes) Matrix (us)
GPU 0 1
0 2.19 1.33
1 1.26 2.22
CPU 0 1
0 6.80 4.86
1 2.09 3.02
NOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.
Voir également:
Mis à jour: 28.03.2025
Publié: 07.05.2024