paint-brush
Le Nvidia RTX A4000 ADA peut-il gérer les tâches d'apprentissage automatique ? par@hostkey
3,026 lectures
3,026 lectures

Le Nvidia RTX A4000 ADA peut-il gérer les tâches d'apprentissage automatique ?

par Hostkey.com15m2023/06/29
Read on Terminal Reader

Trop long; Pour lire

En avril, Nvidia a lancé un nouveau produit, le RTX A4000 ADA, un GPU à petit facteur de forme conçu pour les applications de station de travail. Ce processeur remplace l'A2000 et peut être utilisé pour des tâches complexes, notamment la recherche scientifique, les calculs d'ingénierie et la visualisation de données. La capacité de mémoire de 20 Go du nouveau GPU lui permet de gérer de grands environnements.
featured image - Le Nvidia RTX A4000 ADA peut-il gérer les tâches d'apprentissage automatique ?
Hostkey.com HackerNoon profile picture
0-item

En avril, Nvidia a lancé un nouveau produit, le RTX A4000 ADA, un GPU à petit facteur de forme conçu pour les applications de station de travail. Ce processeur remplace l'A2000 et peut être utilisé pour des tâches complexes, notamment la recherche scientifique, les calculs d'ingénierie et la visualisation de données.


Le RTX A4000 ADA comprend 6 144 cœurs CUDA, 192 cœurs Tensor et 48 cœurs RT, et 20 Go de VRAM GDDR6 ECC. L'un des principaux avantages du nouveau GPU est son efficacité énergétique : le RTX A4000 ADA ne consomme que 70 W, ce qui réduit à la fois les coûts d'alimentation et la chaleur du système. Le GPU vous permet également de piloter plusieurs écrans grâce à sa connectivité 4x Mini-DisplayPort 1.4a.





Lorsque l'on compare les GPU RTX 4000 SFF ADA à d'autres appareils de la même classe, il convient de noter que lorsqu'ils fonctionnent en mode simple précision, ils affichent des performances similaires à celles de la dernière génération de GPU RTX A4000, qui consomme deux fois plus d'énergie (140 W vs. 70W).





L'ADA RTX 4000 SFF est construit sur l'architecture ADA Lovelace et la technologie de processus 5 nm. Cela permet d'activer les cœurs Tensor Core et de traçage de rayons de nouvelle génération, qui améliorent considérablement les performances en fournissant un traçage de rayons et des cœurs Tensor plus rapides et plus efficaces que le RTX A4000. De plus, le RTX 4000 SFF d'ADA est livré dans un petit boîtier - la carte mesure 168 mm de long et aussi épaisse que deux connecteurs d'extension.





Les noyaux de lancer de rayons améliorés permettent des performances efficaces dans les environnements où la technologie est utilisée, comme dans la conception et le rendu 3D. De plus, la capacité de mémoire de 20 Go du nouveau GPU lui permet de gérer de grands environnements.





Selon le fabricant, les cœurs Tensor de quatrième génération offrent des performances de calcul d'IA élevées - une augmentation des performances deux fois supérieure à celle de la génération précédente. Les nouveaux cœurs Tensor prennent en charge l'accélération FP8. Cette fonctionnalité innovante peut bien fonctionner pour ceux qui développent et déploient des modèles d'IA dans des environnements tels que la génomique et la vision par ordinateur .


Il convient également de noter que l'augmentation des mécanismes d'encodage et de décodage fait du RTX 4000 SFF ADA une bonne solution pour les charges de travail multimédia telles que la vidéo, entre autres.



Spécifications techniques des cartes graphiques NVIDIA RTX A4000 et RTX A5000, RTX 3090


RTX A4000ADA

NVIDIA RTX A4000

NVIDIA RTX A5000

RTX 3090

Architecture

Ada Lovelace Ampère Ampère Ampère

Processus technique

5 nm 8 nm 8 nm 8 nm

GPU

AD104 GA102 GA104 GA102

Nombre de transistors (millions)

35 800 17 400 28 300 28 300

Bande passante mémoire (Gb/s)

280,0 448 768 936.2

Capacité de la mémoire vidéo (bits)

160 256 384 384

Mémoire GPU (Go)

20 16 24 24

Type de mémoire

GDDR6 GDDR6 GDDR6 GDDR6X

Cœurs CUDA

6 144 6 144 8192 10496

Noyaux tenseurs

192 192 256 328

Cœurs RT

48 48 64 82

Perf SP (téraflops)

19.2 19,2 27,8 35,6

Performances du cœur RT (téraflops)

44.3 37,4 54,2 69,5

Performances du tenseur (téraflops)

306.8 153,4 222,2 285

Puissance maximale (Watts)

70 140 230 350

Interface

PCIe 4.0x16 PCI-E 4.0 x16 PCI-E 4.0 x16 PCIe 4.0 x16

Connecteurs

4x Mini DisplayPort 1.4a DP 1.4 (4) DP 1.4 (4) DP 1.4 (4)

Facteur de forme

2 emplacements 1 emplacement 2 emplacements 2-3 emplacements

Le logiciel vGPU

Non Non Oui, illimité Oui. avec des restrictions

Nvlink

Non Non 2x RTX A5000 Oui

Prise en charge de CUDA

11.6 8.6 8.6 8.6

Prise en charge VULKAN

1.3 Oui Oui oui, 1.2

Prix (USD)

1 250 1000 2500 1400



Description de l'environnement de test


RTX A4000ADA RTX A4000
CPU AMD Ryzen 9 5950X 3,4 GHz (16 cœurs) OctaCore Intel Xeon E-2288G, 3,5 GHz
RAM 4x 32 Go DDR4 ECC SO-DIMM 2x 32 Go DDR4-3200 ECC DDR4 SDRAM 1600 MHz
Conduire SSD NVMe 1 To Samsung SSD 980 PRO 1 To
Carte mère ASRock X570D4I-2T Série Asus P11C-I
Système opérateur Microsoft Windows 10 Microsoft Windows 10



Résultats de test


Référence V-Ray 5

Points marqués


Points marqués


Les tests V-Ray GPU CUDA et RTX mesurent les performances de rendu GPU relatives. Le GPU RTX A4000 est légèrement derrière le RTX A4000 ADA (4% et 11%, respectivement).


Apprentissage automatique


"Chiens contre chats"

Pour comparer les performances des GPU pour les réseaux de neurones, nous avons utilisé l'ensemble de données "Dogs vs. Cats" - le test analyse le contenu d'une photo et distingue si la photo montre un chat ou un chien. Toutes les données brutes nécessaires peuvent être trouvées . Nous avons effectué ce test sur différents GPU et services cloud et avons obtenu les résultats suivants :


Dans ce test, le RTX A4000 ADA a légèrement surpassé le RTX A4000 de 9 %, mais gardez à l'esprit la petite taille et la faible consommation d'énergie du nouveau GPU.




AI-Benchmark vous permet de mesurer les performances de l'appareil lors d'une tâche de sortie de modèle AI. L'unité de mesure peut varier selon le test, mais il s'agit généralement du nombre d'opérations par seconde (OPS) ou du nombre d'images par seconde (FPS).


Points marqués




RTX A4000

RTX A4000ADA

1/19. MobileNet-V2

1.1 — inférence | lot=50, taille=224x224 : 38,5 ± 2,4 ms1.2 — formation | lot=50, taille=224x224 : 109 ± 4 ms 1.1 — inférence | lot=50, taille=224x224 : 53,5 ± 0,7 ms1.2 — formation | lot=50, taille=224x224 : 130,1 ± 0,6 ms

2/19. Création-V3

2.1 — inférence | lot=20, taille=346x346 : 36,1 ± 1,8 ms2.2 — formation | lot=20, taille=346x346 : 137,4 ± 0,6 ms 2.1 — inférence | lot=20, taille=346x346 : 36,8 ± 1,1 ms2.2 — formation | lot=20, taille=346x346 : 147,5 ± 0,8 ms

3/19. Création-V4

3.1 — inférence | lot=10, taille=346x346 : 34,0 ± 0,9 ms3.2 — formation | lot=10, taille=346x346 : 139,4 ± 1,0 ms 3.1 — inférence | lot=10, taille=346x346 : 33,0 ± 0,8 ms3.2 — formation | lot=10, taille=346x346 : 135,7 ± 0,9 ms

4/19. Inception-ResNet-V2

4.1 — inférence | lot=10, taille=346x346 : 45,7 ± 0,6 ms4.2 — formation | lot=8, taille=346x346 : 153,4 ± 0,8 ms 4.1 — lot d'inférence=10, taille=346x346 : 33,6 ± 0,7 ms4.2 — lot d'entraînement=8, taille=346x346 : 132 ± 1 ms

5/19. ResNet-V2-50

5.1 — inférence | lot=10, taille=346x346 : 25,3 ± 0,5 ms5.2 — formation | lot=10, taille=346x346 : 91,1 ± 0,8 ms 5.1 — inférence | lot=10, taille=346x346 : 26,1 ± 0,5 ms5.2 — formation | lot=10, taille=346x346 : 92,3 ± 0,6 ms

19/06. ResNet-V2-152

6.1 — inférence | lot=10, taille=256x256 : 32,4 ± 0,5 ms6.2 — formation | lot=10, taille=256x256 : 131,4 ± 0,7 ms 6.1 — inférence | lot=10, taille=256x256 : 23,7 ± 0,6 ms6.2 — formation | lot=10, taille=256x256 : 107,1 ± 0,9 ms

7/19. VGG-16

7.1 — inférence | lot=20, taille=224x224 : 54,9 ± 0,9 ms7.2 — formation | lot=2, taille=224x224 : 83,6 ± 0,7 ms 7.1 — inférence | lot=20, taille=224x224 : 66,3 ± 0,9 ms7.2 — formation | lot=2, taille=224x224 : 109,3 ± 0,8 ms

8/19. SRCNN 9-5-5

8.1 — inférence | lot=10, taille=512x512 : 51,5 ± 0,9 ms8.2 — inférence | lot=1, taille=1536x1536 : 45,7 ± 0,9 ms8.3 — formation | lot=10, taille=512x512 : 183 ± 1 ms 8.1 — inférence | lot=10, taille=512x512 : 59,9 ± 1,6 ms8.2 — inférence | lot=1, taille=1536x1536 : 53,1 ± 0,7 ms8.3 — formation | lot=10, taille=512x512 : 176 ± 2 ms

9/19. VGG-19 Super-Res

9.1 — inférence | lot=10, taille=256x256 : 99,5 ± 0,8 ms9.2 — inférence | lot=1, taille=1024x1024 : 162 ± 1 ms9.3 — formation | lot=10, taille=224x224 : 204 ± 2 ms


10/19. ResNet-SRGAN

10.1 — inférence | lot=10, taille=512x512 : 85,8 ± 0,6 ms10.2 — inférence | lot=1, taille=1536x1536 : 82,4 ± 1,9 ms10.3 — formation | lot=5, taille=512x512 : 133 ± 1 ms 10.1 — inférence | lot=10, taille=512x512 : 98,9 ± 0,8 ms10.2 — inférence | lot=1, taille=1536x1536 : 86,1 ± 0,6 ms10.3 — formation | lot=5, taille=512x512 : 130,9 ± 0,6 ms

11/19. ResNet-DPED

11.1 — inférence | lot=10, taille=256x256 : 114,9 ± 0,6 ms11.2 — inférence | lot=1, taille=1024x1024 : 182 ± 2 ms11.3 — formation | lot=15, taille=128x128 : 178,1 ± 0,8 ms 11.1 — inférence | lot=10, taille=256x256 : 146,4 ± 0,5 ms11.2 — inférence | lot=1, taille=1024x1024 : 234,3 ± 0,5 ms11.3 — formation | lot=15, taille=128x128 : 234,7 ± 0,6 ms

12/19. U-Net

12.1 — inférence | lot=4, taille=512x512 : 180,8 ± 0,7 ms12.2 — inférence | lot=1, taille=1024x1024 : 177,0 ± 0,4 ms12.3 — formation | lot=4, taille=256x256 : 198,6 ± 0,5 ms 12.1 — inférence | lot=4, taille=512x512 : 222,9 ± 0,5 ms12.2 — inférence | lot=1, taille=1024x1024 : 220,4 ± 0,6 ms12.3 — formation | lot=4, taille=256x256 : 229,1 ± 0,7 ms

13/19. Nvidia-SPADE

13.1 — inférence | lot=5, taille=128x128 : 54,5 ± 0,5 ms13.2 — formation | lot=1, taille=128x128 : 103,6 ± 0,6 ms 13.1 — inférence | lot=5, taille=128x128 : 59,6 ± 0,6 ms13.2 — formation | lot=1, taille=128x128 : 94,6 ± 0,6 ms

14/19. ICNet

14.1 — inférence | lot=5, taille=1024x1536 : 126,3 ± 0,8 ms14.2 — formation | lot=10, taille=1024x1536 : 426 ± 9 ms 14.1 — inférence | lot=5, taille=1024x1536 : 144 ± 4 ms14.2 — formation | lot=10, taille=1024x1536 : 475 ± 17 ms

15/19. PSPNet

15.1 — inférence | lot=5, taille=720x720 : 249 ± 12 ms15.2 — formation | lot=1, taille=512x512 : 104,6 ± 0,6 ms 15.1 — inférence | lot=5, taille=720x720 : 291,4 ± 0,5 ms15.2 — formation | lot=1, taille=512x512 : 99,8 ± 0,9 ms

16/19. DeepLab

16.1 — inférence | lot=2, taille=512x512 : 71,7 ± 0,6 ms16.2 — formation | lot=1, taille=384x384 : 84,9 ± 0,5 ms 16.1 — inférence | lot=2, taille=512x512 : 71,5 ± 0,7 ms16.2 — formation | lot=1, taille=384x384 : 69,4 ± 0,6 ms

17/19. Pixel-RNN

17.1 — inférence | lot=50, taille=64x64 : 299 ± 14 ms17.2 — formation | lot=10, taille=64x64 : 1258 ± 64 ms 17.1 — inférence | lot=50, taille=64x64 : 321 ± 30 ms17.2 — formation | lot=10, taille=64x64 : 1278 ± 74 ms

18/19. Sentiment LSTM

18.1 — inférence | lot=100, taille=1024x300 : 395 ± 11 ms18.2 — formation | lot=10, taille=1024x300 : 676 ± 15 ms 18.1 — inférence | lot=100, taille=1024x300 : 345 ± 10 ms18.2 — formation | lot=10, taille=1024x300 : 774 ± 17 ms

19/19. GNMT-Traduction

19.1 — inférence | lot=1, taille=1x20 : 119 ± 2 ms 19.1 — inférence | lot=1, taille=1x20 : 156 ± 1 ms


Les résultats de ce test montrent que les performances du RTX A4000 sont 6% supérieures à celles du RTX A4000 ADA, avec toutefois la mise en garde que les résultats du test peuvent varier en fonction de la tâche spécifique et des conditions de fonctionnement utilisées.



RTX A 4000

Analyse comparative

Temps de train moyen du modèle (ms)

Formation double précision type mnasnet0_5 62.995805740356445
Formation double précision type mnasnet0_75 98.39066505432129
Formation double précision type mnasnet1_0 126.60405158996582
Formation double précision type mnasnet1_3 186.89460277557373
Formation double précision type resnet18 428.08079719543457
Formation double précision type resnet34 883.5790348052979
Formation double précision type resnet50 1016.3950300216675
Formation double précision type resnet101 1927.2308254241943
Formation double précision type resnet152 2815.663013458252
Formation double précision type resnext50_32x4d 1075.4373741149902
Formation double précision type resnext101_32x8d 4050.0641918182373
Formation double précision type wide_resnet50_2 2615.9953451156616
Formation double précision type wide_resnet101_2 5218.524832725525
Formation double précision type densenet121 751.9759511947632
Formation double précision type densenet169 910.3225564956665
Formation double précision type densenet201 1163.036551475525
Formation double précision type densenet161 2141.505298614502
Formation double précision type squeezenet1_0 203.988
Entraînement double précision type squeezenet1_1 98.04857730865479
Formation double précision type vgg11 1697.7
Formation double précision type vgg11_bn 1729.2972660064697
Formation double précision type vgg13 2491.6
Formation double précision type vgg13_bn 2545.34
Formation double précision type vgg16 3371.68
Formation double précision type vgg16_bn 3423.8639068603516
Formation double précision type vgg19_bn 4314.55
Formation double précision type vgg19 4249.422650337219
Formation double précision type mobilenet_v3_large 105.546
Formation double précision type mobilenet_v3_small 37.6680850982666
Formation double précision type shufflenet_v2_x0_5 26.51611328125
Formation double précision type shufflenet_v2_x1_0 61.260504722595215
Formation double précision type shufflenet_v2_x1_5 105.30067920684814
Formation double précision type shufflenet_v2_x2_0 181.03694438934326
Type d'inférence double précision mnasnet0_5 17.397074699401855
Type d'inférence double précision mnasnet0_75 28.902697563171387
Type d'inférence double précision mnasnet1_0 38.3877
Inférence double précision type mnasnet1_3 58.228821754455566
Inférence double précision type resnet18 147.95727252960205
Inférence double précision type resnet34 293.5
Inférence double précision type resnet50 336.44991874694824
Inférence double précision type resnet101 637.9982376098633
Inférence double précision type resnet152 948.9351654052734
Inférence double précision type resnext50_32x4d 372.80876636505127
Inférence double précision type resnext101_32x8d 1385.09
Type d'inférence double précision wide_resnet50_2 873.048791885376
Type d'inférence double précision wide_resnet101_2 1729.2765426635742
Inférence double précision type densenet121 270.354
Inférence double précision type densenet169 327.06
Inférence double précision type densenet201 414.733362197876
Inférence double précision type densenet161 766.3542318344116
Inférence double précision type squeezenet1_0 74.86292839050293
Inférence double précision type squeezenet1_1 34.04905319213867
Inférence double précision type vgg11 576.3767147064209
Inférence double précision type vgg11_bn 580.5839586257935
Inférence double précision type vgg13 853.4365510940552
Inférence double précision type vgg13_bn 860.39
Inférence double précision type vgg16 1145.091052055359
Inférence double précision type vgg16_bn 1152.8028392791748
Inférence double précision type vgg19_bn 1444.9562692642212
Inférence double précision type vgg19 1437.0987701416016
Type d'inférence double précision mobilenet_v3_large 30.8763
Type d'inférence double précision mobilenet_v3_small 11.234536170959473
Type d'inférence double précision shufflenet_v2_x0_5 7.425284385681152
Type d'inférence double précision shufflenet_v2_x1_0 18.25782299041748
Type d'inférence double précision shufflenet_v2_x1_5 33.34946632385254
Type d'inférence double précision shufflenet_v2_x2_0 57.84676551818848


RTX A4000ADA


Analyse comparative

Modèle de temps de train moyen

Formation de type demi-précision mnasnet0_5 20.2666
Formation demi-précision type mnasnet0_75 21.445374488830566
Formation de type demi-précision mnasnet1_0 26.7625
Formation demi-précision type mnasnet1_3 26.57
Formation demi-précision type resnet18 19.624991416931152
Formation demi-précision type resnet34 32.46446132659912
Formation demi-précision type resnet50 57.332
Formation demi-précision type resnet101 98.209
Formation demi-précision type resnet152 138.967
Formation demi-précision type resnext50_32x4d 75.56005001068115
Formation demi-précision type resnext101_32x8d 228.8706636428833
Formation demi-précision type wide_resnet50_2 113.76442432403564
Formation demi-précision type wide_resnet101_2 204.838
Formation demi-précision type densenet121 68.97401332855225
Formation demi-précision type densenet169 85.957
Formation demi-précision type densenet201 103.299241065979
Formation demi-précision type densenet161 137.54578113555908
Formation demi-précision type squeezenet1_0 16.729
Entraînement demi-précision type squeezenet1_1 12.906527519226074
Formation demi-précision type vgg11 51.7004919052124
Formation demi-précision type vgg11_bn 57.63327598571777
Formation demi-précision type vgg13 86.809
Formation demi-précision type vgg13_bn 95.86676120758057
Formation demi-précision type vgg16 102.918
Formation demi-précision type vgg16_bn 113.74778270721436
Formation demi-précision type vgg19_bn 131.56734943389893
Formation demi-précision type vgg19 119.706
Formation demi-précision type mobilenet_v3_large 31.30636692047119
Formation demi-précision type mobilenet_v3_small 19.44464683532715
Entraînement de type demi-précision shufflenet_v2_x0_5 13.7766
Entraînement de type demi-précision shufflenet_v2_x1_0 23.608479499816895
Formation demi-précision type shufflenet_v2_x1_5 26.793746948242188
Entraînement de type demi-précision shufflenet_v2_x2_0 24.550962448120117
Type d'inférence demi-précision mnasnet0_5 4.4934
Type d'inférence demi-précision mnasnet0_75 4.0253
Type d'inférence demi-précision mnasnet1_0 4.42598819732666
Type d'inférence demi-précision mnasnet1_3 4.6809
Inférence demi-précision type resnet18 5.803341865539551
Inférence demi-précision type resnet34 9.756693840026855
Inférence demi-précision type resnet50 15.873079299926758
Inférence demi-précision type resnet101 28.268003463745117
Inférence demi-précision type resnet152 40.04594326019287
Inférence demi-précision type resnext50_32x4d 19.53421115875244
Inférence demi-précision type resnext101_32x8d 62.44826316833496
Type d'inférence demi-précision wide_resnet50_2 33.533992767333984
Type d'inférence demi-précision wide_resnet101_2 59.60897445678711
Inférence demi-précision type densenet121 18.052735328674316
Inférence demi-précision type densenet169 21.956982612609863
Inférence demi-précision type densenet201 27.851
Inférence demi-précision type densenet161 37.414
Type d'inférence demi-précision squeezenet1_0 4.3978
Inférence demi-précision type squeezenet1_1 2.42833
Inférence demi-précision type vgg11 17.623
Type d'inférence demi-précision vgg11_bn 18.40585231781006
Inférence demi-précision type vgg13 28.4386
Type d'inférence demi-précision vgg13_bn 30.672597885131836
Inférence demi-précision type vgg16 34.43562984466553
Type d'inférence demi-précision vgg16_bn 36.929
Type d'inférence demi-précision vgg19_bn 43.1406
Inférence demi-précision type vgg19 40.5385684967041
Inférence de type demi-précision mobilenet_v3_large 5.3507
Inférence de type demi-précision mobilenet_v3_small 4.0512
Type d'inférence demi-précision shufflenet_v2_x0_5 5.0797
Type d'inférence demi-précision shufflenet_v2_x1_0 5.5935
Type d'inférence demi-précision shufflenet_v2_x1_5 5.649552345275879
Type d'inférence demi-précision shufflenet_v2_x2_0 5.355663299560547
Formation double précision type mnasnet0_5 50.2386999130249
Formation double précision type mnasnet0_75 80.66896915435791
Formation double précision type mnasnet1_0 103.32422733306885
Formation double précision type mnasnet1_3 154.6230697631836
Formation double précision type resnet18 337.94031620025635
Formation double précision type resnet34 677.7706575393677
Formation double précision type resnet50 789.9243211746216
Formation double précision type resnet101 1484.3351316452026
Formation double précision type resnet152 2170.570478439331
Formation double précision type resnext50_32x4d 877.37
Formation double précision type resnext101_32x8d 3652.4944639205933
Formation double précision type wide_resnet50_2 2154.6
Formation double précision type wide_resnet101_2 4176.522083282471
Formation double précision type densenet121 607.8699731826782
Formation double précision type densenet169 744.6409797668457
Formation double précision type densenet201 962.677731513977
Formation double précision type densenet161 1759.772515296936
Formation double précision type squeezenet1_0 164.3690824508667
Entraînement double précision type squeezenet1_1 78.70647430419922
Formation double précision type vgg11 1362.6095294952393
Formation double précision type vgg11_bn 1387.2539138793945
Formation double précision type vgg13 2006.0230445861816
Formation double précision type vgg13_bn 2047.526364326477
Formation double précision type vgg16 2702.2086429595947
Formation double précision type vgg16_bn 2747.241234779358
Formation double précision type vgg19_bn 3447.34
Formation double précision type vgg19 3397.990345954895
Formation double précision type mobilenet_v3_large 84.65698719024658
Formation double précision type mobilenet_v3_small 29.8617
Formation double précision type shufflenet_v2_x0_5 27.4073
Formation double précision type shufflenet_v2_x1_0 48.322744369506836
Formation double précision type shufflenet_v2_x1_5 82.224
Formation double précision type shufflenet_v2_x2_0 141.7021369934082
Type d'inférence double précision mnasnet0_5 12.988653182983398
Type d'inférence double précision mnasnet0_75 22.4228
Type d'inférence double précision mnasnet1_0 30.056486129760742
Inférence double précision type mnasnet1_3 46.953935623168945
Inférence double précision type resnet18 118.04479122161865
Inférence double précision type resnet34 231.52336597442627
Inférence double précision type resnet50 268.63497734069824
Inférence double précision type resnet101 495.20
Inférence double précision type resnet152 726.4922094345093
Inférence double précision type resnext50_32x4d 291.47679328918457
Inférence double précision type resnext101_32x8d 1055.
Type d'inférence double précision wide_resnet50_2 690.69
Type d'inférence double précision wide_resnet101_2 1347.5529861450195
Inférence double précision type densenet121 224.35829639434814
Inférence double précision type densenet169 268.94
Inférence double précision type densenet201 343.51
Inférence double précision type densenet161 635.866231918335
Inférence double précision type squeezenet1_0 61.92759037017822
Inférence double précision type squeezenet1_1 27.0094
Inférence double précision type vgg11 462.3375129699707
Inférence double précision type vgg11_bn 468.4495782852173
Inférence double précision type vgg13 692.82
Inférence double précision type vgg13_bn 703.3538103103638
Inférence double précision type vgg16 924.4353818893433
Inférence double précision type vgg16_bn 936.5075063705444
Inférence double précision type vgg19_bn 1169.098300933838
Inférence double précision type vgg19 1156.3771772384644
Type d'inférence double précision mobilenet_v3_large 24.2356014251709
Type d'inférence double précision mobilenet_v3_small 8.85490894317627
Type d'inférence double précision shufflenet_v2_x0_5 6.360034942626953
Type d'inférence double précision shufflenet_v2_x1_0 14.3054
Type d'inférence double précision shufflenet_v2_x1_5 24.863481521606445
Type d'inférence double précision shufflenet_v2_x2_0 43.8505744934082


Conclusion

La nouvelle carte graphique s'est avérée être une solution efficace pour un certain nombre de tâches professionnelles. Grâce à sa taille compacte, il est idéal pour les ordinateurs SFF (Small Form Factor) puissants. De plus, il est à noter que les 6 144 cœurs CUDA et 20 Go de mémoire avec un bus 160 bits font de cette carte l'une des plus productives du marché. De plus, un faible TDP de 70W aide à réduire les coûts de consommation d'énergie. Quatre ports Mini-DisplayPort permettent d'utiliser la carte avec plusieurs moniteurs ou comme solution graphique multicanal.


La RTX 4000 SFF ADA représente une avancée significative par rapport aux générations précédentes, offrant des performances équivalentes à une carte consommant deux fois plus d'énergie. Sans connecteur d'alimentation PCIe, le RTX 4000 SFF ADA est facile à intégrer dans les stations de travail à faible consommation sans sacrifier les hautes performances.
바카라사이트 바카라사이트 온라인바카라