paint-brush
A Nvidia RTX A4000 ADA pode lidar com tarefas de aprendizado de máquina? por@hostkey
3,026 leituras
3,026 leituras

A Nvidia RTX A4000 ADA pode lidar com tarefas de aprendizado de máquina?

por Hostkey.com15m2023/06/29
Read on Terminal Reader

Muito longo; Para ler

Em abril, a Nvidia lançou um novo produto, o RTX A4000 ADA, uma GPU de fator de forma pequeno projetada para aplicativos de estação de trabalho. Este processador substitui o A2000 e pode ser usado para tarefas complexas, incluindo pesquisa científica, cálculos de engenharia e visualização de dados. A capacidade de memória de 20 GB da nova GPU permite lidar com grandes ambientes.
featured image - A Nvidia RTX A4000 ADA pode lidar com tarefas de aprendizado de máquina?
Hostkey.com HackerNoon profile picture
0-item

Em abril, a Nvidia lançou um novo produto, o RTX A4000 ADA, uma GPU de fator de forma pequeno projetada para aplicativos de estação de trabalho. Este processador substitui o A2000 e pode ser usado para tarefas complexas, incluindo pesquisa científica, cálculos de engenharia e visualização de dados.


O RTX A4000 ADA possui 6.144 núcleos CUDA, 192 núcleos Tensor e 48 RT e 20 GB GDDR6 ECC VRAM. Um dos principais benefícios da nova GPU é sua eficiência de energia: o RTX A4000 ADA consome apenas 70 W, o que reduz os custos de energia e o aquecimento do sistema. A GPU também permite controlar vários monitores graças à sua conectividade 4x Mini-DisplayPort 1.4a.





Ao comparar as GPUs RTX 4000 SFF ADA com outros dispositivos da mesma classe, deve-se notar que, ao rodar no modo de precisão única, apresenta desempenho semelhante à GPU RTX A4000 de última geração, que consome o dobro de energia (140W vs. 70 W).





O ADA RTX 4000 SFF é construído na arquitetura ADA Lovelace e na tecnologia de processo de 5 nm. Isso permite núcleos Tensor Core e ray tracing de próxima geração, que melhoram significativamente o desempenho, fornecendo ray tracing e núcleos Tensor mais rápidos e eficientes do que o RTX A4000. Além disso, o RTX 4000 SFF da ADA vem em um pacote pequeno - o cartão tem 168 mm de comprimento e espessura de dois slots de expansão.





Os kernels de rastreamento de raios aprimorados permitem um desempenho eficiente em ambientes onde a tecnologia é usada, como em design e renderização 3D. Além disso, a capacidade de memória de 20 GB da nova GPU permite lidar com grandes ambientes.





De acordo com o fabricante, os núcleos Tensor de quarta geração oferecem alto desempenho computacional de IA - um aumento duplo no desempenho em relação à geração anterior. Os novos núcleos Tensor suportam aceleração FP8. Esse recurso inovador pode funcionar bem para quem desenvolve e implanta modelos de IA em ambientes como genômica e visão computacional .


Também é digno de nota que o aumento nos mecanismos de codificação e decodificação torna o RTX 4000 SFF ADA uma boa solução para cargas de trabalho multimídia, como vídeo, entre outros.



Especificações técnicas das placas gráficas NVIDIA RTX A4000 e RTX A5000, RTX 3090


RTX A4000 ADA

NVIDIA RTX A4000

NVIDIA RTX A5000

RTX 3090

Arquitetura

Ada Lovelace Ampère Ampère Ampère

Processo técnico

5 nm 8 nm 8 nm 8 nm

GPU

AD104 GA102 GA104 GA102

Número de transistores (milhões)

35.800 17.400 28.300 28.300

Largura de banda da memória (Gb/s)

280,0 448 768 936,2

Capacidade de memória de vídeo (bits)

160 256 384 384

Memória GPU (GB)

20 16 24 24

Tipo de memória

GDDR6 GDDR6 GDDR6 GDDR6X

núcleos CUDA

6.144 6 144 8192 10496

núcleos tensores

192 192 256 328

núcleos RT

48 48 64 82

SP perf (teraflops)

19.2 19,2 27,8 35,6

Desempenho do núcleo RT (teraflops)

44.3 37,4 54,2 69,5

Desempenho do tensor (teraflops)

306,8 153,4 222,2 285

Potência máxima (Watts)

70 140 230 350

Interface

PCIe 4.0 x 16 PCI-E 4.0 x16 PCI-E 4.0 x16 PCIe 4.0 x16

Conectores

4x Mini DisplayPort 1.4a DP 1.4 (4) DP 1.4 (4) DP 1.4 (4)

Fator de forma

2 slots 1 espaço 2 slots 2-3 slots

O software vGPU

não não sim, ilimitado Sim. com limitações

Nvlink

não não 2 x RTX A5000 sim

suporte CUDA

11.6 8.6 8.6 8.6

Suporte VULKAN

1.3 sim sim sim, 1.2

Preço (USD)

1.250 1000 2500 1400



Descrição do ambiente de teste


RTX A4000 ADA RTX A4000
CPU AMD Ryzen 9 5950X 3,4 GHz (16 núcleos) OctaCore Intel Xeon E-2288G, 3,5 GHz
BATER 4x 32 Gb DDR4 ECC SO-DIMM 2x 32 GB DDR4-3200 ECC DDR4 SDRAM 1600 MHz
Dirigir SSD NVMe de 1 TB Samsung SSD 980 PRO 1 TB
placa-mãe ASRock X570D4I-2T Série Asus P11C-I
Sistema operacional Microsoft Windows 10 Microsoft Windows 10



Resultado dos testes


Benchmark V-Ray 5

Pontos marcados


Pontos marcados


Os testes V-Ray GPU CUDA e RTX medem o desempenho relativo da renderização da GPU. A GPU RTX A4000 está um pouco atrás da RTX A4000 ADA (4% e 11%, respectivamente).


Aprendizado de máquina


"Cães contra gatos"

Para comparar o desempenho de GPUs para redes neurais, usamos o conjunto de dados "Cães x Gatos" - o teste analisa o conteúdo de uma foto e distingue se a foto mostra um gato ou um cachorro. Todos os dados brutos necessários podem ser encontrados . Executamos este teste em diferentes GPUs e serviços de nuvem e obtivemos os seguintes resultados:


Neste teste, o RTX A4000 ADA superou ligeiramente o RTX A4000 em 9%, mas lembre-se do tamanho pequeno e do baixo consumo de energia da nova GPU.




O AI-Benchmark permite medir o desempenho do dispositivo durante uma tarefa de saída do modelo AI. A unidade de medida pode variar de acordo com o teste, mas geralmente é o número de operações por segundo (OPS) ou o número de quadros por segundo (FPS).


Pontos marcados




RTX A4000

RTX A4000 ADA

1/19. MobileNet-V2

1.1 — inferência | lote=50, tamanho=224x224: 38,5 ± 2,4 ms1,2 — treinamento | lote=50, tamanho=224x224: 109 ± 4 ms 1.1 — inferência | lote=50, tamanho=224x224: 53,5 ± 0,7 ms1,2 — treinamento | lote=50, tamanho=224x224: 130,1 ± 0,6 ms

19/02. Inception-V3

2.1 — inferência | lote=20, tamanho=346x346: 36,1 ± 1,8 ms2,2 — treinamento | lote=20, tamanho=346x346: 137,4 ± 0,6 ms 2.1 — inferência | lote=20, tamanho=346x346: 36,8 ± 1,1 ms2,2 — treinamento | lote=20, tamanho=346x346: 147,5 ± 0,8 ms

19/03. Inception-V4

3.1 — inferência | lote=10, tamanho=346x346: 34,0 ± 0,9 ms3,2 — treinamento | lote=10, tamanho=346x346: 139,4 ± 1,0 ms 3.1 — inferência | lote=10, tamanho=346x346: 33,0 ± 0,8 ms3,2 — treinamento | lote=10, tamanho=346x346: 135,7 ± 0,9 ms

19/04. Inception-ResNet-V2

4.1 — inferência | lote=10, tamanho=346x346: 45,7 ± 0,6 ms4,2 — treinamento | lote=8, tamanho=346x346: 153,4 ± 0,8 ms 4.1 — lote de inferência=10, tamanho=346x346: 33,6 ± 0,7 ms4,2 — lote de treinamento=8, tamanho=346x346: 132 ± 1 ms

19/05. ResNet-V2-50

5.1 — inferência | lote=10, tamanho=346x346: 25,3 ± 0,5 ms5,2 — treinamento | lote=10, tamanho=346x346: 91,1 ± 0,8 ms 5.1 — inferência | lote=10, tamanho=346x346: 26,1 ± 0,5 ms5,2 — treinamento | lote=10, tamanho=346x346: 92,3 ± 0,6 ms

19/06. ResNet-V2-152

6.1 — inferência | lote=10, tamanho=256x256: 32,4 ± 0,5 ms6,2 — treinamento | lote=10, tamanho=256x256: 131,4 ± 0,7 ms 6.1 — inferência | lote=10, tamanho=256x256: 23,7 ± 0,6 ms6,2 — treinamento | lote=10, tamanho=256x256: 107,1 ± 0,9 ms

19/07. VGG-16

7.1 — inferência | lote=20, tamanho=224x224: 54,9 ± 0,9 ms7,2 — treinamento | lote=2, tamanho=224x224: 83,6 ± 0,7 ms 7.1 — inferência | lote=20, tamanho=224x224: 66,3 ± 0,9 ms7,2 — treinamento | lote=2, tamanho=224x224: 109,3 ± 0,8 ms

19/08. SRCNN 9-5-5

8.1 — inferência | lote=10, tamanho=512x512: 51,5 ± 0,9 ms8,2 — inferência | lote=1, tamanho=1536x1536: 45,7 ± 0,9 ms8,3 — treinamento | lote=10, tamanho=512x512: 183 ± 1 ms 8.1 — inferência | lote=10, tamanho=512x512: 59,9 ± 1,6 ms8,2 — inferência | lote=1, tamanho=1536x1536: 53,1 ± 0,7 ms8,3 — treinamento | lote=10, tamanho=512x512: 176 ± 2 ms

19/09. VGG-19 Super Res.

9.1 — inferência | lote=10, tamanho=256x256: 99,5 ± 0,8 ms9,2 — inferência | lote=1, tamanho=1024x1024: 162 ± 1 ms9.3 — treinamento | lote=10, tamanho=224x224: 204 ± 2 ms


19/10. ResNet-SRGAN

10.1 — inferência | lote=10, tamanho=512x512: 85,8 ± 0,6 ms10,2 — inferência | lote=1, tamanho=1536x1536: 82,4 ± 1,9 ms10,3 — treinamento | lote=5, tamanho=512x512: 133 ± 1 ms 10.1 — inferência | lote=10, tamanho=512x512: 98,9 ± 0,8 ms10,2 — inferência | lote=1, tamanho=1536x1536: 86,1 ± 0,6 ms10,3 — treinamento | lote=5, tamanho=512x512: 130,9 ± 0,6 ms

19/11. ResNet-DPED

11.1 — inferência | lote=10, tamanho=256x256: 114,9 ± 0,6 ms11,2 — inferência | lote=1, tamanho=1024x1024: 182 ± 2 ms11.3 — treinamento | lote=15, tamanho=128x128: 178,1 ± 0,8 ms 11.1 — inferência | lote=10, tamanho=256x256: 146,4 ± 0,5 ms11,2 — inferência | lote=1, tamanho=1024x1024: 234,3 ± 0,5 ms11,3 — treinamento | lote=15, tamanho=128x128: 234,7 ± 0,6 ms

19/12. U-Net

12.1 — inferência | lote=4, tamanho=512x512: 180,8 ± 0,7 ms12,2 — inferência | lote=1, tamanho=1024x1024: 177,0 ± 0,4 ms12,3 — treinamento | lote=4, tamanho=256x256: 198,6 ± 0,5 ms 12.1 — inferência | lote=4, tamanho=512x512: 222,9 ± 0,5 ms12,2 — inferência | lote=1, tamanho=1024x1024: 220,4 ± 0,6 ms12,3 — treinamento | lote=4, tamanho=256x256: 229,1 ± 0,7 ms

13/19. Nvidia-SPADE

13.1 — inferência | lote=5, tamanho=128x128: 54,5 ± 0,5 ms13,2 — treinamento | lote=1, tamanho=128x128: 103,6 ± 0,6 ms 13.1 — inferência | lote=5, tamanho=128x128: 59,6 ± 0,6 ms13,2 — treinamento | lote=1, tamanho=128x128: 94,6 ± 0,6 ms

14/19. ICNet

14.1 — inferência | lote=5, tamanho=1024x1536: 126,3 ± 0,8 ms14,2 — treinamento | lote=10, tamanho=1024x1536: 426 ± 9 ms 14.1 — inferência | lote=5, tamanho=1024x1536: 144 ± 4 ms14,2 — treinamento | lote=10, tamanho=1024x1536: 475 ± 17 ms

15/19. PSPNet

15.1 — inferência | lote=5, tamanho=720x720: 249 ± 12 ms15,2 — treinamento | lote=1, tamanho=512x512: 104,6 ± 0,6 ms 15.1 — inferência | lote=5, tamanho=720x720: 291,4 ± 0,5 ms15,2 — treinamento | lote=1, tamanho=512x512: 99,8 ± 0,9 ms

16/19. DeepLab

16.1 — inferência | lote=2, tamanho=512x512: 71,7 ± 0,6 ms16,2 — treinamento | lote=1, tamanho=384x384: 84,9 ± 0,5 ms 16.1 — inferência | lote=2, tamanho=512x512: 71,5 ± 0,7 ms16,2 — treinamento | lote=1, tamanho=384x384: 69,4 ± 0,6 ms

17/19. Pixel-RNN

17.1 — inferência | lote=50, tamanho=64x64: 299 ± 14 ms17,2 — treinamento | lote=10, tamanho=64x64: 1258 ± 64 ms 17.1 — inferência | lote=50, tamanho=64x64: 321 ± 30 ms17,2 — treinamento | lote=10, tamanho=64x64: 1278 ± 74 ms

18/19. LSTM-Sentiment

18.1 — inferência | lote=100, tamanho=1024x300: 395 ± 11 ms18.2 — treinamento | lote=10, tamanho=1024x300: 676 ± 15 ms 18.1 — inferência | lote=100, tamanho=1024x300: 345 ± 10 ms18.2 — treinamento | lote=10, tamanho=1024x300: 774 ± 17 ms

19/19. GNMT-Tradução

19.1 — inferência | lote=1, tamanho=1x20: 119 ± 2 ms 19.1 — inferência | lote=1, tamanho=1x20: 156 ± 1 ms


Os resultados deste teste mostram que o desempenho do RTX A4000 é 6% superior ao RTX A4000 ADA, porém, com a ressalva de que os resultados do teste podem variar dependendo da tarefa específica e das condições operacionais empregadas.



RTX A 4000

avaliação comparativa

Tempo médio de trem do modelo (ms)

Treinando o tipo de precisão dupla mnasnet0_5 62.995805740356445
Treinando o tipo de precisão dupla mnasnet0_75 98.39066505432129
Treinando o tipo de precisão dupla mnasnet1_0 126.60405158996582
Treinando o tipo de precisão dupla mnasnet1_3 186.89460277557373
Resnet do tipo dupla precisão de treinamento18 428.08079719543457
Treinamento do tipo resnet de dupla precisão34 883.5790348052979
Treinando resnet do tipo precisão dupla50 1016.3950300216675
Treinamento tipo resnet101 de dupla precisão 1927.2308254241943
Resnet152 do tipo precisão dupla de treinamento 2815.663013458252
Treinando o tipo de precisão dupla resnext50_32x4d 1075.4373741149902
Treinamento do tipo precisão dupla resnext101_32x8d 4050.0641918182373
Treinando precisão dupla tipo wide_resnet50_2 2615.9953451156616
Tipo de treinamento de dupla precisão wide_resnet101_2 5218.524832725525
Treinando o tipo de precisão dupla densanet121 751.9759511947632
Treinando o tipo de precisão dupla densanet169 910.3225564956665
Treinando precisão dupla tipo densanet201 1163.036551475525
Treinando o tipo de precisão dupla densanet161 2141.505298614502
Treinamento de precisão dupla tipo squeezenet1_0 203.988
Treinando precisão dupla tipo squeezenet1_1 98.04857730865479
Treinamento de dupla precisão tipo vgg11 1697.7
Treinamento de precisão dupla tipo vgg11_bn 1729.2972660064697
Treinamento de dupla precisão tipo vgg13 2491.6
Treinamento de precisão dupla tipo vgg13_bn 2545.34
Treinamento de dupla precisão tipo vgg16 3371.68
Treinamento de precisão dupla tipo vgg16_bn 3423.8639068603516
Treinamento de precisão dupla tipo vgg19_bn 4314.55
Treinamento de dupla precisão tipo vgg19 4249.422650337219
Treinando o tipo de precisão dupla mobilenet_v3_large 105.546
Treinando o tipo de precisão dupla mobilenet_v3_small 37.6680850982666
Treinando o tipo de precisão dupla shufflenet_v2_x0_5 26.51611328125
Treinando o tipo de precisão dupla shufflenet_v2_x1_0 61.260504722595215
Treinando o tipo de precisão dupla shufflenet_v2_x1_5 105.30067920684814
Treinando o tipo de precisão dupla shufflenet_v2_x2_0 181.03694438934326
Tipo de precisão dupla de inferência mnasnet0_5 17.397074699401855
Tipo de precisão dupla de inferência mnasnet0_75 28.902697563171387
Tipo de precisão dupla de inferência mnasnet1_0 38.3877
Tipo de precisão dupla de inferência mnasnet1_3 58.228821754455566
Tipo de inferência dupla precisão resnet18 147.95727252960205
Tipo de inferência dupla precisão resnet34 293.5
Tipo de inferência dupla precisão resnet50 336.44991874694824
Tipo de inferência dupla precisão resnet101 637.9982376098633
Tipo de inferência dupla precisão resnet152 948.9351654052734
Tipo de precisão dupla de inferência resnext50_32x4d 372.80876636505127
Tipo de precisão dupla de inferência resnext101_32x8d 1385.09
Tipo de precisão dupla de inferência wide_resnet50_2 873.048791885376
Tipo de dupla precisão de inferência wide_resnet101_2 1729.2765426635742
Tipo de inferência de precisão dupla densanet121 270.354
Tipo de inferência de precisão dupla densanet169 327.06
Tipo de inferência de precisão dupla densanet201 414.733362197876
Tipo de inferência de precisão dupla densanet161 766.3542318344116
Tipo de inferência de precisão dupla squeezenet1_0 74.86292839050293
Tipo de inferência de precisão dupla squeezenet1_1 34.04905319213867
Tipo de precisão dupla de inferência vgg11 576.3767147064209
Tipo de precisão dupla de inferência vgg11_bn 580.5839586257935
Tipo de precisão dupla de inferência vgg13 853.4365510940552
Tipo de precisão dupla de inferência vgg13_bn 860.39
Tipo de precisão dupla de inferência vgg16 1145.091052055359
Tipo de precisão dupla de inferência vgg16_bn 1152.8028392791748
Tipo de precisão dupla de inferência vgg19_bn 1444.9562692642212
Tipo de precisão dupla de inferência vgg19 1437.0987701416016
Tipo de precisão dupla de inferência mobilenet_v3_large 30.8763
Tipo de precisão dupla de inferência mobilenet_v3_small 11.234536170959473
Tipo de dupla precisão de inferência shufflenet_v2_x0_5 7.425284385681152
Tipo de dupla precisão de inferência shufflenet_v2_x1_0 18.25782299041748
Tipo de dupla precisão de inferência shufflenet_v2_x1_5 33.34946632385254
Tipo de dupla precisão de inferência shufflenet_v2_x2_0 57.84676551818848


RTX A4000 ADA


avaliação comparativa

Tempo médio de trem do modelo

Treinando meia precisão tipo mnasnet0_5 20.2666
Treinando tipo de meia precisão mnasnet0_75 21.445374488830566
Treinando meia precisão tipo mnasnet1_0 26.7625
Treinando meia precisão tipo mnasnet1_3 26.57
Treinamento tipo resnet de meia precisão18 19.624991416931152
Treinamento tipo resnet de meia precisão34 32.46446132659912
Treinamento tipo resnet de meia precisão50 57.332
Treinamento tipo resnet101 de meia precisão 98.209
Treinamento tipo resnet152 de meia precisão 138.967
Treinamento tipo meia precisão resnext50_32x4d 75.56005001068115
Treinamento tipo meia precisão resnext101_32x8d 228.8706636428833
Treinando meia precisão tipo wide_resnet50_2 113.76442432403564
Treinando meia precisão tipo wide_resnet101_2 204.838
Treinando meia precisão tipo densanet121 68.97401332855225
Treinando meia precisão tipo densanet169 85.957
Treinando meia precisão tipo densanet201 103.299241065979
Treinando meia precisão tipo densanet161 137.54578113555908
Treinamento de meia precisão tipo squeezenet1_0 16.729
Treinamento de meia precisão tipo squeezenet1_1 12.906527519226074
Treino de meia precisão tipo vgg11 51.7004919052124
Treinamento de meia precisão tipo vgg11_bn 57.63327598571777
Treino de meia precisão tipo vgg13 86.809
Treinamento de meia precisão tipo vgg13_bn 95.86676120758057
Treino de meia precisão tipo vgg16 102.918
Treinamento de meia precisão tipo vgg16_bn 113.74778270721436
Treinamento de meia precisão tipo vgg19_bn 131.56734943389893
Treino de meia precisão tipo vgg19 119.706
Treinando o tipo de meia precisão mobilenet_v3_large 31.30636692047119
Treinando o tipo de meia precisão mobilenet_v3_small 19.44464683532715
Treinando meia precisão tipo shufflenet_v2_x0_5 13.7766
Treinando meia precisão tipo shufflenet_v2_x1_0 23.608479499816895
Treinando meia precisão tipo shufflenet_v2_x1_5 26.793746948242188
Treinando meia precisão tipo shufflenet_v2_x2_0 24.550962448120117
Tipo de meia precisão de inferência mnasnet0_5 4.4934
Tipo de meia precisão de inferência mnasnet0_75 4.0253
Tipo de meia precisão de inferência mnasnet1_0 4.42598819732666
Tipo de meia precisão de inferência mnasnet1_3 4.6809
Tipo de meia precisão de inferência resnet18 5.803341865539551
Tipo de meia precisão de inferência resnet34 9.756693840026855
Tipo de meia precisão de inferência resnet50 15.873079299926758
Tipo de meia precisão de inferência resnet101 28.268003463745117
Tipo de meia precisão de inferência resnet152 40.04594326019287
Tipo de meia precisão de inferência resnext50_32x4d 19.53421115875244
Tipo de meia precisão de inferência resnext101_32x8d 62.44826316833496
Tipo de meia precisão de inferência wide_resnet50_2 33.533992767333984
Tipo de meia precisão de inferência wide_resnet101_2 59.60897445678711
Tipo de meia precisão de inferência densanet121 18.052735328674316
Tipo de meia precisão de inferência densanet169 21.956982612609863
Tipo de meia precisão de inferência densanet201 27.851
Tipo de meia precisão de inferência densanet161 37.414
Tipo de meia precisão de inferência squeezenet1_0 4.3978
Tipo de meia precisão de inferência squeezenet1_1 2.42833
Tipo de meia precisão de inferência vgg11 17.623
Tipo de meia precisão de inferência vgg11_bn 18.40585231781006
Tipo de meia precisão de inferência vgg13 28.4386
Tipo de meia precisão de inferência vgg13_bn 30.672597885131836
Tipo de meia precisão de inferência vgg16 34.43562984466553
Tipo de meia precisão de inferência vgg16_bn 36.929
Tipo de meia precisão de inferência vgg19_bn 43.1406
Tipo de meia precisão de inferência vgg19 40.5385684967041
Tipo de meia precisão de inferência mobilenet_v3_large 5.3507
Tipo de meia precisão de inferência mobilenet_v3_small 4.0512
Tipo de meia precisão de inferência shufflenet_v2_x0_5 5.0797
Tipo de meia precisão de inferência shufflenet_v2_x1_0 5.5935
Tipo de meia precisão de inferência shufflenet_v2_x1_5 5.649552345275879
Tipo de meia precisão de inferência shufflenet_v2_x2_0 5.355663299560547
Treinando o tipo de precisão dupla mnasnet0_5 50.2386999130249
Treinando o tipo de precisão dupla mnasnet0_75 80.66896915435791
Treinando o tipo de precisão dupla mnasnet1_0 103.32422733306885
Treinando o tipo de precisão dupla mnasnet1_3 154.6230697631836
Resnet do tipo dupla precisão de treinamento18 337.94031620025635
Treinamento do tipo resnet de dupla precisão34 677.7706575393677
Treinando resnet do tipo precisão dupla50 789.9243211746216
Treinamento tipo resnet101 de dupla precisão 1484.3351316452026
Resnet152 do tipo precisão dupla de treinamento 2170.570478439331
Treinando o tipo de precisão dupla resnext50_32x4d 877.37
Treinamento do tipo precisão dupla resnext101_32x8d 3652.4944639205933
Treinando precisão dupla tipo wide_resnet50_2 2154.6
Tipo de treinamento de dupla precisão wide_resnet101_2 4176.522083282471
Treinando o tipo de precisão dupla densanet121 607.8699731826782
Treinando o tipo de precisão dupla densanet169 744.6409797668457
Treinando precisão dupla tipo densanet201 962.677731513977
Treinando o tipo de precisão dupla densanet161 1759.772515296936
Treinamento de precisão dupla tipo squeezenet1_0 164.3690824508667
Treinando precisão dupla tipo squeezenet1_1 78.70647430419922
Treinamento de dupla precisão tipo vgg11 1362.6095294952393
Treinamento de precisão dupla tipo vgg11_bn 1387.2539138793945
Treinamento de dupla precisão tipo vgg13 2006.0230445861816
Treinamento de precisão dupla tipo vgg13_bn 2047.526364326477
Treinamento de dupla precisão tipo vgg16 2702.2086429595947
Treinamento de precisão dupla tipo vgg16_bn 2747.241234779358
Treinamento de precisão dupla tipo vgg19_bn 3447.34
Treinamento de dupla precisão tipo vgg19 3397.990345954895
Treinando o tipo de precisão dupla mobilenet_v3_large 84.65698719024658
Treinando o tipo de precisão dupla mobilenet_v3_small 29.8617
Treinando o tipo de precisão dupla shufflenet_v2_x0_5 27.4073
Treinando o tipo de precisão dupla shufflenet_v2_x1_0 48.322744369506836
Treinando o tipo de precisão dupla shufflenet_v2_x1_5 82.224
Treinando o tipo de precisão dupla shufflenet_v2_x2_0 141.7021369934082
Tipo de precisão dupla de inferência mnasnet0_5 12.988653182983398
Tipo de precisão dupla de inferência mnasnet0_75 22.4228
Tipo de precisão dupla de inferência mnasnet1_0 30.056486129760742
Tipo de precisão dupla de inferência mnasnet1_3 46.953935623168945
Tipo de inferência dupla precisão resnet18 118.04479122161865
Tipo de inferência dupla precisão resnet34 231.52336597442627
Tipo de inferência dupla precisão resnet50 268.63497734069824
Tipo de inferência dupla precisão resnet101 495.20
Tipo de inferência dupla precisão resnet152 726.4922094345093
Tipo de precisão dupla de inferência resnext50_32x4d 291.47679328918457
Tipo de precisão dupla de inferência resnext101_32x8d 1055.
Tipo de precisão dupla de inferência wide_resnet50_2 690.69
Tipo de dupla precisão de inferência wide_resnet101_2 1347.5529861450195
Tipo de inferência de precisão dupla densanet121 224.35829639434814
Tipo de inferência de precisão dupla densanet169 268.94
Tipo de inferência de precisão dupla densanet201 343.51
Tipo de inferência de precisão dupla densanet161 635.866231918335
Tipo de inferência de precisão dupla squeezenet1_0 61.92759037017822
Tipo de inferência de precisão dupla squeezenet1_1 27.0094
Tipo de precisão dupla de inferência vgg11 462.3375129699707
Tipo de precisão dupla de inferência vgg11_bn 468.4495782852173
Tipo de precisão dupla de inferência vgg13 692.82
Tipo de precisão dupla de inferência vgg13_bn 703.3538103103638
Tipo de precisão dupla de inferência vgg16 924.4353818893433
Tipo de precisão dupla de inferência vgg16_bn 936.5075063705444
Tipo de precisão dupla de inferência vgg19_bn 1169.098300933838
Tipo de precisão dupla de inferência vgg19 1156.3771772384644
Tipo de precisão dupla de inferência mobilenet_v3_large 24.2356014251709
Tipo de precisão dupla de inferência mobilenet_v3_small 8.85490894317627
Tipo de dupla precisão de inferência shufflenet_v2_x0_5 6.360034942626953
Tipo de dupla precisão de inferência shufflenet_v2_x1_0 14.3054
Tipo de dupla precisão de inferência shufflenet_v2_x1_5 24.863481521606445
Tipo de dupla precisão de inferência shufflenet_v2_x2_0 43.8505744934082


Conclusão

A nova placa gráfica provou ser uma solução eficaz para uma série de tarefas de trabalho. Graças ao seu tamanho compacto, é ideal para computadores SFF (Small Form Factor) potentes. Além disso, é notável que os 6.144 núcleos CUDA e 20 GB de memória com barramento de 160 bits tornam este cartão um dos mais produtivos do mercado. Além disso, um baixo TDP de 70 W ajuda a reduzir os custos de consumo de energia. Quatro portas Mini-DisplayPort permitem que a placa seja usada com vários monitores ou como uma solução gráfica multicanal.


A RTX 4000 SFF ADA representa um avanço significativo em relação às gerações anteriores, entregando desempenho equivalente a uma placa com o dobro do consumo de energia. Sem conector de alimentação PCIe, o RTX 4000 SFF ADA é fácil de integrar em estações de trabalho de baixa potência sem sacrificar o alto desempenho.
바카라사이트 바카라사이트 온라인바카라