NVIDIA에서 데이터 센터, 딥러닝용으로 발표한 암페어 아키텍처 A100를 PCIe 버전으로 출시한다.
먼저 NVIDIA의 A100은 앞서 언급했듯 일반 소비자용 GPU가 아닌 서버용, 딥러닝과 같은 연산용 그래픽 카드로 차세대 암페어 아키텍처가 적용된 GPU다.
NVIDIA에서 공식 발표할때 당시의 정보로는 A100은 기존 연산용 GPU와 같은 SCX4 인터페이스로 출시할 예정이었다. 하지만 최근 데이터 센터의 추가 및 연산용 GPU의 수요가 증가할 예정인 만큼 별도의 PCIe 버전도 추가로 내놓은 것으로 분석된다.
아울러 기본적인 스펙은 SXM4 인터페이스 기반 GPU와 동일한 TSMC 7nm공정, 540억개에 HBM2 40GB 메모리, 1.5TB/s 메모리 대역폭을 갖으며, 연산 성능에 있어서도 FP64, FP64텐서코어, Bfloat15등의 성능은 동일하다.
다만 차이점으로는 기존 SXM4 인터페이스 방식에선 TDP가 400W였지만 금번 발표된 PCIe기반 A100은 150W가 줄어든 250W의 TDP로 낮아진 만큼, 전력 소모에 있어선 다소 개선되어 출시될 예정이다.
금번 발표된 NVIDIA PCie 4 기반 A100의 보다 자세한 정보는 NVIDIA 공식 홈페이지를 통해 확인해 볼 수 있다.
https://news.google.com/__i/rss/rd/articles/CBMiIWh0dHBzOi8va2JlbmNoLmNvbS8_cT1ub2RlLzIxMTcxNNIBAA?oc=5
2020-06-23 01:17:53Z
CAIiED9awdCspSAOcr0Y9Tm9j5IqGAgEKg8IACoHCAowqLCSATDk1Q8w46aPAg
Tidak ada komentar:
Posting Komentar