A100의 최대 30배
호퍼 GPU 아키텍처,
TSMC 최신 공정 적용
[정보통신신문=서유덕기자]
엔비디아가 인공지능(AI) 개발자 컨퍼런스 GTC2022에서 AI반도체 ‘H100’을 포함한 신제품, 신기술을 대거 공개했다.
젠슨 황(Jensen Huang) 엔비디아 CEO는 "A100보다 9배 높은 대규모 훈련 성능과 30배 높은 대규모 언어 모델 추론 처리량을 자랑하는 호퍼 H100은 역대 최대의 세대 도약을 이룬 제품"이라고 소개했다. H100은 800억개의 트랜지스터를 탑재하고, 새 AI칩 아키텍처인 ‘호퍼’를 적용해 TSMC 4N 공정에서 제조된다.
‘호퍼’는 2020년 5월 발표한 암페어 아키텍처의 후속 그래픽처리장치(GPU) 아키텍처로, 미국 컴퓨터 과학자 그레이스 호퍼(Grace Hopper)의 이름을 따 명명됐다.
이날 엔비디아는 H100 탑재 AI 슈퍼컴퓨터 DGX H100과 H100 DGX POD, DGX 슈퍼 POD도 발표했다. 엔비디아는 H100 GPU와 중앙처리장치(CPU), 데이터처리장치(DPU) 등 모든 구성요소 간 빠른 연결을 지원하는 NVLink 고속 인터커넥트 기술을 적용했다고 밝혔다.
고성능 컴퓨팅을 위한 엔비디아의 첫 개별 데이터센터용 CPU인 그레이스 CPU 슈퍼칩(Grace CPU Superchip)도 함께 발표했다. 젠슨 황은 초당 900기가바이트(GB)의 NVLink 칩 투 칩 인터커넥트(chip-to-chip interconnect)를 통해 연결된 두 개의 CPU 칩으로 초당 1테라바이트(TB)의 메모리 대역폭을 가진 144코어 CPU를 만들었다고 설명했다.