‘AI 반도체’ 엔비디아, 최신 AI 칩셋 H200 공개…“출력 속도 H100 두 배”

‘AI 반도체’ 엔비디아, 최신 AI 칩셋 H200 공개…“출력 속도 H100 두 배”

  • 기자명 최태우 기자
  • 입력 2023.11.14 16:29
  • 0
  • 본문 글씨 키우기
이 기사를 공유합니다
엔비디아 H200 칩 [사진제공=연합뉴스]
엔비디아 H200 칩 [사진제공=연합뉴스]

 

[더퍼블릭=최태우 기자] 엔비디아 인공지능 (AI) 모델의 핵심 컴퓨팅 자원으로 떠오른 H100을 뛰어 넘는 새로운 제품을 출시하면서 초격차 확보에 나섰다.

엔비디아는 13일(현지시간) 생성형 인공지능(AI) 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 그래픽처리장치(GPU) H200을 출시했다.

H200은 챗GPT 개발사 오픈AI 최신 LLM인 GPT-4 훈련에 적용되는 등 전 세계 기업들이 확보하기 위해 경쟁을 벌이는 H100 칩셋의 상위 버전이다.

현재 H100 칩 1개당 가격은 2만5000~4만달러로 추정되고 있으며, LLM을 구동하는 데에는 수천 개의 칩이 필요하다.

H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3’가 탑재됐다. 고대역폭메모리(HBM)는 여러 개의 D램을 수직으로 연결해 데이터 처리 속도를 올린 고성능 제품이다.

데이터가 다니는 통로가 넓어진 만큼 속도가 빨라진다. AI 모델을 사용한 텍스트와 이미지 등 생성능력과 추론 능력이 기존 H100보다 약 60~90% 향상됐다는 게 엔비디아의 설명이다.

엔비디아 측은 “메타의 LLM ‘라마2’를 대상으로 테스트해 본 결과 H200가 기존의 H100에 비해 처리 속도가 최대 2배가량 빠른 것으로 확인됐다”고 설명했다.

이 칩은 기존 H100 칩을 호환하는 시스템과 호환이 되도록 제조했다. 클라우드 업체인 아마존, 구글, 마이크로소프트, 오라클이 별다른 시스템 변경없이 H200칩을 그대로 사용할 수 있도록 한 것이다.

업계에서는 엔비디아가 이번에 H200을 출시한 것을 두고 AMD 등 경쟁사의 추격을 따돌ㄹ기 위함인 것으로 보고 있다. AMD는 지난 6월 MI300X 칩을 발표하고 연말부터 본격 출시에 들어간다고 밝힌 바 있다.

MI300X 칩셋은 최대 192GB의 메모리를 탑재해 초거대 AI 모델에 장착할 수 있다. 엔비디아 H100(120GB)의 메모리는 물론 H200보다도 큰 용량이다.

엔비디아는 내년 2분기부터 H200칩의 판매에 본격 돌입할 전망이다. 현재까지 H200의 가격은 알려지지 않았지만, H100 칩 1개의 가격이 2만5000~4만달러인 점을 감안하면 이보다 고가로 책정될 것으로 보인다.

더퍼블릭 / 최태우 기자 therapy4869@thepublic.kr

저작권자 © 더퍼블릭 무단전재 및 재배포 금지

응원하기

관련기사
개의 댓글
0 / 400
댓글 정렬
BEST댓글
BEST 댓글 답글과 추천수를 합산하여 자동으로 노출됩니다.
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글수정
댓글 수정은 작성 후 1분내에만 가능합니다.
/ 400
내 댓글 모음
모바일버전