엔비디아, 최신 AI 칩 ‘H200’ 공개…“H100보다 출력 두 배 빨라”

입력 2023-11-14 11:21
  • 가장작게

  • 작게

  • 기본

  • 크게

  • 가장크게

차세대 메모리 ‘HBM3’ 탑재
내년 2분기 출하 예정

▲엔비디아의 최신 그래픽처리장치(GPU) H200. 출처 엔비디아 홈페이지
▲엔비디아의 최신 그래픽처리장치(GPU) H200. 출처 엔비디아 홈페이지
인공지능(AI)용 반도체 시장을 주도하고 있는 엔비디아가 AI 언어모델 훈련용 최신 칩을 발표했다.

13일(현지시간) CNBC에 따르면 엔비디아는 대규모언어모델(LLM)을 훈련하도록 설계된 최신 그래픽처리장치(GPU) H200을 공개했다. H200은 챗GPT 개발사 오픈AI가 자사의 최신 LLM인 GPT-4 훈련에 사용하는 칩 H100의 업그레이드 버전이다.

H200에는 141기가바이트(GB)의 차세대 메모리 ‘HBM3’가 탑재됐다. HBM(고대역폭메모리)은 데이터 전송 속도를 높여 고성능을 발휘하는 메모리로, 텍스트와 이미지 등을 생성하기 위해 훈련된 LLM의 추론에 도움이 된다.

엔비디아는 “HBM3을 사용하면 H200은 A100에 비해 용량은 약 2배 늘어나고 대역폭은 2.4배 증가한 초당 4.8테라바이트(TB)가 될 것”이라고 설명했다. 또 메타의 LLM 라마2에 H200을 사용한 테스트를 근거로 “H200의 출력이 H100보다 약 2배 빠르다”고 강조했다.

미국 투자은행 레이몬드제임스 추정에 따르면 현재 H100 칩 가격은 2만5000~4만 달러(약 3300만~ 5290만 원)다. LLM을 훈련하는 과정에는 수천 개의 칩이 필요하다. H200의 가격은 아직 알려지지 않았다.

엔비디아는 내년 2분기 H200 출하를 시작할 예정이다.

이안 벅 엔비디아 하이퍼스케일·HPC담당 부사장은 “대용량의 데이터를 고속으로 효율적으로 처리하기 위해 크고 빠른 GPU 메모리를 사용해야 한다”면서 “엔비디아의 H200을 통해 세계에서 가장 중요한 과제 중 일부를 해결하는 속도가 더 빨라질 것”이라고 말했다.

  • 좋아요0
  • 화나요0
  • 슬퍼요0
  • 추가취재 원해요0

주요 뉴스

  • '20년 째 공회전' 허울 뿐인 아시아 금융허브의 꿈 [외국 금융사 脫코리아]
  • 단독 "한 번 뗄 때마다 수 백만원 수령 가능" 가짜 용종 보험사기 기승
  • 8만 달러 터치한 비트코인, 연내 '10만 달러'도 넘보나 [Bit코인]
  • '11월 11일 빼빼로데이', 빼빼로 과자 선물 유래는?
  • 환자복도 없던 우즈베크에 ‘한국식 병원’ 우뚝…“사람 살리는 병원” [르포]
  • 100일 넘긴 배달앱 수수료 합의, 오늘이 최대 분수령
  • '누누티비'ㆍ'티비위키'ㆍ'오케이툰' 운영자 검거 성공
  • 수능 D-3 문답지 배부 시작...전국 85개 시험지구로
  • 오늘의 상승종목

  • 11.11 14:55 실시간

실시간 암호화폐 시세

  • 종목
  • 현재가(원)
  • 변동률
    • 비트코인
    • 112,317,000
    • +2.34%
    • 이더리움
    • 4,338,000
    • -1.79%
    • 비트코인 캐시
    • 592,000
    • -0.75%
    • 리플
    • 797
    • -1.97%
    • 솔라나
    • 285,400
    • -0.7%
    • 에이다
    • 790
    • -2.11%
    • 이오스
    • 770
    • +5.48%
    • 트론
    • 229
    • +0.88%
    • 스텔라루멘
    • 151
    • +1.34%
    • 비트코인에스브이
    • 81,100
    • +0.37%
    • 체인링크
    • 19,160
    • -4.15%
    • 샌드박스
    • 398
    • +1.53%
* 24시간 변동률 기준