챗GPT 뜨자 美 시애틀 간 경계현…'HBM' 두고 삼성-MS 동맹 강화될까

입력
기사원문
본문 요약봇
성별
말하기 속도

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

삼성전자·SK하이닉스, HBM 시장서 '기세등등'…빅테크 투자 속 수요 선점 경쟁 치열삼성전자 DS부문을 이끌고 있는 경계현 사장이 미국 출장길에 올랐던 소회를 밝히며 고객사 니즈에 맞는 제품 개발에 적극 나설 것을 시사했다. 최근 차세대 D램 '고대역폭메모리(HBM·High Bandwidth Memory)'에 대한 마이크로소프트(MS)의 수요가 높아진 가운데 경 사장이 관계자들을 만난 것으로 알려져 양사가 향후 어떤 결과물을 내놓을 지 주목된다.

경계현 삼성전자 DS부문 사장 [사진=경계현 삼성전자 DS부문 사장 인스타그램 캡처]


23일 업계에 따르면 경 사장은 지난주 미국 시애틀에 방문해 현지 고객사들과 만남을 가진 것으로 알려졌다. 경 사장은 자신의 인스타그램에도 시애틀에서 찍은 사진과 함께 "글로벌 회사들은 치열하게 변화하고 진화한다"며 "그 속도에 맞추거나 추월하지 못하면 뒤처진다. 관성을 바꾸어야 한다"는 글을 게재했다.

업계에선 경 사장이 이번 미국 출장에서 MS 등의 고객사들과 만나 'HBM' 수주 물량에 대해 논의했을 것으로 관측했다. 대화형 AI '챗GPT' 열풍으로 MS를 포함한 빅테크 기업들이 잇따라 관련 투자 계획을 내놓으면서 HBM 수요가 커졌기 때문이다.

실제로 AI 스타트업인 오픈AI가 '챗GPT'를 내놓자 검색엔진 최강자 구글이 AI 플랫폼 '바드'를 발표했고, 아마존웹서비스도 대규모 투자 계획을 내놨다. 중국 1위 포털사이트 바이두는 다음 달 AI 챗봇을 출시하기로 했다. 네이버는 올 상반기에 한국판 챗GPT '서치GPT'를, 카카오는 올해 대화형 AI를 내놓을 예정이다.

MS는 지난 22일(현지시간) 아이폰, 안드로이드폰에 탑재하는 새로운 빙, 엣지 애플리케이션을 공개하며 '챗GPT' 활용 기능을 추가했다. MS는 오픈AI에 3년 전 투자한 데 이어 앞으로 수 년에 걸쳐 100억 달러를 더 투자키로 했다.

업계 관계자는 "오픈AI에 공 들이고 있는 MS가 자사의 빙과 엣지에 '챗GPT'를 탑재하면서 이를 구현하는 데 필수적인 HBM의 물량 확보를 위해 삼성전자에 도움을 청한 것으로 안다"며 "경 사장이 MS 본사가 있는 벨뷰 인근인 시애틀에 방문한 것도 이 때문일 것"이라고 말했다.

[사진=경계현 삼성전자 사장 인스타그램 캡처]


이처럼 MS 측이 경 사장과 만난 것은 전 세계에서 HBM(고대역폭 메모리)을 생산하는 곳이 현재 삼성전자와 SK하이닉스 뿐이기 때문이다.

HBM은 여러 개의 D램을 수직으로 연결한 3D(3차원) 형태의 차세대 D램으로, 국제 반도체 표준화 기구인 JEDEC에서 2013년 산업 표준으로 채택한 고부가가치·고성능 제품이다.

HBM과 기존 메모리 반도체의 결정적 차이는 데이터 처리 속도다. HBM은 기존 D램보다 더 많은 데이터 전송 통로(I/O)를 확보해 한꺼번에 많은 양의 데이터를 전송할 수 있다. 평면 구조를 수직 구조로 전환한 형태로, 데이터 병목 현상을 줄여 이동에 필요한 시간을 크게 줄인다.

HBM은 세대가 바뀔 때마다 처리 속도가 계속 빨라지고 있다. SK하이닉스와 글로벌 시스템 반도체 설계 회사 AMD가 협력해 만든 HBM 1세대 제품은 핀(Pin)당 1Gbps에서 지난해 출시된 4세대 HBM3에 이르러서는 6.4Gbps로 향상됐다. 이는 초당 819GB(기가바이트)의 데이터를 처리할 수 있는 것으로, 풀HD 영화 163편을 단 1초에 전송할 수 있다.

업계 관계자는 "HBM은 뛰어난 성능에도 불구하고 그동안 일반 D램보다 활용도가 낮았다"며 "생산 공정이 복잡하고 고난도 기술이 필요해 평균판매단가(ASP)가 D램의 최소 3배 이상이었기 때문"이라고 말했다.

이어 "AI 서비스가 확대되면서 반전의 계기가 마련됐다"며 "최근 성능을 내기 위해 비싼 값을 치르더라도 HBM을 적용하겠다는 빅테크가 줄을 서고 있단 얘기도 있다"고 덧붙였다.

실제로 세계 최대 GPU 기업인 엔비디아는 SK하이닉스에 최신 제품인 HBM3를 공급해 줄 것을 요청한 것으로 알려졌다. 서버용 CPU 세계 1위 기업 인텔도 SK하이닉스의 HBM3를 장착한 제품 판매에 공을 들이고 있다.

업계 관계자는 "AI 기술이 진화하기 위해서는 기하급수적으로 늘어날 데이터를 생성·저장·처리하는 고용량·저전력을 강점으로 하는 고성능 메모리반도체의 역할이 중요하다"며 "HBM 시장은 한국 메모리 업체들이 주도하고 있는데 수요가 급증하며 HBM3 가격은 최고 성능 D램 대비 최대 5배까지 치솟기도 했다"고 밝혔다.

김영건 미래에셋 연구원은 "챗GPT 대중화는 곧 GPU 수요를, 간접적으로 D램 수요를 촉진시키는 요인이 될 것"이라며 "데이터센터용 GPU에 HBM D램이 탑재되며 기존 제품보다 두 배 이상 가격대가 형성돼있다"고 설명했다.

SK하이닉스가 세계 최초로 양산한 HBM3 [사진=SK하이닉스 ]


HBM 같은 고성능 메모리반도체 시장이 급성장할 것으로 예상되면서 삼성전자, SK하이닉스 간 제품 개발 경쟁도 본격화되는 분위기다.

2013년 미국 AMD와 함께 세계 최초 HBM을 개발, 양산한 SK하이닉스는 1세대(HBM), 2세대(HBM2), 3세대(HBM2E), 4세대(HBM3) 등의 제품을 계속 내놓으면서 60~70% 수준의 시장 점유율을 확보한 것으로 알려졌다. 특히 지난해에는 현존 세계 최고 성능 D램인 'HBM3'의 양산을 시작해 미국 반도체 기업 엔비디아에 공급을 시작했다. 또 지난해 하반기에 인위적 감산을 공식화 했으나, HBM3 생산은 줄이지 않고 수요 대응에 나선 것으로 전해졌다.

박정호 SK하이닉스 부회장은 "챗GPT 등 AI 시대가 펼쳐지고 관련 기술이 진화하면서 글로벌 데이터 생성, 저장, 처리량은 기하급수적으로 늘어날 전망"이라며 "이러한 흐름 속에 SK하이닉스가 세계 최초로 개발한 최고속 D램인 HBM(고대역폭 메모리)은 AI 시대 기술 진화에 큰 역할을 하고 있다"고 강조했다.

삼성전자는 2021년 2월 AMD와 협력해 'HBM-PIM(지능형 메모리)' 기술을 개발했다. PIM은 데이터를 임시 저장하기만 하던 메모리반도체에 CPU 같은 칩처럼 연산이 가능하도록 하는 기술이다. HBM-PIM을 CPU, GPU에 장착하면 서버의 연산 속도가 획기적으로 빨라진다. SK하이닉스도 지난해 2월 PIM을 적용한 제품 솔루션을 공개했다.

HBM에 대한 주목도가 커지면서 이재용 삼성전자 회장도 높은 관심을 보이고 있다. 최근에는 천안캠퍼스를 방문해 HBM 등 첨단 패키지 기술이 적용된 생산설비를 직접 살피며 사업 경쟁력을 점검했다. 이 자리에서 이 회장은 "어려운 상황이지만 인재 양성과 미래 기술 투자에 조금도 흔들림이 있어서는 안 된다"고 당부했다.

[그래프=가트너]


HBM은 지난해부터 AI용 서버에 본격적으로 장착될 정도로 초기 시장으로 평가되지만, AI 반도체 시장이 급성장하고 있는 만큼 향후 미래 먹거리로 각광 받고 있다. 시장조사업체 가트너에 따르면 지난해 444억 달러(약 58조원) 규모였던 AI 반도체 시장 규모는 2026년에 861억 달러(약 107조원)까지 성장할 것으로 전망됐다.

업계 관계자는 "HBM 등 고부가가치 D램이 얼어붙은 메모리반도체 시장의 구원투수 역할을 할 것"이라며 "앞으로는 미세공정 개발보다 AI 반도체 기술 개발이 업체 명운을 가를 수도 있다"고 밝혔다.

이 기사는 언론사에서 IT 섹션으로 분류했습니다.
기사 섹션 분류 안내

기사의 섹션 정보는 해당 언론사의 분류를 따르고 있습니다. 언론사는 개별 기사를 2개 이상 섹션으로 중복 분류할 수 있습니다.

닫기
이 기사를 추천합니다
3