하이닉스 HBM3 점유율 90%, 삼성전자 HBM3E 역전 승부수…HBM4 시장 놓고도 신경전 치열
#삼성전자 “2라운드 승리해야” vs 하이닉스 “자만·방심하지 말자”
AI 반도체 시장을 두고 양사는 남다른 각오를 다지고 있다. 지난 4월 26일 경계현 삼성전자 디바이스솔루션(DS) 부문장(사장)은 사내 경영 현황 설명회에서 “AI 초기 시장에서는 우리가 승리하지 못했다. 2라운드는 삼성전자의 역량을 잘 집결해 승리해야 한다”고 밝혔다. 지난 5월 2일 경기도 이천 본사에서 열린 기자간담회에서 곽노정 SK하이닉스 사장은 “AI 반도체 경쟁력은 한순간에 확보할 수 있는 것은 아니다”며 “자만, 방심하지 않고 우리 페이스에 맞출 것”이라고 했다.
특히 HBM을 둘러싸고 양사는 물러서지 않겠다는 의지를 분명히 하고 있다. HBM은 AI 반도체의 핵심 부품이다. SK하이닉스는 지난 4월 25일 1분기 실적발표 컨퍼런스콜에서 HBM3E 12단 제품 양산 시기를 내년으로 예고했다. 그런데 이내 삼성전자가 올해 2분기 안에 HBM3E 12단 제품 양산을 하겠다며 맞불을 놓았다. 5월 2일 기자간담회에서 SK하이닉스는 해당 제품의 양산 일정을 올해 3분기로 앞당겼다.
HBM은 한 번에 많은 양의 데이터 이동과 빠른 처리를 필요로 하는 AI 시스템 구축에 적합한 메모리 반도체다. HBM은 여러 개의 메모리칩(D램)을 실리콘관통전극(TSV) 기술로 수직으로 쌓아 만든다. TSV는 칩들 사이에 여러 구멍(데이터 입출력 통로, I/O)을 뚫고 이를 구리선 등으로 연결하는 기술이다. HBM3E의 I/O 핀 수는 1024개다. 모바일 D램인 저전력더블데이터레이트(LPDDR)5의 I/O 핀은 64개다. I/O 핀이 적으면 데이터 이동 병목 현상이 생긴다.
김양팽 산업연구원 전문연구원은 “양사가 HBM에 공을 들이는 것은 HBM이 메모리 반도체 중 제품 단가가 높고 부가가치가 가장 높은 제품이기 때문”이라고 말했다. 대만 시장조사업체 트렌드포스에 따르면 현재 HBM 판매 단가는 기존 D램보다 배 이상 비싸다. 더블데이터레이트(DDR)5보다는 단가가 5배 높다. 트렌드포스는 “AI칩 기술 발전으로 HBM 용량이 증가하면서 가격이 높아질 것”이라고 전망했다. HBM 매출이 전체 D램 시장에서 차지하는 비중은 2023년 8%에서 올해 21%, 2025년 30%로 늘어날 것으로 예상된다.
실제 HBM은 SK하이닉스와 삼성전자 실적에 긍정적인 영향을 주고 있다. 올해 1분기 SK하이닉스는 2조 8800억 원의 영업이익을 냈다. 같은 기간 삼성전자 반도체 사업을 담당하는 DS 부문도 영업이익 1조 9100억 원을 기록했다. 5개 분기 만에 흑자다. HBM 등 AI 서버용 제품의 주문량이 늘어난 영향이 작용했다. 1분기 SK하이닉스와 삼성전자의 D램 평균판매가격(ASP)은 전 분기 대비 각각 22%, 20% 올랐다.
#달아오른 엔비디아 물량 수주전
아직은 삼성전자가 SK하이닉스에 한 발 뒤처졌다는 평가를 받는다. 트렌드포스에 따르면 지난해 HBM 시장 점유율은 SK하이닉스가 53%, 삼성전자가 38%, 마이크론이 9%다. 현재 HBM 주력 제품인 HBM3 시장에서 지난해 SK하이닉스는 점유율 90% 이상을 차지했다. 엔비디아에 제품을 사실상 독점 공급했기 때문이다. 이제 막 시장이 열리기 시작한 HBM3E 8단 제품도 SK하이닉스가 엔비디아의 유일한 공급사다.
SK하이닉스는 2013년 HBM을 업계 최초로 개발했다. 2015년 상용화 제품인 2세대 HBM인 HBM2를 먼저 양산한 것은 삼성전자였다. 하지만 2019년 삼성전자 HBM 연구개발 전담팀이 해체됐다. 내부적으로 HBM 시장에 대한 회의적인 시선이 있었기 때문이다. 그러나 HBM은 2022년 챗GPT 등 생성형 AI가 등장하면서 수요가 폭발적으로 늘었다. SK하이닉스는 2022년 당시 최신 HBM인 HBM3를 최초로 양산 후 공급을 늘리면서 시장을 주도해나갔다. 삼성전자는 지난해 HBM3를 양산하기 시작했다.
삼성전자는 HBM3E 12단 제품으로 시장 주도권을 다시 가져오겠다는 복안이다. 지난 2월 삼성전자는 업계 최대 용량인 36GB(기가바이트) HBM3E 12단 제품을 세계 최초로 개발했다. 고용량 제품에 대한 업계 수요가 늘고 있다는 판단에서다. 엔비디아의 차세대 AI 가속기(칩)인 B200과 GB200에 HBM3E 12단이 탑재될 가능성이 있는 것으로 알려졌다. AMD도 MI350, MI375 등 AI 칩에 HBM3E 12단 제품을 장착할 것으로 전망된다.
관건은 ‘큰손’인 엔비디아의 공급량을 얼마나 확보하느냐다. 엔비디아는 AI 칩 시장의 80~90% 이상을 점유하고 있다. 현재 SK하이닉스와 삼성전자 모두 엔비디아에 샘플을 보내 ‘퀄 테스트’(품질 검증)를 받고 있다. 지난 3월 미국 새너제이에서 열린 엔비디아 개발자 회의 ‘GTC 2024’에서 삼성전자 부스를 방문한 젠슨 황 엔비디아 CEO는 삼성전자 HBM3E 12단 제품에 ‘승인(Approved)’이란 친필 서명을 해 화제를 모았다.
엄재철 반도체 산업구조 선진화 연구회 정책부회장은 “엔비디아에서 발주를 하고 검증을 해주면 다른 회사들은 별다른 걱정 없이 바로 채택할 수 있다”며 “젠슨 황 CEO가 서명을 한 것은 SK하이닉스에만 물량을 주지는 않겠다는 일종의 신호다. 엔비디아 입장에서도 여러 공급업체에 맡겨야 가격 결정권을 갖기가 유리하다고 생각할 것”이라고 말했다. 이승우 유진투자증권 연구원은 “수주 결과가 나와 봐야 알겠지만 HBM3E 12단 물량에서 큰 차이는 안 날 것 같다”고 내다봤다.
양사는 다른 ‘접착 공정(본딩)’ 방식을 쓴다. 삼성전자는 TC-NCF 공법을 사용한다. D램 사이에 비전도성필름을 끼운 후 열압착 본딩으로 칩을 붙이는 공정이다. 하지만 열과 압력을 가하는 방식이라 금이 생길 수 있고 방열 특성에서 불리하다. 삼성전자 측은 “HBM3E 12단에 활용되는 어드밴스드 TC-NCF 기술은 소재의 두께를 낮추고 칩 간격을 줄였다. 동시에 신호 특성이 필요한 곳은 작은 범프를, 열 방출이 필요한 곳은 큰 범프를 목적에 맞게 적용했다”며 “이 덕분에 열 특성을 강화하면서 수율도 극대화했다”고 밝혔다.
SK하이닉스는 MR-MUF 공법을 활용한다. D램을 쌓아 붙인 뒤 열을 가해 한 번에 납땜한 뒤, D램 사이에 액체 형태의 보호재를 주입해 굳힌다. MR-MUF는 HBM 적층 높이가 높아질수록 칩의 휘어짐 현상이 발생할 수 있다는 지적이 있었다. 다만 SK하이닉스 측은 “어드밴스드 MR-MUF는 신규 보호재를 적용해 방열 특성을 10% 개선했다”며 “칩의 휨 현상 제어에도 탁월한 고온저압 방식으로 고단 적층에 가장 적합한 솔루션”이라고 밝혔다.
#HBM4 개발 경쟁도 후끈
SK하이닉스와 삼성전자는 미래 시장인 HBM4 시장에서도 주도권을 잡기 위해 경쟁 중이다. HBM4의 I/O 핀 수는 2048개다. HBM3E보다 I/O 핀 수가 2배 많아 데이터 이동 병목 현상이 더욱 줄어든다. HBM4에서는 D램 적층 단수도 12, 16단까지 늘어나 저장 데이터 용량도 확대된다. SK하이닉스는 HBM4 12단은 2025년 양산, HBM4 16단은 2026년 양산을 목표로 개발 중이다. 삼성전자는 2025년 시제품 생산, 2026년 HBM4 양산이 목표다.
이종환 상명대 시스템반도체공학과 교수는 “HBM4는 메모리와 비메모리 반도체의 경계가 모호해지는 시장”이라고 했다. SK하이닉스와 삼성전자는 HBM4부터 로직 다이에 로직 선단 공정을 적용키로 했다. 로직 다이는 적층된 D램의 아래에서 D램을 컨트롤하는 층이다. SK하이닉스는 로직 다이를 베이스 다이, 삼성전자는 버퍼 다이라고 부른다. HBM4부터는 로직 다이에 비메모리에서 사용되는 다양한 IP(설계자산) 기능을 추가한다. 성능과 효율을 최대치로 높이기 위해서다.
지난 4월 파운드리(반도체 위탁생산)를 하지 않는 SK하이닉스는 대만 TSMC와 HBM4 개발과 첨단패키징 기술 협력에 나선다고 밝혔다. 반도체 업계 한 관계자는 “TSMC와 협력을 통해 로직 다이의 성능을 개선하는 것은 특정 고객사를 위한다기보다는, 늘어나는 HBM4 시장 수요 대응력을 높이는 것”이라고 말했다. HBM4는 초미세공정이 필요하기 때문에 고객 맞춤형으로 제작된다.
삼성전자는 HBM 생산, 파운드리, 패키징 등 모든 공정을 자체적으로 할 수 있다. 지난 5월 2일 김경륜 삼성전자 메모리사업부 상품기획실 상무는 삼성전자 뉴스룸 기고문을 통해 “HBM 개발 및 공급을 위한 비즈니스 계획에서부터 D램 셀 개발·로직 설계·패키징 및 품질 검증에 이르기까지 모든 분야에서 차별화 및 최적화가 주요 경쟁 요인이 될 것”이라고 내다봤다.
HBM 순풍 한미반도체, 주목받는 다음 스텝
한미반도체는 HBM의 대표적인 수혜 종목으로 꼽힌다. 한미반도체의 주가는 2023년 5월 10일 2만 1000원에서 2024년 5월 10일 13만 9100원으로 562% 뛰었다. 금융정보업체 에프앤가이드에 따르면 지난 5월 2일 기준 3곳 이상의 증권사가 목표주가를 제시한 281개 종목 중 한미반도체는 두 번째로 목표주가가 많이 상향 조정된 종목이다.
한미반도체는 TC 본더를 제작하는 업체다. 수직으로 쌓은 D램에 실리콘관통전극(TSV)이 지날 통로를 만든 후, 웨이퍼와 칩을 열·압착을 통해 적층할 때 TC 본더가 쓰인다. 2017년부터 한미반도체는 SK하이닉스와 ‘듀얼 TC 본더’를 공동 개발해 현재까지 공급 중이다.
한미반도체는 HBM 고객사를 다변화했다. 한미반도체는 지난 4월 10일부터 오는 7월 8일까지 마이크론에 226억 원 규모의 ‘듀얼 TC 본더 타이거’ 장비를 공급하는 계약을 맺었다고 공시했다. 마이크론은 그간 일본 도레이, 신카와 등에서 TC 본더를 조달해왔다. 삼성전자는 도레이와 네덜란드 베시 등에서 TC 본더를 조달하고 있다. 삼성전자가 TC 본더를 국산화하면 해외사 장비를 활용하는 것보다는 비용을 절감할 수 있다. 다만 삼성전자와 한미반도체는 특허와 관련해 법적 분쟁을 겪은 악연이 있다.
당초 반도체 업계에서는 6세대 HBM인 HBM4부터 하이브리드 본딩 기술이 도입될 것으로 전망했다. D램을 최대 16단까지 쌓아 올리면서도 HBM4의 최종 패키지 두께를 이전 세대들과 동일한 720um(마이크로미터)로 맞춰야 할 것으로 전망됐기 때문이다. 하이브리드 본딩 방식에서는 TC 본더가 아닌 하이브리드 본더가 필요하다. 한미반도체 입장에서는 달가운 변화가 아니다.
하이브리드 본딩은 범프 없이 칩과 칩을 직접 붙이는 방식이다. 구리 기둥과 납으로 된 마이크로범프를 활용해 칩을 붙이는 TC 본딩과는 차이가 있다. 범프가 없으면 칩과 칩 사이의 거리가 가까워져 신호 전송 속도가 빨라진다. 제품 두께도 줄일 수 있다.
지난 3월 국제반도체표준협의기구(JEDEC)는 HBM4 적층 높이 규격을 720um에서 775um로 완화하기로 했다. HBM 업체들이 HBM4 제품에서 하이브리드 본딩 기술로 무조건 전환해야 할 필요는 없어진 것이다. 박주영 KB증권 연구원은 리포트를 통해 “TC 본더 대장주인 한미반도체의 독주가 최소 2년 이상 지속될 전망”이라고 내다봤다.
다만 한미반도체가 완성도 높은 하이브리드 본더를 빨리 내놓아야 시장 지배력을 강화할 수 있을 것이란 전망이 나온다. 베시도 메모리 HBM용 하이브리드 본더 개발 경쟁에 뛰어들었다. 반도체 업계 다른 관계자는 “삼성전자든 SK하이닉스든 TC 본딩과 하이브리드 본딩 투트랙으로 HBM4를 개발 중”이라며 “HBM4 16단으로 가면 하이브리드 본딩 방식이 필요하다는 의견이 적지 않다. 원가·수율·성능 등을 종합적으로 평가해 하이브리드 본딩 기술이 적용될 것”이라고 했다.
엔비디아 AI 칩 독주 막아라…IT 공룡들 연합군 뜰까
엔비디아는 현재 AI 칩 시장을 독식하고 있다. 엔비디아는 그래픽처리장치(GPU)를 개발한다. 엔비디아는 원래 게임 속 이미지 데이터를 효과적으로 처리하기 위해 GPU 시장을 선점한 업체였다. AI 개발이 시작되면서 GPU는 AI 학습과 연산에 유리한 기술로 주목받았다. 복잡한 연산에 강해 명령어를 순서대로 처리하는 중앙처리장치(CPU)와 달리 대규모 작업을 한꺼번에 처리하는 GPU는 AI의 필수재가 됐다.
엔비디아가 AI 칩 생태계를 구축한 데는 GPU를 프로그래밍할 수 있는 언어 ‘쿠다(CUDA)’도 한몫했다. 엔비디아는 2006년 누적 100억 달러(약 13조 원)를 투입해 AI 개발 플랫폼 쿠다를 무료로 공개했다. 쿠다는 엔비디아 GPU에서만 작용할 수 있도록 했다. 개발자들은 쿠다를 활용해 프로그래밍했고, AI 분야 기업들은 엔비디아 GPU를 써왔다.
최근 시장에서는 엔비디아 독주를 저지하기 위한 움직임이 한창이다. 애플은 TSMC와 함께 추론용 AI 칩 개발에 나섰다. 마이크로소프트(MS), 알파벳(구글)·아마존·메타·테슬라도 자체 AI 칩 개발에 뛰어들었다. 인텔은 자체 AI 칩 ‘가우디’의 생태계를 강화하기 위해 네이버와 손을 잡았다. 네이버는 인텔의 가우디를 활용해 쿠다와 같은 AI 소프트웨어를 제작하기로 했다.
김명선 기자 seon@ilyo.co.kr