마이크론의 역습…삼성전자·SK하이닉스 어떻게 추격했나
상태바
마이크론의 역습…삼성전자·SK하이닉스 어떻게 추격했나
  • 박대웅 기자
  • 승인 2024.06.18 17:27
  • 댓글 0
이 기사를 공유합니다

젠슨 황 HBM 3사 본격 경쟁 예고
마이크론 5세대 개발부터 승부수
삼성·SK, 기술 격차로 도전 맞불
삼성·SK 대비 마이크론, 생산 캐파 확대 여력 적어
마이크론테크놀로지 로고. 사진=연합뉴스

[오피니언뉴스=박대웅 기자] 현재 최첨단 메모리 반도체 고대역폭메모리(HBM) 시장에서 한국의 SK하이닉스(50%)와 삼성전자(40%)의 점유율은 90%에 이른다. 하지만 세계 D램 3위 마이크론테크놀로지(이하 마이크론)의 역습으로 이런 과점 상태에 균열이 예상된다. 특히 HBM 시장에서 존재감이 미미했던 마이크론이 SK하이닉스와 삼성전자보다 앞서 차세대 제품 양산 소식을 발표한데다 그래픽처리장치(GPU) 공급을 독점하는 업계 '큰 손' 엔비디아와 손을 잡으면서 향후 세 업체의 경쟁은 한층 더 뜨거워질 것으로 보인다. 후발 주자임에도 마이크론은 5세대(HBM3E) 제품 엔비디아 납품을 추진하는 등 영토 확장에 공을 들이고 있다. 엔비디아가 차세대 제품에 6세대 HBM 탑재를 예고한 만큼 SK하이닉스, 삼성전자 그리고 마이크론의 시장 주도 전쟁은 한층 더 격해질 것으로 전망된다. 

젠슨 황 엔비디아 CEO는 지난 3일 대만 타이베이서 열린 '컴퓨텍스 2024'서 삼성전자와 SK하이닉스, 마이크론 3사의 HBM 경쟁 가능성을 언급했다. 사진=연합뉴스

3사 경쟁 본격 예고한 젠슨 황

18일 업계의 말을 종합하면 젠슨 황 엔비디아 CEO는 지난 3일 대만 타이베이에서 열린 아시아 최대 IT박람회 '컴퓨텍스 2024'에서 자사 HBM 공급사로 SK하이닉스와 삼성전자, 마이크론 3사를 직접 언급했다. 젠슨 황 CEO은 "SK하이닉스, 삼성전자, 마이크론 3곳 모두 HBM을 우리에게 제공할 것"이라면서 "삼성전자와 마이크론이 최대한 이른 시일 안에 테스트를 통과하기 위해 노력하고 있다"고 전했다. 현재 5세대인 HBM3E는 SK하이닉스가 엔비디아에 납품 중이며 삼성전자와 마이크론은 테스트 통과를 기다리고 있다. 이런 상황에서 젠슨 황 CEO가 삼성전자와 마이크론의 테스트 통과 가능성을 지목해 향후 삼파전이 예상된다. 

업계에선 6세대 제품인 HBM4에서 3사 간 경쟁구도가 격화할 것으로 본다. 엔비디아는 올해 생산할 GPU '블랙웰'의 차기 버전인 '루빈'을 처음 공개했다. 해당 GPU엔 HBM4가 탑재된다. 현재 SK하이닉스와 삼성전자, 마이크론 모두 HBM4 양산을 계획하고 있다. 마이크론은 내년 상반기 샘플 공개를, 삼성전자와 SK하이닉스도 내년 중 양산할 것으로 보인다. 

마이크론은 후발 주자지만 공격적인 기술 개발로 입지를 넓혀가고 있다. 현재 10% 미만인 HBM 점유율을 2025년까지 30%까지 끌어올린다는 계획이다. 올해 초 실적 발표에서 마이크론은 "HBM3E에서 매출이 발생하기 시작했다"며 "2025년 HBM 생산량 대부분이 이미 판매 계약을 마쳤다"고 했다. 

마이크론은 생산라인 확대를 통해 삼성전자와 SK하이닉스를 추격하고 있다. 대만 타이중에 HBM 라인을 확충했고, 미국 아이다호 보이시와 뉴욕주 클레이, 일본 히로시마 등에도 HBM 공장 건립을 추진 중이다. 이를 위해 미국 정부와 일본 정부로부터 각각 8조4000억원과 1조7000억원의 보조금을 약속 받았다. 

인재 영입에도 속도를 내고 있다. 최근 SK하이닉스 HBM 핵심 개발자를 임원으로 영입한 사실이 알려져 논란이 되기도 했다. SK하이닉스는 마이크론으로 이직한 HBM 담당 연구원에 대해 전직금지 가처분 소송을 제기하며 기술 유출에 대한 강한 경계감을 보이기도 했다. 

삼성전자와 SK하이닉스(왼쪽)의 HBM. 사진=연합뉴스

마이크론의 승부수, 기술로 맞불 놓는 삼성·SK 

마이크론은 지난 2월 "HBM3E 대량생산을 시작했다"고 공식 선언했다. 현재 시장에서 가장 앞선 4세대 HBM3를 건너뛰고 곧바로 5세대 양산에 나선 것이다. HBM 시장에서 더 밀릴 수 없다는 현실적 판단이 작용했다는 분석이다. 마이크론은 HBM3E 생산을 위해 지난해 6월 대만 타이중에 신규 공장을 가동했고, 반도체 파운드리(위탁생산) 1위 TSMC와 협업해 약점으로 꼽히던 패키징 공정도 강화했다. 이런 자신감을 바탕으로 지난 3월에는 기존 HBM3E보다 우수한 36GB 12단 HBM3E 샘플도 고객사에 제공하겠다고 했다. 신제품을 지속해서 출시해 시장 파이를 키우겠다는 전략으로 읽힌다. 

삼성전자와 SK하이닉스는 기술로 맞불을 놓았다. 삼성전자는 지난 2월 업계 최대 용량인 36GB HBM3E 12단 적층 D램 개발에 성공했다고 밝혔다. SK하이닉스가 지난해 8월 세계 최초로 개발했고, 마이크론이 양산하겠다고 공언한 8단 HBM3E보다 4단을 더 쌓은 고용량이다. 

삼성전자 관계자는 "12단을 적용하면 8단보다 AI 학습 훈련에서 평균 34% 속도 향상이 가능하다"며 "데이터 처리량이 급증하는 상황에서 시장에 가장 적합한 제품"이라고 설명했다. 삼성전자는 HBM 적층을 16단까지 쌓아 올려 칩과 칩 사이 공간을 완전히 없앤 새로운 공정 개발 준비 중이다. 

SK하이닉스도 지난 3월 HBM3E 양산을 시작했고, 엔비디아에 공급했다. 업계 안팎에선 SK하이닉스가 이미 16단까지 개발에 성공했을 것으로 보고 있다. 김기태 SK하이닉스 HBM 세일즈&마케팅 부사장은 지난 2월 자사 뉴스룸에 "올해 HBM은 이미 완판됐다"며 "시장 선점을 위해 2025년을 준비하고 있다"고 밝혔다. 업계에선 2025년 주문도 이미 거의 찼을 것으로 추정한다. 

삼성전자 평택캠퍼스(왼쪽)와 SK하이닉스 이천공장 전경. 사진=연합뉴스

생산 능력 늘리는 삼성·SK, 마이크론은

지난 7일 시장조사업체 트렌드포스에 따르면 D램 시장에서 HBM이 차지하는 비중은 올해 20%, 내년 30% 이상을 차지할 것으로 내다봤다. HBM이 범용 D램 대비 6~7배 비싼 고부가 가치 제품임을 감안할 때 D램 제조사들의 HBM 경쟁은 더욱 치열해질 전망이다. 

HBM이 AI 반도체의 핵심으로 떠오르고 있는 만큼 D램 3사(SK하이닉스, 삼성전자, 마이크론)는 HBM 케파 확장에 공을 들이고 있다. 삼성전자의 경우 올해 말까지 기존 4만5000개 수준의 HBM 케파를 월 13만개로 확대하는 방안을 추진 중이다. SK하이닉스도 월 12만~12만5000개로 케파를 늘린다는 방침이다. 마이크론은 이들보다 못한 월 2만개 수준의 케파 확보에 주력하고 있다.

SK하이닉스는 업계 1위 수성에 적극 나서는 모습이다. 이미 지난 4월 청주 M15x 공장을 HBM 생산라인으로 건설하기 위해 공사를 시작했고, 내년 4분기 중 시험 가동을 거쳐 본격적인 양산을 예고했다. 팹(Fab·제조라인)건설에만 5조3000억원을 투입했고, 향후 가동까지 전체 투자금만 20조원에 달할 것으로 전망된다. 또 청주 HBM 라인은 이천 M16 사이트와 함께 오는 2027년 구축되는 SK하이닉스 용인 반도체 클러스터에 앞서 HBM 케파를 확대하는 핵심이 될 것으로 보인다. 용인 사이트가 구축된 이후 더 폭발적인 케파 확장도 가능할 것으로 보인다. 

최태원 SK그룹 회장은 지난달 2일 대한상의 기자간담회에서 "반도체 미세화가 상당히 어려워졌고, 공급을 늘리려면 더 건설하고 투자를 계속해야 한다"고 말했다. 

삼성전자도 모두 171조원 규모의 반도체 생산기지 구축을 진행하고 있다. 삼성 평택캠퍼스는 현재 가동 중인 라인 외에도 모두 7공장까지 확대할 수 있는 부지를 갖추고 있다. 삼성전자는 이미 구축된 라인을 HBM으로 전환해 케파를 늘리다 신규 라인을 세워 본격적인 생산 능력 확대를 이룰 수 있는 잠재력이 충분하다. 업계에선 생산라인 구축에 통상 2년여가 걸리지만 삼성전자와 같이 부지를 확보한 경우라면 행정절차 등이 발목을 잡지 않는다고 할 때 진행 속도는 더욱 빨라질 수 있다고 분석한다. 

반면 마이크론의 경우 SK하이닉스와 삼성전자와 같은 폭발적인 생산능력 확충에는 다소 시일이 걸릴 것으로 보인다. 업계 관계자는"마이크론이 그동안 적극적인 인수합병으로 인수부지 확보에 나서 왔다"면서도 "신축 중인 일본 히로시마와 미국 공장의 생산 기여는 2027년 이후에나 가능할 것"이라고 전망했다.

AI 업계 불 붙인 GPU

AI가 업계의 화두로 떠오른 건 엔비디아의 폭풍 성장이 직접적 계기가 돼서다. 엔비디아는 원래 비디오 게임 등 컴퓨터 그래픽 처리를 위해 개발된 GPU(Graphics Processing Unit)를 생산하는 업체였다. GPU는 대량의 데이터를 동시에 병렬로 처리할 수 있는 특징이 있다. 이를 통해 고성능 컴퓨팅 작업을 빠르게 처리할 수 있다. 하지만 가격이 비싼데다 많은 전력을 소비한다는 단점때문에 AI 열풍이 불기 이전까지 주로 게임 그래픽 처리 등에 쓰였다. 

그러다 엄청난 컴퓨터 능력을 필요하는 AI 개발 수요가 폭발적으로 늘어나면서 GPU 수요도 폭증했다. 문제는 GPU를 생산할 수 있는 기업이 사실상 엔비디아 뿐이었다는 점이다. 엔비디아는 경쟁 업체인 AMD 등이 CPU(중앙처리장치) 등으로 한눈을 파는 동안 GPU 성능 개발에만 매달렸다. 특히 자체 개발한 프로그래밍 언어 '쿠다'는 엔비디아를 시장 지배적 사업자로 만든 일등공신이다. AI가 제 기능을 하기 위해선 사람이 주는 과제를 GPU가 제대로 이해해야 하는데 이를 위해 엔비디아는 '쿠다'를 개발했다. 쿠다는 AI 프로그래머의 기본 언어가 됐고, 쿠다 없이는 AI 프로그래밍이 번거러운 상황이 됐다. 

HBM(고대역폭 메모리)

AI가 시행착오를 거치며 학습하려면 연산 속도만큼 빠르게 데이터를 저장하고 뽑아 쓸 수 있는 반도체가 필요하다. 이것이 HBM은 'High Bandwidth Memory'이다. 아무리 많은 용량을 저장하더라도 GPU의 연산 속도를 쫓아갈만큼 GPU에 빠르게 데이터를 전달하지 못하면 일종의 '병목 현상'이 발생한다. HBM은 이 문제를 해결하는 해결사다. HBM은 D램을 여러 개 쌓아 속도를 높이면서 전력 소비를 줄인 고성능 메모리 반도체다. 대량의 정보를 한꺼번에 빠르게 처리할 수 있어 AI 반도체의 핵심이자 '심장'이라는 평가를 받는다. SK하이닉스가 2013년 처음 개발했다. 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
0 / 400
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.