안녕하세요, 이번 포스팅에서는 요즘 뜨는 반도체인 HBM(High Bandwidth Memory, 고대역폭 메모리)에 대해 자세히 알아보겠습니다.
1. HBM이란?
HBM을 이해하기 위해서는 통신사에서 주로 사용하는 개념인 대역(Bandwidth)을 알아야 합니다. 대역폭은 데이터 속도와 관련이 있습니다. 도로에 비유해 좀 더 쉽게 설명해보겠습니다.
녹색 신호가 켜지면 한 차선에서 10대의 차가 지나갈 수 있다고 가정해보겠습니다. 2차선 도로라면 신호 한 번에 20대의 차가, 5차선 도로라면 50대의 차가 지나갈 수 있겠네요. 또, 100대의 차가 빠져나가려면 2차선에서는 5번의 신호가 필요하고, 5차선에서는 2번의 신호가 필요합니다.
정리하면, 차선이 많을수록 신호 한 번에 더 많은 차량이 지나갈 수 있고, 같은 수의 차량이 차선을 통과하는 데 걸리는 시간도 짧아집니다. 여기서 차량의 수를 데이터의 양, 차선의 개수를 대역폭이라고 생각하면 이해가 쉽습니다. 대역폭이 넓을수록 한 번의 신호에 더 많은 데이터를 전달할 수 있고, 같은 양의 데이터를 전달하는 데도 그만큼 시간이 짧게 소요됩니다.
다시 반도체로 돌아와보겠습니다. 컴퓨터가 빠르게 동작한다는 것은 CPU(Central Processing Unit, 중앙처리장치)나 GPU(Graphics Processing Unit, 그래픽처리장치) 같은 시스템 반도체의 속도가 빠르다는 것도 있겠지만, 시스템 반도체와 메모리 반도체 사이에서 데이터가 빠르게 전달되는 것을 의미합니다. 즉, 컴퓨터의 속도를 높이려면 데이터의 이동 속도를 높여주어야 합니다. 방법은 크게 두 가지가 있습니다.
먼저, 시스템 반도체와 메모리 반도체를 가까이 배치하는 방법입니다. 물리적인 거리가 가까우면(차선이 짧으면) 그만큼 데이터를 빠르게 전달할 수 있겠죠? 이러한 방법을 니어 메모리(Near Memory)라고 합니다.
또 다른 방법으로는 데이터의 입출력 속도를 증가시키는 것이 있습니다. 입출력 속도는 두 가지 방법으로 증가시킬 수 있습니다. 첫 번째는 메모리의 동작 속도를 높이는 것입니다. 메모리는 클럭(Clock) 신호에 맞춰 데이터를 주고받습니다. 같은 시간에 클럭 신호를 더 자주 준다면 더 많은 양의 데이터를 주고받을 수 있겠죠. 이는 위 도로 예시에서 녹색 신호를 더 자주 주는 것 과도 같습니다.
두 번째는 입출력 신호가 지나다니는 통로인 입출력 단자의 수를 증가시키는 방법입니다. 위 예시에서 더 많은 차선을 만들어 통행량을 늘리는 것과 같은 개념이죠. 그리고 이 방법을 사용한 메모리 반도체가 바로 HBM입니다.
메모리 반도체, 그중에서도 상대적으로 빠른 속도를 갖춘 DRAM(D램)을 수직으로 쌓으면 많은 수의 입출력 단자를 확보할 수 있습니다. HBM은 이 방식으로 제작된 메모리 반도체를 말하며, 이 같은 이점을 제대로 활용하기 위해 보통은 CPU나 GPU로부터 물리적으로 가까운 거리에 HBM을 배치합니다.
2. 최근 HBM에 주목하는 이유
HBM의 필요성이 대두된 것은 2008년입니다. 당시 고성능 게임과 고화질 영상 처리에 대한 수요가 폭발적으로 증가했는데, 메모리 반도체의 속도가 이를 따라가지 못하고 있었습니다. 대역폭을 늘리기 위해 더 많은 메모리 반도체를 GPU 주변에 붙이는 방법이 거론이 되었으나 물리적인 공간이 부족하다는 문제가 있었죠.
PC에는 메인보드, CPU, GPU, 메모리, 파워 등이 들어갑니다. 그리고 이들의 크기는 대부분 규격화되어 있습니다. 대역폭을 늘리기 위해 GPU 주변에 더 많은 메모리 반도체를 탑재하면 그만큼의 공간이 더 필요하고, 소비 전력 역시 늘어나므로 이를 위한 전원 회로와 부품 공간이 추가로 있어야 합니다. 하지만 PC의 공간은 한정적이었고, 추가 공간을 확보하는 건 사실상 불가능에 가까웠죠.
이 같은 문제를 해결할 수 있는 방법을 고민하던 하이닉스(현 SK하이닉스)는 미국의 CPU∙GPU 제조사인 AMD와 손을 잡고 HBM의 공동 개발에 착수합니다. 그 결과, 2013년 표준화에 성공하죠. 그러나 처음부터 HBM이 인기가 있었던 것은 아닙니다. HBM이 본격적으로 주목받기 시작한 것은 2016년, 바둑 AI 알파고(AlphaGo)가 등장하고 난 이후입니다. 더 정확하게는 사람과 겨룬 대국에서 알파고가 큰 승리를 거둔 이후이죠.
알파고 전까지 바둑 게임에서 AI의 활약은 부진했습니다. 예측해야 하는 국면의 수가 어마어마하게 많은데 당시의 AI 연산 처리 속도는 그만큼 빠르지 못했기 때문입니다. 하지만 알파고는 서버 컴퓨터 300대를 병렬로 연결해 슈퍼컴퓨터를 만들고, CPU 1,200여 개, GPU 200여 개 그리고 D램 약 3테라바이트(TB)를 사용해 연산 처리 속도를 높였고(추측), 그 결과 인간을 상대로 한 바둑에서 승리를 거둘 수 있었습니다.
이때부터 반도체∙컴퓨팅 분야에 종사하던 사람들은 빠른 연산 처리에 관심을 갖기 시작합니다. 빠른 연산처리가 가능해지면, 알파고가 그랬던 것처럼 엄청난 일들을 할 수 있을 것이란 생각이 든 것이죠. 그리고 이들의 눈에 들어온 메모리 반도체가 바로 HBM입니다.
오늘날의 AI는 과거보다 훨씬 다양한 데이터를 받아들이고 연산합니다. 예를 들어, 자율주행 자동차는 목적지까지 안전하게 운전하기 위해 차량 곳곳에 설치된 카메라와 센서를 이용해 정보를 수집한 후, 이를 실시간으로 처리하죠. 정형화된 곳에서 이루어지는 바둑 경기와는 차원이 다른 수준입니다. 이처럼 엄청난 양의 데이터를 불러들이고, 연산을 통해 패턴을 파악하고, 이 모든 것을 실시간으로 처리하기 위해서는 메모리의 속도가 받쳐줘야 합니다. 시장에서 HBM이 주목받는 것은 어찌 보면 당연한 일이라고 할 수 있죠.
2022년에 약 50조 원의 규모였던 생성형 AI 시장은 2032년에 약 1,600조 원 이상의 규모로 성장할 것으로 전망되고 있습니다. 생성형 AI를 구현하는 데 반드시 필요한 반도체, HBM의 활약이 더욱 기대되네요!
오늘 글이 도움이 되셨나요?
반도체 산업의 큰 그림과 핵심 개념을 좀 더 공부하고 싶은 분들은 <진짜 하루만에 이해하는 반도체 산업> 책을 꼭 읽어보세요. 강력 추천합니다.
'책 소개 > 진짜 하루만에 이해하는 반도체 산업' 카테고리의 다른 글
출간 이후 업데이트되는 반도체 지식 확인하기 (0) | 2024.05.23 |
---|