“요즘 AI 서버에 메모리가 부족하다는데, 그냥 RAM 더 꽂으면 안 돼요?”
개발자 친구에게 이렇게 물었더니 한숨을 쉬더라고요.
“그게 그렇게 간단하면 좋겠다. CPU가 처리할 수 있는 메모리 양에 물리적 한계가 있거든.”
이게 바로 **메모리 월(Memory Wall)** 문제입니다. 그리고 이 문제를 해결하기 위해 등장한 기술이 바로 오늘 이야기할 **CXL**입니다.
CXL(Compute Express Link)은 CPU, GPU, 메모리를 더 빠르고 효율적으로 연결해주는 차세대 인터페이스 표준입니다.
쉽게 비유하자면 이렇습니다:
기존 방식은 CPU라는 ‘도심’에서 메모리라는 ‘창고’까지 좁은 골목길로 연결된 것과 같았습니다. CXL은 이걸 고속도로로 바꿔주는 기술이에요. 더 많은 데이터를, 더 빠르게, 더 멀리서도 가져올 수 있게 됩니다.
CXL은 인텔, AMD, 삼성, SK하이닉스 등 IT 거인들이 모인 ‘CXL 컨소시엄’에서 만든 오픈 표준입니다. 특정 회사의 독점 기술이 아니라는 점이 중요해요.
GPT-4 같은 대형 언어 모델(LLM)을 돌리려면 얼마나 많은 메모리가 필요할까요?
| AI 모델 | 파라미터 수 | 필요 메모리 (추론 기준) |
|---|---|---|
| GPT-2 | 15억 개 | ~3GB |
| GPT-3 | 1,750억 개 | ~350GB |
| GPT-4 (비공식 추정) | ~1.7조 개 (MoE) | ~3TB 이상 |
문제는 일반적인 서버 CPU가 지원하는 메모리 용량이 한정되어 있다는 겁니다. 아무리 돈이 많아도 물리적으로 꽂을 수 있는 RAM 슬롯이 정해져 있거든요.
CPU 성능은 매년 빠르게 발전하는데, 메모리 속도는 그 속도를 따라가지 못합니다. 이 격차를 **’메모리 월’**이라고 부릅니다.
CPU: “나 1초에 100개 처리할 수 있어!”
메모리: “…근데 나는 1초에 50개밖에 못 보내는데?”
결과: CPU가 50% 시간을 메모리 기다리면서 놀고 있음
CXL은 이 문제를 해결합니다. 메모리 대역폭을 넓히고, 더 많은 메모리를 연결할 수 있게 해주거든요.
AI 붐으로 인해 고성능 메모리 수요가 폭발했습니다. 특히 HBM(High Bandwidth Memory)은 구하기가 하늘의 별 따기예요. 삼성과 SK하이닉스가 풀가동해도 수요를 못 따라가는 상황입니다.
CXL은 기존 DDR5 메모리를 활용하면서도 성능을 끌어올릴 수 있어서, 이런 공급 부족 상황에서 대안으로 주목받고 있습니다.
기술적으로 복잡하지만, 핵심만 짚어보겠습니다.
CXL은 기존 PCIe(컴퓨터 확장 슬롯 규격)를 기반으로 합니다. 완전히 새로운 하드웨어가 필요한 게 아니라, 기존 인프라를 활용할 수 있다는 뜻이에요.
| CXL 프로토콜 | 역할 | 쉬운 설명 |
|---|---|---|
| CXL.io | 장치 검색/설정 | “어떤 장치가 연결됐는지 파악” |
| CXL.cache | 캐시 일관성 | “여러 장치가 같은 데이터 볼 때 충돌 방지” |
| CXL.mem | 메모리 접근 | “외부 메모리를 내 메모리처럼 사용” |
가장 혁신적인 건 **CXL.mem**입니다. 이걸 통해 CPU는 멀리 떨어진 메모리도 마치 자기 바로 옆에 있는 것처럼 빠르게 접근할 수 있어요.
데이터센터에는 수천 대의 서버가 있습니다. 그런데 모든 서버가 항상 100% 메모리를 쓰진 않아요. 어떤 서버는 메모리가 남아돌고, 어떤 서버는 부족하고.
CXL의 **메모리 풀링** 기능을 쓰면?
각 서버에서 ‘놀고 있는’ 메모리를 한데 모아서, 필요한 서버에 실시간으로 할당하는 기술입니다. 마치 공유 오피스처럼 필요할 때만 쓰고, 안 쓸 때는 다른 사람이 쓸 수 있게 하는 거죠.
이렇게 하면 하이퍼스케일러(AWS, Google, MS 같은 대형 클라우드 업체)는 **서버 비용 4-5% 절감**(Microsoft 사례) 또는 **메모리 전력 소비 20-30% 감소**가 가능합니다. 압축 기술을 함께 적용하면 특정 시나리오에서 TCO를 최대 50%까지 줄일 수 있다는 연구 결과도 있습니다.
| 버전 | 출시 | 주요 특징 | 상용화 |
|---|---|---|---|
| CXL 1.0/1.1 | 2019년 | 기본 메모리 확장 | 제한적 |
| CXL 2.0 | 2020년 11월 | 메모리 풀링, 스위칭 | 2025년 양산 |
| CXL 3.0/3.1 | 2022년 8월/2023년 11월 | 패브릭 구성, 멀티호스트 | 2026년 확산 |
| CXL 4.0 | 2025년 11월 | PCIe 7.0 기반, 128GT/s | 2027년 예상 |
2025년이 CXL의 **변곡점**입니다. 그동안 ‘실험실 기술’이었던 CXL이 실제 데이터센터에 본격 배치되기 시작하는 해거든요.
| 연도 | 시장 규모 | 비고 |
|---|---|---|
| 2024년 | $12.6억 | 초기 시장 형성 |
| 2025년 | $16.9억 | 본격 상용화 시작 |
| 2029년 | $53.2억 | CAGR 33.7% 성장 |
연평균 **33%가 넘는 성장률**입니다. AI 인프라 투자가 계속되는 한 이 성장세는 유지될 전망이에요.
CXL 수혜주로는 메모리 제조사(삼성전자, SK하이닉스, 마이크론)와 함께 컨트롤러 칩 업체들이 주목받고 있습니다. 다만 아직 시장 초기인 만큼, 실적에 본격 반영되는 건 2026년 이후가 될 것으로 보입니다.
기술이 유망하다고 해서 만능은 아닙니다.
CXL은 메모리 **용량**을 늘리는 데 강점이 있지만, **대역폭**은 HBM에 비해 부족합니다. GPU가 필요로 하는 초고속 대역폭은 여전히 HBM 영역이에요.
| 구분 | CXL 메모리 | HBM3e |
|---|---|---|
| 강점 | 용량 확장, 유연성, 비용 | 초고대역폭 |
| 대역폭 | 36-60GB/s (현세대) | ~1.2TB/s |
| 주 용도 | 메모리 확장, 풀링 | AI 학습/추론 |
CXL과 HBM은 **경쟁이 아니라 보완 관계**입니다. 둘 다 필요해요.
2025년 현재, CXL은 “AI 구축의 기본 옵션”은 아닙니다. 대부분의 데이터센터는 아직 기존 방식을 쓰고 있어요. 본격적인 대중화는 2027년 이후로 예상됩니다.
정리하면 이렇습니다:
AI 시대에 “메모리가 부족하다”는 문제는 피할 수 없습니다. HBM이 대역폭을, CXL이 용량과 유연성을 해결하면서, 둘이 함께 AI 인프라의 양대 축이 될 전망입니다.
반도체 업계를 지켜보고 계시다면, CXL은 2025~2027년 사이에 꼭 주목해야 할 키워드입니다.
둘 다 필요합니다. HBM은 GPU에서 초고속 대역폭이 필요할 때, CXL은 CPU의 메모리 용량을 확장하고 여러 서버 간 메모리를 공유할 때 사용합니다. 경쟁이 아니라 보완 관계입니다.
삼성, SK하이닉스, 마이크론의 CXL 메모리 모듈은 2025년부터 양산 중입니다. 다만 개인용 PC가 아닌 데이터센터/서버용이며, 일반 소비자가 직접 구매할 제품은 아닙니다.
CXL은 메모리 반도체 업체들에게 새로운 성장 동력입니다. 다만 시장 규모가 아직 작아 2025년 실적에 큰 영향은 제한적이며, 2027년 이후 본격적인 실적 기여가 예상됩니다.
CXL 4.0 표준은 2025년 11월에 발표되었습니다. PCIe 7.0 기반으로 128GT/s 속도를 지원하며, 실제 제품 상용화는 2027년으로 예상됩니다.
Moonshot AI의 Kimi K2.5가 2026년 1월 27일 출시됐습니다. 1조 파라미터 MoE 모델, 100개 서브에이전트 Agent…
2026년 1월 28일 원달러 환율이 23.7원 급락한 배경을 분석합니다. 트럼프의 약달러 정책, 마러라고 합의 가능성,…
3일 만에 GitHub 스타 9천에서 8만으로 폭발한 Moltbot. Anthropic 상표권 문제로 Clawdbot에서 이름을 바꾼 이…
Claude Code가 개발자 세상을 뒤집었습니다. Google 엔지니어의 '1년 작업 1시간' 고백부터 무료 Antigravity의 등장까지, 2026년…
NVIDIA와 협력하는 로크웰, 250% 급등한 테라다인까지. AI가 공장을 접수하는 시대, 월가가 주목하는 스마트팩토리 관련주 5종목을…
Claude Code의 MCP Tool Search 기능으로 토큰 사용량을 85% 줄이는 방법을 알아봅니다. auto:N 설정, 작동…