📌 3줄 요약
- CXL은 CPU와 메모리를 더 효율적으로 연결하는 차세대 인터페이스 기술입니다
- AI 시대에 폭발적으로 늘어난 메모리 수요를 해결할 핵심 기술로 주목받고 있습니다
- 2025년부터 본격 상용화, 시장 규모는 2029년까지 연평균 33% 이상 성장 전망입니다
“요즘 AI 서버에 메모리가 부족하다는데, 그냥 RAM 더 꽂으면 안 돼요?”
개발자 친구에게 이렇게 물었더니 한숨을 쉬더라고요.
“그게 그렇게 간단하면 좋겠다. CPU가 처리할 수 있는 메모리 양에 물리적 한계가 있거든.”
이게 바로 **메모리 월(Memory Wall)** 문제입니다. 그리고 이 문제를 해결하기 위해 등장한 기술이 바로 오늘 이야기할 **CXL**입니다.
CXL이란? 한 문장으로 정리
CXL(Compute Express Link)은 CPU, GPU, 메모리를 더 빠르고 효율적으로 연결해주는 차세대 인터페이스 표준입니다.
쉽게 비유하자면 이렇습니다:
💡 CXL을 도로에 비유하면
기존 방식은 CPU라는 ‘도심’에서 메모리라는 ‘창고’까지 좁은 골목길로 연결된 것과 같았습니다. CXL은 이걸 고속도로로 바꿔주는 기술이에요. 더 많은 데이터를, 더 빠르게, 더 멀리서도 가져올 수 있게 됩니다.
CXL은 인텔, AMD, 삼성, SK하이닉스 등 IT 거인들이 모인 ‘CXL 컨소시엄’에서 만든 오픈 표준입니다. 특정 회사의 독점 기술이 아니라는 점이 중요해요.
왜 지금 CXL이 주목받나?
1. AI가 메모리를 미친듯이 먹어치운다
GPT-4 같은 대형 언어 모델(LLM)을 돌리려면 얼마나 많은 메모리가 필요할까요?
| AI 모델 | 파라미터 수 | 필요 메모리 (추론 기준) |
|---|---|---|
| GPT-2 | 15억 개 | ~3GB |
| GPT-3 | 1,750억 개 | ~350GB |
| GPT-4 (비공식 추정) | ~1.7조 개 (MoE) | ~3TB 이상 |
문제는 일반적인 서버 CPU가 지원하는 메모리 용량이 한정되어 있다는 겁니다. 아무리 돈이 많아도 물리적으로 꽂을 수 있는 RAM 슬롯이 정해져 있거든요.
2. 기존 방식의 한계: 메모리 월(Memory Wall)
CPU 성능은 매년 빠르게 발전하는데, 메모리 속도는 그 속도를 따라가지 못합니다. 이 격차를 **’메모리 월’**이라고 부릅니다.
⚠️ 메모리 월 문제
CPU: “나 1초에 100개 처리할 수 있어!”
메모리: “…근데 나는 1초에 50개밖에 못 보내는데?”
결과: CPU가 50% 시간을 메모리 기다리면서 놀고 있음
CXL은 이 문제를 해결합니다. 메모리 대역폭을 넓히고, 더 많은 메모리를 연결할 수 있게 해주거든요.
3. DRAM 품귀 현상
AI 붐으로 인해 고성능 메모리 수요가 폭발했습니다. 특히 HBM(High Bandwidth Memory)은 구하기가 하늘의 별 따기예요. 삼성과 SK하이닉스가 풀가동해도 수요를 못 따라가는 상황입니다.
CXL은 기존 DDR5 메모리를 활용하면서도 성능을 끌어올릴 수 있어서, 이런 공급 부족 상황에서 대안으로 주목받고 있습니다.
CXL은 어떻게 작동하나?
기술적으로 복잡하지만, 핵심만 짚어보겠습니다.
PCIe 위에서 돌아가는 새로운 프로토콜
CXL은 기존 PCIe(컴퓨터 확장 슬롯 규격)를 기반으로 합니다. 완전히 새로운 하드웨어가 필요한 게 아니라, 기존 인프라를 활용할 수 있다는 뜻이에요.
| CXL 프로토콜 | 역할 | 쉬운 설명 |
|---|---|---|
| CXL.io | 장치 검색/설정 | “어떤 장치가 연결됐는지 파악” |
| CXL.cache | 캐시 일관성 | “여러 장치가 같은 데이터 볼 때 충돌 방지” |
| CXL.mem | 메모리 접근 | “외부 메모리를 내 메모리처럼 사용” |
가장 혁신적인 건 **CXL.mem**입니다. 이걸 통해 CPU는 멀리 떨어진 메모리도 마치 자기 바로 옆에 있는 것처럼 빠르게 접근할 수 있어요.
메모리 풀링: 낭비 없는 메모리 공유
데이터센터에는 수천 대의 서버가 있습니다. 그런데 모든 서버가 항상 100% 메모리를 쓰진 않아요. 어떤 서버는 메모리가 남아돌고, 어떤 서버는 부족하고.
CXL의 **메모리 풀링** 기능을 쓰면?
💡 메모리 풀링이란
각 서버에서 ‘놀고 있는’ 메모리를 한데 모아서, 필요한 서버에 실시간으로 할당하는 기술입니다. 마치 공유 오피스처럼 필요할 때만 쓰고, 안 쓸 때는 다른 사람이 쓸 수 있게 하는 거죠.
이렇게 하면 하이퍼스케일러(AWS, Google, MS 같은 대형 클라우드 업체)는 **서버 비용 4-5% 절감**(Microsoft 사례) 또는 **메모리 전력 소비 20-30% 감소**가 가능합니다. 압축 기술을 함께 적용하면 특정 시나리오에서 TCO를 최대 50%까지 줄일 수 있다는 연구 결과도 있습니다.
CXL 버전별 발전 과정
| 버전 | 출시 | 주요 특징 | 상용화 |
|---|---|---|---|
| CXL 1.0/1.1 | 2019년 | 기본 메모리 확장 | 제한적 |
| CXL 2.0 | 2020년 11월 | 메모리 풀링, 스위칭 | 2025년 양산 |
| CXL 3.0/3.1 | 2022년 8월/2023년 11월 | 패브릭 구성, 멀티호스트 | 2026년 확산 |
| CXL 4.0 | 2025년 11월 | PCIe 7.0 기반, 128GT/s | 2027년 예상 |
2025년이 CXL의 **변곡점**입니다. 그동안 ‘실험실 기술’이었던 CXL이 실제 데이터센터에 본격 배치되기 시작하는 해거든요.
CXL 시장 전망: 숫자로 보기
| 연도 | 시장 규모 | 비고 |
|---|---|---|
| 2024년 | $12.6억 | 초기 시장 형성 |
| 2025년 | $16.9억 | 본격 상용화 시작 |
| 2029년 | $53.2억 | CAGR 33.7% 성장 |
연평균 **33%가 넘는 성장률**입니다. AI 인프라 투자가 계속되는 한 이 성장세는 유지될 전망이에요.
주요 플레이어: 누가 CXL을 만드나?
메모리 제조사
- 삼성전자: CMM-D(CXL Memory Module)로 비-CXL 서버 대비 대역폭 80-100% 향상, 용량 50-75% 확장
- SK하이닉스: DDR5 기반 CXL 메모리 개발, 생태계 확장 주도
- 마이크론: CZ120 CXL 메모리 모듈 출시
CPU 제조사
- 인텔: ‘Diamond Rapids’ 제온 프로세서에 CXL 3.0 및 PCIe 6.0 통합
- AMD: ‘Turin’ EPYC 프로세서에 CXL 1.0 지원 (Type 1/2/3 장치)
컨트롤러/스위치
- Montage Technology: M88MX6852 컨트롤러 – 2026년 배치의 핵심
- Marvell, XConn: CXL 스위치 솔루션
💡 투자 관점에서
CXL 수혜주로는 메모리 제조사(삼성전자, SK하이닉스, 마이크론)와 함께 컨트롤러 칩 업체들이 주목받고 있습니다. 다만 아직 시장 초기인 만큼, 실적에 본격 반영되는 건 2026년 이후가 될 것으로 보입니다.
CXL의 한계: 알아둘 점
기술이 유망하다고 해서 만능은 아닙니다.
❌ HBM을 대체하진 못한다
CXL은 메모리 **용량**을 늘리는 데 강점이 있지만, **대역폭**은 HBM에 비해 부족합니다. GPU가 필요로 하는 초고속 대역폭은 여전히 HBM 영역이에요.
| 구분 | CXL 메모리 | HBM3e |
|---|---|---|
| 강점 | 용량 확장, 유연성, 비용 | 초고대역폭 |
| 대역폭 | 36-60GB/s (현세대) | ~1.2TB/s |
| 주 용도 | 메모리 확장, 풀링 | AI 학습/추론 |
CXL과 HBM은 **경쟁이 아니라 보완 관계**입니다. 둘 다 필요해요.
❌ 아직은 초기 시장
2025년 현재, CXL은 “AI 구축의 기본 옵션”은 아닙니다. 대부분의 데이터센터는 아직 기존 방식을 쓰고 있어요. 본격적인 대중화는 2027년 이후로 예상됩니다.
✅ CXL 장점
- 메모리 용량 대폭 확장 가능
- 기존 PCIe 인프라 그대로 활용
- 메모리 풀링으로 TCO 절감
- 오픈 표준으로 벤더 종속 없음
❌ CXL 단점
- HBM 대비 대역폭 부족
- 2025년 기준 아직 초기 시장
- 에코시스템 성숙도 부족
- 본격 대중화는 2027년 이후
마무리: CXL, 주목해야 하는 이유
정리하면 이렇습니다:
📌 핵심 정리
- CXL은 CPU와 메모리 사이의 병목을 해결하는 차세대 인터페이스
- AI 시대의 폭발적인 메모리 수요를 해결할 핵심 기술
- 2025년 본격 상용화, 2029년까지 시장 규모 4배 이상 성장 전망
- 삼성, SK하이닉스 등 한국 기업이 핵심 플레이어
AI 시대에 “메모리가 부족하다”는 문제는 피할 수 없습니다. HBM이 대역폭을, CXL이 용량과 유연성을 해결하면서, 둘이 함께 AI 인프라의 양대 축이 될 전망입니다.
반도체 업계를 지켜보고 계시다면, CXL은 2025~2027년 사이에 꼭 주목해야 할 키워드입니다.
자주 묻는 질문 (FAQ)
Q. CXL과 HBM 중 뭘 써야 하나요?
둘 다 필요합니다. HBM은 GPU에서 초고속 대역폭이 필요할 때, CXL은 CPU의 메모리 용량을 확장하고 여러 서버 간 메모리를 공유할 때 사용합니다. 경쟁이 아니라 보완 관계입니다.
Q. CXL 메모리는 언제부터 살 수 있나요?
삼성, SK하이닉스, 마이크론의 CXL 메모리 모듈은 2025년부터 양산 중입니다. 다만 개인용 PC가 아닌 데이터센터/서버용이며, 일반 소비자가 직접 구매할 제품은 아닙니다.
Q. 삼성전자/SK하이닉스 주식에 영향이 있나요?
CXL은 메모리 반도체 업체들에게 새로운 성장 동력입니다. 다만 시장 규모가 아직 작아 2025년 실적에 큰 영향은 제한적이며, 2027년 이후 본격적인 실적 기여가 예상됩니다.
Q. CXL 4.0은 언제 나오나요?
CXL 4.0 표준은 2025년 11월에 발표되었습니다. PCIe 7.0 기반으로 128GT/s 속도를 지원하며, 실제 제품 상용화는 2027년으로 예상됩니다.