AIDC 산업 분석 파트 3: 중국 AIDC — 같은 붐, 완전히 다른 조건
AIDC 산업 분석 파트 3: 중국 AIDC
같은 붐, 완전히 다른 조건 2026-04-08 | 기존 KC 심층분석 + 실시간 웹 데이터 + 칩 성능 실측치 교차검증
핵심 요약
- 중국 AI 데이터센터 투자는 2026년 $700억+(골드만삭스). 미국과 규모는 비슷해지는데, 쓸 수 있는 칩이 다르다
- 미국이 수출을 막은 건 H100/B200 같은 최고급 칩. 중국이 합법적으로 쓸 수 있는 건 H20(성능 15% 수준)과 화웨이 Ascend 910C(60% 수준)
- 놀라운 건, 이 약한 칩으로도 DeepSeek·MiMo 같은 세계 수준 AI를 만들고 있다는 점. 소프트웨어 효율로 하드웨어 격차를 상당 부분 보완
- 킹소프트클라우드(KC)는 P/S 0.42x로 보이지만 실제 IR 기준 ~3.0x. 샤오미 AI 생태계의 유일한 인프라 파트너라는 위치가 핵심
- 2026년 GAAP 흑자 전환 여부와 AI 빌링 분기 10억 위안 돌파가 리레이팅의 열쇠
1. GPU 수출 통제의 실질적 영향
1-1. 뭘 못 쓰고, 뭘 쓰고 있나
미국의 GPU 수출 규제는 2022년 10월에 시작돼 여러 차례 강화·완화를 반복했다. 2026년 4월 현재 상황:
| 칩 | 중국 수출 상태 | 비고 |
|---|---|---|
| A100 / H100 | 금지 (2022.10~) | 최초 규제 대상, 완전 차단 |
| H800 / A800 | 금지 (2023.10~) | 중국 전용 약화 버전도 추가 차단 |
| H20 | 판매 중 (2025.07 재개) | 2025.04 일시 금지 → 7월 해제. 유일한 합법 고성능 칩 |
| H200 | 조건부 허용 (25% 관세) | 트럼프 행정부가 89만 개 접근 허가 |
| B100 / B200 / GB200 | 완전 차단 | 최신 블랙웰 세대 전면 금지 유지 |
바이든 → 트럼프로 바뀌면서 생긴 변화가 크다. 바이든은 H20까지 봉쇄하려 했지만(AI 확산 규칙), 트럼프는 2025년 5월 이걸 폐기했다. NVIDIA 젠슨 황의 로비로 H200까지 1년 한시 허용. 결과적으로 중국 기업들에 숨통이 트였다.
그러나 핵심은 변하지 않았다: 학습에 필요한 최고급 칩(H100, B200)은 여전히 못 쓴다.
1-2. H20 — 약한데 쓸모 있는 칩
H20은 NVIDIA가 수출 규제를 우회하기 위해 의도적으로 연산 성능을 낮춘 칩이다.
| 항목 | H20 | H100 | H20/H100 비율 |
|---|---|---|---|
| FP16 연산 | 148 TFLOPS | 989 TFLOPS | 15% |
| INT8 연산 | 296 TOPS | 1,979 TOPS | 15% |
| HBM 용량 | 96GB | 80GB | 120% |
| HBM 대역폭 | 4.0 TB/s | 3.35 TB/s | 119% |
| 전력 | ~400W | 700W | 57% |
숫자만 보면 H100의 15%짜리 칩인데, 역설적 강점이 있다. 메모리 용량과 대역폭이 H100보다 20% 높다. AI 추론(챗봇 응답 생성, API 서빙)은 연산보다 메모리에 병목이 걸리는 작업이라, 추론 워크로드에서 H20이 H100보다 약 20% 빠르다는 SemiAnalysis 분석이 있다.
이것이 중국 AI 기업들이 H20을 추론 서비스에 적극 활용하는 이유다. 학습에는 쓸 수 없지만, 추론에는 오히려 가성비가 좋다. 2024년 한 해에만 약 100만 개가 중국에 판매됐다.
1-3. 화웨이 Ascend — 국산 칩의 현주소
화웨이가 만든 AI 칩은 중국의 GPU 자급자족 전략의 핵심이다.
Ascend 910B (현재 주력)
| 항목 | Ascend 910B | H100 | 비교 |
|---|---|---|---|
| 공정 | SMIC 7nm | TSMC 4nm | 2세대 뒤 |
| FP16 | ~320 TFLOPS | 989 TFLOPS | ~32% |
| HBM | 64GB HBM2E | 80GB HBM3 | 80% |
| 메모리 대역폭 | 2.0 TB/s | 3.35 TB/s | 60% |
| 전력 | 400W | 700W | 57% |
| 2025년 출하 | ~30만 장 | — | — |
| 가격 | H100 대비 30~40% 저렴 | 기준 | — |
910B는 NVIDIA A100급 성능으로 평가된다. 추론 작업에서는 실용적이지만, 1조 파라미터 이상 모델 훈련에는 안정성과 속도가 부족하다.
Ascend 910C (차세대)
| 항목 | Ascend 910C | H100 | 비교 |
|---|---|---|---|
| 구조 | 910B 다이 2개 패키징 (듀얼칩릿) | 단일 다이 | — |
| BF16 | ~781 TFLOPS (CloudMatrix 역산) | 989 TFLOPS | ~79% |
| 추론 성능 | H100의 약 60% (DeepSeek 실측) | 기준 | 60% |
| HBM | 128GB HBM3 | 80GB HBM3e | 160% |
| 전력 | 310~350W | 700W | ~50% |
| 수율 | 30~40% | >90% | 핵심 병목 |
DeepSeek가 직접 테스트한 결과: "910C의 추론 성능은 H100의 약 60%." TrendForce도 60~70%로 평가.
910C의 최대 문제는 수율이다. 중국 SMIC의 7nm급 공정으로 만들다 보니 수율이 30~40%에 불과. 양산 기준(60~70%)에 한참 미달. 그리고 HBM 칩도 중국 CXMT 생산량이 연간 25~30만 개 910C분에 불과해, 수율과 HBM 이중 병목에 걸려있다.
CloudMatrix 384 — 숫자로 이기는 전략
화웨이의 해법은 명쾌하다: 단일 칩이 못 이기면, 수백 개를 묶어서 이기자.
| 항목 | CloudMatrix 384 | NVIDIA GB200 NVL72 | 비교 |
|---|---|---|---|
| 칩 수 | Ascend 910C 384개 | GB200 72개 | 5.3배 |
| BF16 연산 | 300 PFLOPS | 180 PFLOPS | 1.7배 |
| HBM 총량 | 49.2TB | 13.8TB | 3.6배 |
| 인터커넥트 대역폭 | 12,209 TB/s | 576 TB/s | 21배 |
| 전력 | 3.9배 | 기준 | — |
| 비용 | ~$800만 | ~$300만 | 2.7배 |
시스템 총 연산량은 GB200 NVL72의 1.7배, 메모리는 3.6배. 하지만 칩을 5.3배 써야 하므로 전력 3.9배, 비용 2.7배. 소프트웨어(CANN/MindSpore)가 CUDA만큼 성숙하지 않아 실제 활용 효율은 수치보다 낮다.
2026년 말 예정인 Atlas 950 SuperPoD은 8,192개 Ascend를 연결해 NVL144 대비 6.7배 컴퓨팅을 목표로 한다.
기타 중국 AI 칩
| 칩 | 개발사 | 성능 수준 | 2025 출하 | 비고 |
|---|---|---|---|---|
| 쿤룬 P800 | 바이두 | A100급 (FP16 345 TFLOPS) | 11.6만 장 | 3만 개 클러스터 운영 중 |
| T-Head | 알리바바 | H100급 주장 (40% 저비용) | 26.5만 장 | 국산 칩 출하 2위 |
| Siyuan 590 | 캠브리콘 | A100의 80% | 11.6만 장 | 정부 프로젝트 중심 |
| MLU 시리즈 | 캠브리콘 | A100 이하 | — | 점유율 4→9% 확대 |
| MTTS 4000 | 무어 스레드 | A100 미만 | — | 2025.12 STAR 시장 상장 |
| Xiyun C600 | MetaX | A100~H100 사이 | — | 2026 상반기 양산 예정 |
2025년 국산 칩 전체 출하: 약 165만 장 (같은 기간 NVIDIA 중국 판매 ~220만 장 대비) - 화웨이 81.2만 장 (국산의 49%, 시장 점유율 ~50% 전망) - 알리바바 T-Head 26.5만 장 (16%) - 바이두 쿤룬 11.6만 장 (7%) - 캠브리콘 11.6만 장 (7%)
1-4. 이 격차가 AI 경쟁력에 미치는 영향
절대 하드웨어 격차 — 벌어지고 있다
| 지표 | 미국 | 중국 |
|---|---|---|
| 전세계 GPU 클러스터 성능 | 75% | 15% |
| 하이퍼스케일 DC 비중 | 54% | 16% |
| 최신 세대 단일 칩 성능 차 | GB200 기준 | Ascend 910C = H100의 60%, GB200 대비 ~17배 격차 |
| 반도체 제조 격차 | TSMC 4nm/3nm | SMIC 7nm급 — 10~15년 뒤 (ASML CEO 발언) |
CFR(외교관계위원회) 분석에 따르면, 미국 최고 칩과 중국 최고 칩의 성능 차는 현재 약 5배, 2027년에는 17배로 확대될 전망.
AI 모델 성능 격차 — 좁혀지고 있다
하드웨어는 벌어지는데 놀랍게도 AI 모델 성능은 좁혀지고 있다:
- 2024년 1월: 미-중 최상위 모델 벤치마크 점수 차 103점
- 2025년 2월: 점수 차 23점으로 축소
- DeepSeek R1: H800 클러스터(규제 전 비축분)로 GPT-4 수준 달성. 학습 비용 미국의 1/6~1/4
- MiMo-V2-Pro: Claude Sonnet 4.6급 성능을 1/5 가격에 달성. 벤치마크 비용 $348 (GPT-5.2는 $2,304)
비결은 소프트웨어 효율이다. MoE(Mixture of Experts) 아키텍처, 어텐션 최적화, 적은 칩으로 더 많은 성능을 짜내는 기법이 급진전했다. 알리바바는 국산+외산 칩 혼합 학습 기법까지 개발 중.
소프트웨어 생태계 격차 — 가장 깊은 해자
NVIDIA의 진짜 경쟁력은 칩 성능이 아니라 CUDA 생태계다.
- CUDA: 개발자 수백만 명, 20년 축적된 라이브러리, 모든 AI 프레임워크와 통합
- 화웨이 CANN/MindSpore: 성장 중이지만 CUDA 대비 성숙도 크게 부족
개발자가 CUDA에서 CANN으로 전환하는 비용이 높아, 국산 칩의 하드웨어 성능이 올라와도 실 활용도는 스펙 대비 낮다. DeepSeek가 R2 모델을 화웨이 Ascend로 학습하려다 반복적 하드웨어 오류로 실패하고 NVIDIA 칩으로 복귀한 사례가 이를 증명한다. 결국 Ascend는 추론에만 활용.
밀수 경로 — 규제의 허점
규제를 우회하는 밀수도 상당하다:
- 2026년 3월: 슈퍼마이크로 서버 밀수 기소. 2025년 45일간 $5.1억 규모 H100/A100 탑재 서버가 말레이시아·싱가포르 경유로 중국 반입
- 2025년 11월: 앨라배마 밀수단. A100 400개 중국 반입 성공
- 싱가포르 Megaspeed: 전직 중국 게임회사 연계. NVIDIA 최대 동남아 고객이었으나 사무소가 텅 빈 페이퍼 컴퍼니
- DIGITIMES 추정: 2025년 3개월간 약 $10억 규모 NVIDIA 칩이 비공식 경로로 중국 유입
해외 우회 학습도 있다. 알리바바·바이트댄스는 싱가포르·말레이시아 데이터센터를 임차해 H100/A100으로 모델 학습. 트럼프 행정부가 해당 조항을 철회해 사실상 허용 상태.
1-5. 종합 — 칩 격차의 의미
| 관점 | 현실 |
|---|---|
| 하드웨어 절대 성능 | 뒤처짐. 격차 확대 중 |
| 소프트웨어/알고리즘 효율 | 빠르게 따라붙는 중. DeepSeek이 증거 |
| 생산 독립성 (장기) | 취약. EUV 없이는 구조적 한계 |
| 단기 AI 모델 수준 | 미국과 경쟁 가능한 수준 유지 |
| 추론 인프라 | H20 + Ascend로 상용 서비스 가능. 학습만 제약 |
중국 AI의 현실은 "뒤처지면서도 따라가고 있다"가 아니라, "하드웨어에서 뒤처지는 만큼 소프트웨어에서 보상하고 있다." 하지만 이 보상에는 한계가 있다. DeepSeek CEO 량원펑이 말한 대로 "단일 최대 제약은 AI 컴퓨팅 접근성"이며, 알리바바 CEO도 "향후 2~3년 공급 병목이 상당한 제약"이 될 것이라고 경고했다.
2. 중국 AIDC 시장 구조
2-1. 시장 규모
| 지표 | 수치 | 출처 |
|---|---|---|
| 2024 중국 AI 클라우드 서비스 | 208억 위안 (~$29억) | IDC |
| 2025E AI 클라우드 서비스 | 518억 위안 (~$73억) | IDC |
| 2026E 주요 AI 기업 DC 투자 | $700억+ | 골드만삭스 |
| 2025 전체 DC 시장 | 3,180억 위안 (~$44억) | 중국 산업연구원 |
| 2025~2030 CAGR | 21~40% (리서치사별 상이) | 복수 |
| 2025 설치 IT 부하 용량 | 5,327MW → 2031년 11,942MW | 리서치앤마켓 |
골드만삭스에 따르면 2026년 중국 주요 AI 기업들의 DC 투자만 $700억 이상으로, 2025년 대비 38% 증가. 바이트댄스 하나가 2026년에 1,600억 위안(~$230억)을 쏟아부을 계획이다.
2-2. 3가지 유형의 사업자
중국 AIDC를 하나로 묶으면 안 된다. 사업 모델이 근본적으로 다르다.
Type A: 하이퍼스케일러 — 자체 AI + 칩 + 클라우드 수직 통합
| 사업자 | 퍼블릭 클라우드 점유율 | GPU 클라우드 점유율 | 자체 칩 | 2024~26 AI 투자 |
|---|---|---|---|---|
| 알리바바 클라우드 | 33% (1위) | — | T-Head (26.5만 장/년) | 3년 3,800억 위안 ($530억) |
| 화웨이 클라우드 | 18% (2위) | 30.1% (2위) | Ascend 910B/C (81.2만 장/년) | 비공개 (칩 매출 중심) |
| 텐센트 클라우드 | 10% (3위) | — | 없음 (NVIDIA 의존) | 2026년 360억 위안 (전년 2배) |
| 바이두 AI 클라우드 | 6.1% (4위) | 40.4% (1위) | 쿤룬 P800 (11.6만 장/년) | 쿤룬3 클러스터 3만 개 가동 |
빅4 특징: 자체 AI 모델 보유(Qwen, Ernie, HunYuan), 클라우드+AI 모델+칩까지 수직 통합. 알리바바·텐센트·바이두·바이트댄스 4사 합산 2027년까지 $840억 AI 인프라 투자 계획 (2025년 대비 60% 증가).
바이트댄스는 클라우드 사업은 안 하지만 자체 AI 워크로드가 압도적. 2026년 캐펙스 1,600억 위안 중 AI 프로세서에만 ~$130억 투입 계획.
GPU 클라우드 시장은 바이두+화웨이가 70% 이상 장악. 바이두가 40.4%로 1위, 화웨이가 30.1%로 2위. 자체 칩을 가진 두 회사가 GPU 클라우드를 지배하는 구조다.
Type B: 중립 데이터센터 (코로케이션)
| 사업자 | 2025 매출 | 성장률 | 총 용량 | 특징 |
|---|---|---|---|---|
| GDS Holdings | 113억 위안 ($16억) | +10.8% | 670,106 m² | 첫 연간 흑자 전환, 해외(DayOne) 750MW |
| VNET Group | 91~94억 위안 | +11~13% | 674MW (가동 511MW) | Hyperscale 2.0: 2036년 10GW 목표 |
| Chindata | 비공개 (2023년 비상장화) | — | — | MBK파트너스에 매각 |
이들은 자체 AI 모델도 없고 칩도 없다. 장소+전력+냉각만 제공하는 부동산형 모델. 어떤 클라우드든 쓸 수 있는 유연성이 장점이지만, AI 프리미엄은 낮다. VNET은 도매 IDC 매출이 +112.5% 급증하면서 AI 수혜를 받고 있지만, 부가가치는 제한적.
Type C: 캡티브 클라우드 — 킹소프트클라우드(KC)
KC는 두 유형 어디에도 딱 맞지 않는 독특한 포지션이다:
- 자체 AI 모델 없음 (의도적 선택)
- 특정 생태계(샤오미+금산)의 전담 인프라 백본
- 하이퍼스케일러와 정면 경쟁하지 않고, 생태계 안에서 성장
- 동시에 중립 플랫폼으로 외부 LLM도 호스팅 — 중국 상위 10개 LLM 중 6개가 고객
자세한 KC 분석은 섹션 3에서 다룬다.
국영 통신 3사 — 조용한 거인들
간과되기 쉽지만 국영 통신 3사의 AI 인프라 투자가 거대하다:
| 사업자 | 2025 DC/AI 투자 | 주요 움직임 |
|---|---|---|
| 차이나모바일 | 558억 위안 (상반기) | IDC 랙 66만 개, 내몽골 초대형 AIDC 건설 중 |
| 차이나텔레콤 | 455억 위안 (총 캐펙스의 38%) | 통신→테크 기업 피벗 선언, AI 클라우드 중심 전략 |
| 차이나유니콤 | ~500억 위안 | 시닝 AIDC 완공(국산 칩 23,000개, 3,579 PFLOPS) |
3사 합산 2025년 캐펙스: 약 2,898억 위안. AI 인프라 비중이 빠르게 높아지고 있다. 차이나유니콤의 시닝 데이터센터는 국산 AI 칩만 23,000개를 탑재한 순국산 AIDC라는 점이 주목할 만하다.
2-3. 미국 vs 중국 AIDC — 구조적 차이
| 구분 | 중국 | 미국 |
|---|---|---|
| 주도 주체 | 국가+국영기업+빅테크 3중 구조 | 빅테크+VC 주도 민간 시장 |
| 정부 역할 | 직접 투자·보조금·규제 3위일체 | 규제·허가 중심 (직접 투자 제한적) |
| 칩 공급망 | NVIDIA 제한 → 국산 Ascend/쿤룬 가속 | NVIDIA 중심 글로벌 공급망 |
| 입지 결정 | '동수서산' 정책: 지정 8개 허브+10개 클러스터 | 시장 원리 + 에너지·토지 비용 |
| 건설 속도 | 미국의 허가 3년 vs 중국의 급속 건설 | 환경심사·허가·주민반대로 지연 |
| 자금 조달 | 정부 재정+SOE+민간 합산 | 주로 민간 자본시장 |
| 데이터 규제 | 특정 데이터 국내 저장 의무 → 국내 DC에 구조적 수혜 | 기업 소유 데이터 |
| 핵심 리스크 | 과잉 투자 (신규 용량의 80% 유휴) | 전력망 부족, 부지 확보 제약 |
2-4. 구조적 리스크 — 과잉 투자 문제
MIT 테크리뷰가 보도한 중요한 역설이 있다. 중국 정부 장려책으로 2023~2024년에 500개 이상의 AIDC 프로젝트가 발표됐고, 2024년 말 기준 150개 이상이 완공됐지만, 완공 용량의 최대 80%가 유휴 상태로 남아있다.
원인: - 정부 보조금을 노린 수요 없는 '보여주기식' 건설 - 대규모 학습 중심으로 설계된 설비가 DeepSeek R1 이후 추론 중심으로 바뀐 수요 변화에 부적합 - GPU 렌탈 단가 하락
하지만 DeepSeek 충격 이후 '저비용 추론 가능성'이 AI 사용 저변을 오히려 확대(제본스의 역설)하면서 전반적 컴퓨팅 수요는 다시 상승세. 과잉공급 우려와 수요 폭발이 동시에 진행되는 상황이다.
3. 킹소프트클라우드(KC) 상세 분석
3-1. 회사 구조 — 샤오미·금산 그룹
KC는 독립 클라우드 기업이지만, 실질적으로 레이쥔(Lei Jun) 제국의 인프라 부문이다.
| 주주 | 지분율 | 역할 |
|---|---|---|
| 금산소프트 (Kingsoft Corp) | 37.4% | 최대주주. WPS Office(MAU 6억+) 개발사 |
| 샤오미 (Xiaomi) | 12.3% | 전략적 2대 주주. AI 스마트폰/IoT 생태계 |
| 레이쥔 개인 + 관계사 | 합산 60%+ | 금산과 샤오미 양쪽의 실질 지배자 |
핵심: 레이쥔이 금산소프트, 샤오미, KC를 모두 지배한다. 이 세 회사는 법적으로는 별개 상장사이지만, 전략적으로는 하나의 생태계다. 2026년 3월 레이쥔이 KC 비상무이사직에서 사임하고 샤오미 부사장 Qu Heng이 합류했는데, 이는 의례적 참여에서 실무급 관리로 전환된 것.
3-2. 매출 구조
FY2025 실적
| 항목 | 금액 (위안) | YoY 성장률 |
|---|---|---|
| 총 매출 | 95.6억 | +22.8% |
| ├ 퍼블릭 클라우드 | 66.3억 | +32.5% |
| └ 엔터프라이즈 클라우드 | 29.3억 | +5.3% |
| AI 그로스 빌링 (Q4) | 9.26억 (분기) | +95% |
| AI 매출 비중 (퍼블릭 클라우드) | 49% | 전년 대비 급등 |
Q4 2025 (사상 최고 실적)
| 항목 | 수치 | 비고 |
|---|---|---|
| 총 매출 | 27.6억 위안 | 역대 최고 |
| 퍼블릭 클라우드 | 19.0억 (+35%) | — |
| 조정 영업이익 | +5,460만 위안 | 흑자 전환 |
| Non-GAAP EBITDA | 7.85억 (+118%) | — |
| EBITDA 마진 | 28% | 전년 16%에서 +12%p |
수익성 개선 궤적
| 연도 | 순손실 | 조정 EBITDA | EBITDA 마진 |
|---|---|---|---|
| 2022 | -26.6억 | — | 적자 |
| 2023 | -21.8억 | — | 적자 |
| 2024 | -19.7억 | 6.4억 | 8.2% |
| 2025 | -9.4억 | 23.4억 | 24.4% |
순손실이 2022년 대비 65% 감소. 조정 EBITDA는 2024→2025에 4배 폭발.
3-3. 샤오미/금산 생태계 의존도 — 축복이자 저주
| 분기 | 생태계 매출 | YoY | 총매출 비중 |
|---|---|---|---|
| Q2 2025 | 5.78억 위안 | +53% | ~25% |
| Q3 2025 | 6.91억 위안 | +84% | ~28% |
| Q4 2025 | 8.04억 위안 | +63% | 29% |
골드만삭스 추정: 퍼블릭 클라우드 매출의 ~75%가 샤오미 관련. 이건 공식 29%보다 훨씬 높은 수치다. 공식 관련거래로 잡히지 않는 간접 경로까지 포함하면 샤오미 의존도가 생각보다 크다는 뜻이다.
프레임워크 계약 규모 (2024.12 갱신):
| 연도 | 연간 한도 | 비고 |
|---|---|---|
| 2025 | 23.1억 위안 | — |
| 2026 | 31.4억 위안 | +36% |
| 2027 | 40.4억 위안 | +29% |
| 3년 합산 | 113억 위안 ($15.7억) | — |
Q4 2025에 분기 한도의 94%를 소진 → 한도 재상향 압력이 있다. 골드만은 2026년 중반 10~15% 추가 인상을 예상.
샤오미의 AI 투자 계획: 향후 3년간 AI에 최소 $87억(630억 위안) 투자 발표. 2026년 단독으로 약 100억 위안 AI 투자 예상(골드만). KC가 이 투자의 최대 수혜자라는 게 골드만이 KC를 Neutral→Buy로 상향한 근거(TP $15.60).
3-4. "1+N" 전략과 MiMo
KC의 AI 전략은 직관적이다: - "1" = MiMo (샤오미 자체 LLM). KC가 인프라를 제공 - "N" = DeepSeek, Qwen 등 다양한 외부 모델을 중립 플랫폼으로 호스팅
자체 LLM을 만들지 않는 건 의도적 선택이다. 이유가 두 가지: 1. 칩 제약: 학습에 필요한 고성능 칩(H100/B200) 확보가 어렵다 2. 중립성: 자체 모델이 없으니 고객의 경쟁 모델과 충돌하지 않는다. 중국 LLM 상위 10개 중 6개가 KC 고객인 비결
MiMo-V2-Pro의 충격 (2026.03.18 출시): MoE 아키텍처, 1조+ 총 파라미터, 42B 활성. Sonnet 4.6급 성능(SWE-bench 78.0%)을 1/5 가격($1/M input, $3/M output)에 달성. OpenRouter에서 "Hunter Alpha"라는 이름으로 7일간 익명 테스트 → 1위 → 정체 공개 후 KC 주가 +14.2%.
MiMo가 샤오미 생태계(스마트폰 수억 대, IoT 수억 대, SU7 전기차, WPS Office)에 탑재되면, 그 추론 컴퓨트가 전부 KC 인프라에서 실행된다.
3-5. StarFlow MaaS 플랫폼
KC의 소프트웨어 수익원. 모델-as-a-서비스 플랫폼으로, 경영진이 "회사 역사상 가장 빠르게 성장하는 사업"이라고 언급. MCP(Model Context Protocol) Hub, AI 에이전트 개발 지원을 추가하면서 GPU 임대보다 마진이 높은 소프트웨어 매출 비중이 확대되고 있다.
3-6. 정부 클라우드
엔터프라이즈 클라우드(29.3억 위안) 세그먼트에 포함. 독립 수치 미공개. 확인된 프로젝트:
- 주하이시 정부: AI 대형모델·디지털 정부 응용 협약
- 우한 광곡 클라우드: 지역 인프라 구축 수주
- 윈난 국유자산 클라우드 플랫폼: 산업 우수 사례 선정
- 칭양시: 클라우드 플랫폼 구축
전체 매출 대비 10~15% 추정. 마진이 낮고 프로젝트성이라 핵심 성장 동력은 아니지만, 안정 수익 기반 역할.
3-7. 밸류에이션이 왜 낮은가
P/S 0.42x의 진실
yfinance에서 나오는 P/S 0.42x는 CNY 매출 vs USD 시총 혼합 오류다. IR 기준 수정하면 ~3.0x가 정확한 수치.
| 기업 | P/S | 비교 |
|---|---|---|
| KC | ~3.0x (IR 기준) | — |
| 알리바바 (전체) | ~0.28x | 클라우드 외 사업 포함 |
| 바이두 (전체) | ~0.29x | 클라우드 외 사업 포함 |
| GDS Holdings | 0.68x | 중립 IDC |
| VNET Group | 0.21x | 중립 IDC |
| 미국 네오클라우드 (CoreWeave) | 8.7x | 미국 프리미엄 |
| 미국 네오클라우드 (Nebius) | 56x | 초기 단계 |
3.0x가 알리바바/바이두보다 높아 보이지만, 이들은 클라우드 외 매출이 훨씬 크고 저성장 구간이라 단순 비교는 부적절. AI 매출 성장률 +95%인 KC를 AI 인프라 플랫폼으로 보면, 미국 네오클라우드의 8~56x에 비해 여전히 저평가.
P/S가 낮은 이유 5가지
| 이유 | 상세 | 해소 가능성 |
|---|---|---|
| ① GAAP 적자 지속 | 2025년도 -9.4억 위안 | 중간 (Non-GAAP 흑자 전환 중) |
| ② 높은 부채/캐펙스 | 부채 120억 vs 현금 60억. 2026 캐펙스 100억+ | 중간 (절반을 고객 선불로 충당) |
| ③ 중국 ADR 디스카운트 | VIE 구조, 상폐 리스크, 지정학 | 높음 (구조적) |
| ④ GPU 수급 불확실성 | 칩 규제 반복 가능성 | 높음 (외부 요인) |
| ⑤ 샤오미 의존도 | 골드만 추정 퍼블릭 클라우드의 75% | 낮음 (의존도이자 성장 동력) |
3-8. 밸류를 높이려면 뭐가 필요한가
단기 (1~2분기)
| 지표 | 현재 | 목표 | 효과 |
|---|---|---|---|
| AI 빌링 분기 | 9.26억 위안 | 10억+ | +95% 성장 지속 확인 → 리레이팅 트리거 |
| AI 매출 비중 | 49% | 60%+ | "AI 순수 플레이" 인식 전환 |
| Non-GAAP 흑자 | 2분기 연속 | 4분기 연속 | 구조적 흑자 확정 |
중기 (2~4분기)
| 이벤트 | 효과 |
|---|---|
| 샤오미 프레임워크 계약 캡 인상 (2026 중반) | 3년 매출 가시성 확대 |
| CFO 후임 선임 (2025.06 사임 후 10개월 공석) | 거버넌스 불안 해소 |
| GAAP 흑자 전환 (2026 하반기~2027) | 적자 기업 낙인 제거 |
핵심 전환
KC가 시장에서 재평가받으려면 피어 그룹 재설정이 필요하다.
| 현재 인식 | 필요한 인식 | 전환 방법 |
|---|---|---|
| 중국 5위 범용 클라우드 | 샤오미 AI 전담 인프라 | AI 매출 비중 60%+ |
| 알리/화웨이와 경쟁 | 캡티브 수요 (경쟁이 아닌 독점 공급) | 샤오미 계약 투명성 강화 |
| 적자 클라우드 | AI 추론 흑자 전환 기업 | Non-GAAP 영업이익 지속 |
비유: Tesla-xAI 관계와 유사하지만 핵심 차이가 있다. Tesla는 인프라도 자체 보유하지만, 샤오미는 인프라를 KC에 위임한다. KC 매출로 직결되는 구조.
KC가 해야 할 것
- AI 매출을 별도 세그먼트로 GAAP 공시 — "AI Gross Billing"이 아닌 인식 매출 기준 분리
- 추론 vs 학습 매출 비중 공개 — 추론 마진이 높다는 주장의 정량 근거
- CFO 빨리 선임 — 10개월 공석은 거버넌스 불안 요인
- 에이전트 인프라 매출 카테고리 신설 — StarFlow/Galaxy Stack의 MaaS 트래픽을 투자자가 추적 가능하게
KC가 하지 말아야 할 것
- 자체 LLM 개발 — "중립 플랫폼"이 최대 차별점. 자체 모델 만들면 고객과 충돌
- 가격 전쟁 참여 — 알리/화웨이와 가격으로 싸우면 마진 붕괴
- 추가 대규모 주식 발행 — CFO가 "추가 발행 없다"고 명시한 것은 긍정적. 지켜야 함
3-9. Q4 2025 어닝콜 핵심
CEO Tao Zou: 사상 최고 실적. 고객 신뢰 증명.
CFO Yi Li: 비용 관리 + AI 수요로 EBITDA 마진 +12.3%p 개선. 2026년 캐펙스 100억+ 계획, 절반은 고객 선불로 충당. 신규 주식 발행 계획 없음.
캐펙스 절반을 고객 선불로 커버한다는 건 수요가 이미 잠긴(locked-in) 상태라는 뜻이다. 자본 리스크를 크게 낮추는 구조.
4. 중국 정부 AI 정책이 AIDC에 미치는 영향
4-1. 동수서산 (東數西算, East Data West Computing)
2022년 2월 착수된 국가 메가프로젝트. 동부 연안의 데이터를 서부 내륙에서 처리하는 구조.
| 항목 | 수치 |
|---|---|
| 구조 | 8개 국가 컴퓨팅 허브, 10개 DC 클러스터 |
| 누적 투자 | 2,800억 위안+ ($390억+) |
| 서버 랙 | 195만 대 |
| 가동률 | 63% |
| 2025 목표 | 총 컴퓨팅 파워 300 EFLOPS, 지능형 컴퓨팅 35%+ |
| 문제점 | 신규 용량의 최대 80% 유휴 |
2025년 12월 가동된 55,000km 고속 광통신망 FNTF가 40개 도시의 컴퓨팅 자원을 하나의 분산 슈퍼컴퓨터처럼 연결. 구이저우성만 49개 핵심 DC, 92.6 EFLOPS 달성(이 중 97%가 스마트컴퓨팅).
4-2. AI+ 행동 계획 (2025.08)
국무원이 발표한 AI 통합 로드맵:
| 시기 | 목표 |
|---|---|
| 2027 | 6개 핵심 분야 AI 통합, 스마트 단말·AI 에이전트 보급률 70%+ |
| 2030 | 보급률 90%+, 스마트 경제를 주요 성장 동력으로 |
| 2035 | 중국 경제 전반의 스마트화 완성 |
인프라 우선순위: 모델·알고리즘, 고품질 데이터, 컴퓨팅파워, AI 전문인력, 오픈소스 생태계.
4-3. 국산 칩 의무화 (2025.11)
2025년 11월, 중국 정부는 정부 자금을 받는 DC에 국산 AI 칩만 사용하도록 지시.
- 건설 30% 미만인 프로젝트: 외국 칩 제거 또는 구매 계획 취소
- 2027년까지 "알고리즘 주권" 목표 — 하드웨어부터 알고리즘까지 전체 AI 스택 국산화
- 국산 칩 비중: 2024년 10% 미만 → 2025년 41%(165만 장) → 2026~27 목표 30~40%
4-4. 전기 보조금
간쑤, 귀주, 내몽골 등 서부 성 정부가 국산 칩 사용 AIDC에 산업용 전기요금 50% 할인 제공.
배경: 국산 칩의 전력 효율이 낮다. 910C의 단일 TDP는 H100보다 낮지만, 동일 연산량을 처리하려면 훨씬 많은 칩이 필요하므로 총 전력이 3~4배. 보조금으로 이 격차를 메우려는 것.
4-5. 데이터 현지화 규제
| 규제 | 내용 | AIDC 영향 |
|---|---|---|
| 사이버보안법/데이터보안법/PIPL | 특정 데이터 국내 저장 의무 | 국내 DC에 구조적 수혜 |
| 국경 간 이전 | 보안심사/SCC/인증 3가지 경로 | 외국 클라우드(AWS/Azure/GCP) 진입 장벽 |
| 2026.01 시행 | 국경 간 개인정보 이전 인증 본격화 | 국내 클라우드 수요 강화 |
데이터 현지화 의무는 중국 국내 클라우드 사업자에게 구조적 보호막이다. 외국 클라우드가 규제 장벽에 막혀 있으므로, KC를 포함한 국내 사업자가 자연스럽게 수혜를 받는다.
4-6. 재정 지원 규모
- 빅펀드 III 등을 통해 AI 칩과 DC에 연간 $500~700억 보조금 투입
- 정부가 10년간 투입한 자금만 약 $2,100억
- 각 지방정부: 컴퓨팅 클러스터 보조금, 국산 모델 훈련 장려, 스타트업 육성
4-7. 정책 종합 — AIDC에 미치는 영향
| 정책 | 기회 | 위험 |
|---|---|---|
| 국산 칩 의무화 | 정부 프로젝트에 국산 칩 수요 증가 | 화웨이 의존. 수율 30~40%라 수급 불안 |
| 전기 보조금 | 서부 AIDC 건설 시 운영비 50% 절감 | 서부 = 고객과 물리적 거리 → 지연시간 이슈 |
| 동수서산 | 정부 지원 인프라 활용 가능 | 유휴율 80% → ROI 불확실 |
| 데이터 현지화 | 외국 클라우드 배제 → 국내 수혜 | 중국 기업의 글로벌 진출 제약 |
| AI+ 행동 계획 | 2027년까지 에이전트 보급률 70% → 추론 수요 폭발 | 실현 속도 불확실 |
KC에 대한 구체적 함의: - 정부/공공 프로젝트를 수주하려면 화웨이 Ascend 기반 인프라가 필수. H20으로는 정부 사업 불가 - 하지만 Ascend 수급이 불안정(수율 30~40%)하므로 정부 클라우드 확장 속도에 제약 - 데이터 현지화는 KC에 구조적 보호막 — AWS/Azure/GCP가 직접 경쟁 불가 - AI+ 행동 계획의 에이전트 보급률 목표가 실현되면, KC의 StarFlow MaaS 플랫폼이 추론 인프라의 핵심 공급자가 될 가능성
5. 종합 — 중국 AIDC의 독특한 위치
미국 AIDC와 같은 점
- AI 추론 수요 폭발이라는 근본 동력은 동일
- 2026년 투자 규모가 $700억+로 미국과 비슷한 수준
- 하이퍼스케일러가 시장을 지배하고, 전문 사업자가 틈새를 공략하는 구조
미국 AIDC와 다른 점
- 칩이 다르다: 미국은 GB200, 중국은 H20+Ascend. 성능 격차 5~17배
- 정부 개입이 크다: 보조금, 국산 칩 의무화, 동수서산, 데이터 규제
- 소프트웨어 생태계가 분리되어 있다: CUDA vs CANN. 호환 불가
- 과잉 투자 리스크가 있다: 80% 유휴율은 미국에 없는 문제
- 밸류에이션이 낮다: 같은 성장률이라도 중국 ADR 디스카운트 + 지정학 리스크
KC 투자 판단 요약
| 항목 | 내용 |
|---|---|
| 현재가 | $13.57 / 시총 $4.0B |
| P/S (IR 기준) | ~3.0x |
| 기존 판정 | 매수검토, Confidence 7/10 |
| 가중 기대값 | $20.5 (업사이드 +51%) |
| 핵심 트리거 | Q1 2026 AI빌링 10억+ & MiMo 1위 유지 |
| Bull 시나리오 (30%) | $28~32 — AI 500% 지속 + MiMo + 제본스 역설 |
| Base 시나리오 (40%) | $20~23 — AI 300%+ 감속하나 구조적 |
| Bear 시나리오 (25%) | $12~14 — 캐펙스 마진 압박 + 규제 |
| Tail 시나리오 (5%) | $7 — 미중 디커플링 극단 |
Confidence가 10이 아닌 이유: CFO 공석 10개월(-1), GPU 규제 재발 가능성(-1), GAAP 적자 지속(-0.5), 샤오미 의존도 75%(-0.5).
출처
IR/공시
- KC Q4 2025 Earnings Call Transcript (2026.03.25)
- KC SEC 6-K Filing (Q4 2025)
- Xiaomi FY2025 Annual Results (2026.03)
리서치
- Goldman Sachs: KC Buy Upgrade, TP $15.60 (2026.02)
- Goldman Sachs: China AI $70B DC investment (2026.03)
- Citi: KC Buy, TP $21.50
- Jefferies: KC Buy, TP $19.00
칩/기술
- DeepSeek: Ascend 910C 추론 성능 측정 (2025.02, TrendForce 보도)
- SemiAnalysis: H20 추론 성능 분석
- ASML CEO: 중국 반도체 10~15년 격차 발언
- CFR: China's AI Chip Deficit 보고서
- Tom's Hardware: CloudMatrix 384 분석
- Tom's Hardware: DeepSeek R2 Ascend 학습 실패
시장/정책
- IDC: 중국 AI 클라우드 시장 보고서
- Mordor Intelligence: China AI Data Center Market
- MIT Technology Review: China's unused data centers (2025.03)
- Data Center Dynamics: Baidu & Huawei GPU 클라우드 점유율
- CSET Georgetown: China AI+ Policy (2025.08)
- Premia Partners: East Data West Computing
밀수/규제
- Fortune: GPU 밀수 기소 (2025.11)
- GamersNexus: GPU 수출 통제 타임라인
- Built In: 트럼프 AI 칩 금지 해제
기존 볼트 분석
- [[260408_kingsoft_china_aidc]] — KC × 중국 AIDC 심층 분석
- [[260325_KC-Anthropic-Economic-Index-교차분석]]
- [[260325_KC-Q4-실적프리뷰-AI추론인프라]]
- [[260408_neocloud_kingsoft_analysis]]
- [[260408_gpu_cloud_comparison]]