킹소프트클라우드(KC) × 중국 AIDC 심층 분석
킹소프트클라우드(KC) × 중국 AIDC 심층 분석
2026-04-08 | 볼트 기존 분석 6건 + 실시간 데이터 + IR/어닝콜 교차검증 현재가 $13.57 | 시총 $4.0B | 기존 판단: 매수검토 (Confidence 7)
목차
- 중국 AIDC 경쟁 구도 — KC의 위치
- GPU 공급 제약 — 칩별 성능, 조달 전략, 미중 격차
- KC의 차별점 — 샤오미, 금산, 정부 클라우드
- 중국 AI 인프라 정책 — 보조금, 국산화, 데이터 규제
- Anthropic Economic Index × 중국 AIDC 함의
- 밸류 전략 — KC가 재평가받으려면
- 종합 판단
1. 중국 AIDC 경쟁 구도
1-1. 시장 규모
| 연도 | 중국 AI 클라우드 서비스 | 중국 전체 AI capex | 출처 |
|---|---|---|---|
| 2024 | 208억 위안 (~$29억) | — | IDC |
| 2025E | 518억 위안 (~$73억) | 최대 $980억 | IDC / 각종 추정 |
| 2030E | — | — | — |
2025년 전망은 전년 대비 2.5배 성장. 정부 560억 + 민간 240억 + 기타로 구성. 바이트댄스 단독으로 2024년 capex 800억 위안(~$110억), 2025년 1,600억 위안으로 2배 확대 전망이라 민간 투자 규모가 실제로는 훨씬 클 수 있다.
1-2. 주요 플레이어 비교표
| 사업자 | AI 클라우드 점유율 | GPU 클라우드 점유율 | 자체 칩 | 주요 전략 | 2024~25 AI capex |
|---|---|---|---|---|---|
| 알리바바 클라우드 | 35.8% (1위) | — | T-Head (26.5만 장/년) | 풀스택 AI + 자체 칩 + 오픈소스(Qwen) | 3년 3,800억 위안 ($520억) |
| 화웨이 클라우드 | 13.1% (3위) | 30.1% (2위) | Ascend 910B/C (81.2만 장/년) | 국산 칩 생태계 독점, CloudMatrix 384 | 비공개 (칩 매출 중심) |
| 텐센트 클라우드 | 7.0% | — | 없음 (NVIDIA 의존) | 게임/미디어 AI 특화 | Q4 2024 단독 366억 위안 (YoY 4배) |
| 바이두 AI 클라우드 | 6.1% (4위) | 40.4% (1위) | 쿤룬 P800 (11.6만 장/년) | 자체 LLM(Ernie) + GPU 클라우드 | BAT 3사 합산 ~1,000억 위안 (2024) |
| 바이트댄스 | 비공개 (자체 소비) | — | 없음 (조달 중심) | 내부 AI 워크로드 + 라쿠마오 | 2025E 1,600억 위안 (중국 빅테크 1위) |
| GDS Holdings | N/A (중립 IDC) | N/A | 없음 | 클라우드 중립 코로케이션 | 2026 capex 90억 위안, 500MW 목표 |
| VNET Group | N/A (중립 IDC) | N/A | 없음 | Hyperscale 2.0 (2036년 10GW) | 도매 매출 +112.5% (Q2 2025) |
| 킹소프트클라우드 | ~3% | — | 없음 | 샤오미 캡티브 + 중립 AI 플랫폼 | 2026 capex 100억+ 위안 |
1-3. 사업 모델 구분 — 3가지 유형
중국 AIDC를 단일 범주로 묶으면 안 된다. 사업 모델이 근본적으로 다르다.
Type A: 하이퍼스케일러 (알리/텐센트/바이두/화웨이) - 자체 AI 모델 보유 (Qwen, Ernie, HunYuan) - 클라우드 + AI 모델 + 칩까지 수직 통합 - AI 인프라는 자체 모델 서빙 + 외부 고객 양쪽 - 규모의 경제, 기술 생태계, 정부 관계 모두 우위
Type B: 중립 데이터센터 (GDS, VNET) - 자체 AI 모델 없음, 자체 칩 없음 - 코로케이션(장소+전력+냉각)만 제공 - 어떤 클라우드든 쓸 수 있는 유연성이 장점 - 부동산 모델에 가까움 — 안정적이지만 AI 프리미엄 낮음
Type C: 캡티브 클라우드 (킹소프트클라우드) - 자체 AI 모델 없음 (의도적 선택) - 특정 생태계(샤오미+금산)의 전담 인프라 백본 - 중립 플랫폼으로서 외부 LLM도 호스팅 (중국 상위 10개 LLM 중 6개가 고객) - 하이퍼스케일러와 싸우지 않고, 생태계 안에서 성장
1-4. KC가 밸류를 받으려면 필요한 포지셔닝
KC의 현재 문제는 정체성 혼란이다. 시장은 KC를 "작은 범용 클라우드"로 보지만, 실제로는 "샤오미 AI 생태계의 유일한 컴퓨트 엔진"이다.
밸류를 받기 위한 포지셔닝 전환:
| 현재 인식 | 필요한 인식 | 전환 방법 |
|---|---|---|
| 중국 5위 범용 클라우드 | 샤오미 AI 전담 인프라 | AI 매출 비중 60%+ 돌파 |
| 알리/화웨이와 경쟁 | 경쟁이 아닌 캡티브 수요 | 샤오미 계약 투명성 강화 |
| 적자 클라우드 기업 | AI 추론 흑자 전환 기업 | Non-GAAP 영업이익 지속 증명 |
| 중국 ADR 리스크 | HK 이중상장 안전판 | HKEX(3896.HK) 거래량 확대 |
피어 그룹 재설정이 핵심. KC를 알리/텐센트와 비교하면 영원히 디스카운트다. 하지만 "샤오미 AI 인프라 독점 공급자"로 보면, Tesla-xAI 관계처럼 생태계 프리미엄을 받을 수 있다.
1-5. 밸류에이션 비교
| 종목 | 시총 | P/S | PBR | 영업이익률 | 매출성장 |
|---|---|---|---|---|---|
| KC | $4.0B | ~3.0x* | 3.04x | +2.0% (Non-GAAP) | +22.8% |
| BIDU | $37.6B | 0.29x | 0.97x | 흑자 | 저성장 |
| BABA | $285.8B | 0.28x | 1.84x | 흑자 | 저성장 |
| GDS | $7.7B | 0.68x | 2.00x | 적자→흑전 | +10.8% |
| VNET | $2.1B | 0.21x | 2.37x | 적자 | +22.1% |
*P/S 주의: yfinance 기준 0.42x는 CNY 매출 vs USD 시총 혼합 오류. IR 기준 수정치 ~3.0x.
바이두/알리바바와 직접 비교는 부적절하다 — 이들은 AI 클라우드가 전체 매출의 일부일 뿐이고, KC는 AI 매출이 퍼블릭 클라우드의 49%를 차지하는 순수 플레이에 가깝다. GDS/VNET과 비교하면 KC의 P/S 3.0x는 프리미엄이지만, AI 성장률(+95%)을 감안하면 정당화 가능.
2. GPU 공급 제약
2-1. 미국 수출 통제 현황 (2026년 4월 기준)
| 칩 세대 | 중국 수출 상태 | 비고 |
|---|---|---|
| A100/H100 | 금지 (2022.10~) | 최초 규제 대상 |
| H800/A800 | 금지 (2023.10~) | 중국 특화 다운그레이드 버전도 금지 |
| H20 | 판매 중 (2025.07 재개) | 2025.04 일시 금지 → 7월 해제, 15% 수수료 논의 |
| H200 | 조건부 허용 (25% 관세) | 8.2만 개 출하 준비 중 (2025.12 트럼프 허가) |
| B100/B200/GB200 | 완전 차단 | 블랙웰 세대 전면 금지 유지 |
핵심: 중국이 합법적으로 쓸 수 있는 NVIDIA 칩은 H20과 H200(관세 부과)뿐. 최신 블랙웰 세대(B200, GB200)는 접근 불가.
2-2. 중국 AIDC가 실제로 쓰는 칩 — 상세 성능 비교
NVIDIA H20 (중국 합법 판매 칩)
H20은 수출 규제를 우회하기 위해 의도적으로 연산 성능을 낮춘 칩이다.
| 항목 | H20 | H100 SXM5 | H20/H100 비율 |
|---|---|---|---|
| FP16 | 148 TFLOPS | 989 TFLOPS | 15% |
| INT8 | 296 TOPS | 1,979 TOPS | 15% |
| FP32 | 44 TFLOPS | 67 TFLOPS | 66% |
| FP64 | 1 TFLOPS | 67 TFLOPS | 1.5% |
| CUDA 코어 | H100 대비 41% 적음 | 기준 | — |
| HBM 용량 | 96GB | 80GB | 120% |
| HBM 대역폭 | 4.0 TB/s | 3.35 TB/s | 119% |
| TDP | ~400W | 700W | 57% |
역설적 강점: 원시 연산력(TFLOPS)은 H100의 15%에 불과하지만, HBM 용량과 대역폭이 H100보다 20% 높다. LLM 추론은 연산보다 메모리 대역폭에 병목이 걸리는 작업이므로, 추론 워크로드에서 H20이 H100 대비 약 20% 빠르다는 SemiAnalysis 분석이 있다.
이것이 중국 AI 기업들이 추론 서비스(챗봇 API, 에이전트 서빙)에 H20을 선호하는 이유다. 학습에는 쓸 수 없지만, 추론에는 오히려 가성비가 좋다.
NVIDIA의 H20 중국 판매는 분기 50% 성장세. 2025년 전체 중국 매출에서 H20이 차지하는 비중이 급속 확대 중.
화웨이 Ascend 910B
| 항목 | Ascend 910B | H100 SXM5 | 910B/H100 |
|---|---|---|---|
| 공정 | SMIC 7nm | TSMC 4nm | 2세대 뒤 |
| FP16 | ~256 TFLOPS (추정) | 989 TFLOPS | ~26% |
| HBM | 64GB | 80GB | 80% |
| TDP | ~400W | 700W | 57% |
| 2025 출하 | ~30만 장 목표 | — | — |
| 가격 | H100 대비 30~40% 저렴 | 기준 | — |
910B는 A100급 성능으로 평가된다. 추론 작업에서 실용적이지만, 대규모 학습(1T+ 파라미터 모델 훈련)에는 안정성과 속도가 부족하다. 중국 내 2025년 출하량 약 30만 장.
화웨이 Ascend 910C
| 항목 | Ascend 910C | H100 SXM5 | 910C/H100 |
|---|---|---|---|
| 공정 | SMIC N+2 (7nm급) | TSMC 4nm | 2세대 뒤 |
| 구조 | 910B 다이 2개 패키징 (듀얼칩릿) | 단일 다이 | — |
| BF16 | ~781 TFLOPS (CloudMatrix 역산) | 989 TFLOPS | ~79% |
| 추론 성능 | H100의 약 60% | 기준 | 60% (DeepSeek 실측) |
| HBM | 128GB HBM3 | 80GB HBM3e | 160% |
| HBM 대역폭 | — | 3.35 TB/s | — |
| TDP | 310~350W | 700W | ~50% |
| 2025 출하 목표 | ~10만 장 | — | — |
| 수율 | 30~40% | >90% (추정) | 핵심 병목 |
DeepSeek의 직접 평가 (2025.02, TrendForce 보도): - "Ascend 910C의 추론 성능은 H100의 약 60%" - NLP 추론(LLM 서빙) 기준 측정 - "오래된 칩 설계지만 중국의 NVIDIA 의존도를 줄이는 데 성공할 수 있다"
910C의 핵심 문제: 수율과 HBM 병목. - 수율이 2024년 초 20%에서 2025년 중반 30~40%까지 개선됐지만, 상용화 기준(60~70%)에 미달 - 중국 CXMT의 HBM 생산량이 연간 25~30만 개 910C분에 불과 - 이 두 병목이 풀리지 않으면 910C 대량 생산은 요원
화웨이 CloudMatrix 384 — 시스템 레벨 대응
화웨이의 해법: 단일 칩이 못 이기면, 수백 개를 묶어서 이기자.
| 항목 | CloudMatrix 384 | NVIDIA GB200 NVL72 |
|---|---|---|
| 칩 수 | Ascend 910C 384개 | GB200 72개 |
| BF16 연산 | 300 PFLOPS | 180 PFLOPS |
| HBM 용량 | 49,152GB (49TB) | 13,824GB (14TB) |
| 인터커넥트 | 광학 패브릭 | NVLink |
| 칩당 연산 | 0.78 PFLOPS | 2.5 PFLOPS |
역설: 단일 칩(910C)은 GB200의 31% 성능이지만, 384개를 묶으면 시스템 총 연산량은 GB200 NVL72의 1.7배. 메모리는 3.6배. 하지만 칩 5.3배를 써야 하므로 전력·냉각·면적 비용이 크고, 소프트웨어(CANN/MindSpore)가 CUDA 생태계만큼 성숙하지 않아 실제 활용 효율은 수치보다 낮다.
기타 중국 국산 칩
| 칩 | 개발사 | 성능 수준 | 2025 출하 | 비고 |
|---|---|---|---|---|
| 쿤룬 P800 | 바이두 (쿤룬신) | A100급 (FP16 345 TFLOPS) | 11.6만 장 | 3만 개 클러스터 운영 중 |
| T-Head | 알리바바 | H100급 주장 (40% 저비용) | 26.5만 장 | 국산 칩 출하 2위 |
| Siyuan 590 | 캠브리콘 | A100의 80% | 11.6만 장 | 정부 프로젝트 중심 |
| Siyuan 690 | 캠브리콘 | H100 경쟁 목표 | 개발 중 | — |
| Ascend 910D | 화웨이 | H100 근접 목표 | 개발 중 | — |
| Ascend 950 | 화웨이 | H200+ 목표, FP8 1 PFLOPS | 2026E | HBM 128~144GB |
2025년 국산 칩 전체 출하: 약 165만 장 (NVIDIA 220만 장 대비) - 화웨이 81.2만 장 (국산의 49%) - 알리바바 T-Head 26.5만 장 (16%) - 바이두 쿤룬신 11.6만 장 (7%) - 캠브리콘 11.6만 장 (7%) - 해광(Hygon), MetaX, Iluvatar 등 나머지
2-3. KC의 GPU 조달 전략
KC는 어닝콜에서 특정 칩 이름을 명시하지 않지만, 맥락에서 H20 + 화웨이 Ascend 910B/910C 혼합 운용이 확인된다.
공식 발언 근거: - Q4 2025 어닝콜: "잘 구축된 탄력적 공급망(resilient supply chain)으로 핵심 부품을 전략적으로 선제 확보" - Q2 2025 어닝콜 (CEO Tao Zhou): "1개 국내 공급사에서 여러 곳으로 협력 확대" - CEO 보수적 경고: "AI 폭발적 성장 시 국내 칩 공급이 수요를 못 따라갈 수 있다"
수출 통제 전후 조달 전략 변화:
| 구분 | 2024년 이전 | 2024년 이후 |
|---|---|---|
| 주력 칩 | NVIDIA H100/A100 (합법 경로) | H20 + Ascend 910B/C |
| 공급처 수 | 단일~소수 | 복수 국내 공급사로 다각화 |
| 비축 전략 | 반응형 (필요 시 구매) | 선제적 비축 (Q3 2024부터 미리 재고 확보) |
| 계약 모델 | 자체 구매 | 자체구매 + 수익공유 + 에이전트 조달(고객 대신 칩 구매·인프라 구축·운영 대행) |
| 가격 정책 | 균일 | 기존 고객 가격 유지, 신규 고객 대폭 인상 |
에이전트 조달 모델이 주목할 만하다. KC가 고객 대신 칩을 구매하고 인프라를 구축·운영해주는 방식으로, 칩 수급 불확실성을 KC가 흡수하는 대신 장기 계약을 확보한다. 수요 예측력이 올라가고 고객 잠금 효과가 생긴다.
2-4. 미국 vs 중국 AIDC 성능 격차 — 구체적으로 어디서 나는가
① 절대 컴퓨트 격차 - 미국: 전 세계 GPU 클러스터 성능의 75% - 중국: 15% - 하이퍼스케일 데이터센터: 미국 54%, 중국 16%
② 칩 세대 격차 - 미국 최신: GB200 (B200 기준 H100 대비 훈련 5~10배, 추론 30배 향상) - 중국 최고: Ascend 910C (H100의 60%) - 최신 세대 기준으로 단일 칩 성능 격차: 약 10~17배
③ 하지만 AI 모델 성능 격차는 좁아지고 있다 - 2024.01: 미-중 최상위 모델 벤치마크 점수 차이 103점 - 2025.02: 점수 차이 23점으로 축소 - 이유: DeepSeek 등이 효율적 학습 기법(MoE, 어텐션 최적화)으로 적은 컴퓨트에서 높은 성능 달성 - MiMo-V2-Pro: Sonnet 4.6급 성능을 1/5 가격에 → 벤치마크 비용 $348 (GPT-5.2는 $2,304)
④ 소프트웨어 생태계 격차 - NVIDIA CUDA: 개발자 수백만 명, 20년 축적된 라이브러리 - 화웨이 CANN/MindSpore: 성장 중이지만 CUDA 대비 성숙도 크게 부족 - 개발자가 CUDA에서 CANN으로 전환하는 비용이 높아, 국산 칩의 하드웨어 성능이 올라와도 실 활용도는 스펙 대비 낮음
⑤ 격차의 함의 — KC에게 의미하는 것
칩 열세가 KC의 사업에 구체적으로 미치는 영향:
| 워크로드 | 영향 | 상세 |
|---|---|---|
| 대규모 학습 (1T+ 모델) | 심각한 제약 | 910C 수율 30~40%, 장시간 학습 안정성 미검증. MiMo-V2-Pro(1T+ 파라미터) 학습은 샤오미 자체 GPU 10,000개로 수행, KC 인프라 아님 |
| 추론 서빙 | 관리 가능 | H20이 추론에서 H100 대비 20% 빠름. Ascend 910C도 추론은 H100의 60% — 가격 대비 경쟁력 있음 |
| 파인튜닝 | 중간 | 소규모 모델(7B~70B) 파인튜닝은 가능, 초대형은 제약 |
| MaaS (API 서빙) | 제약 적음 | StarFlow 플랫폼 기반 토큰 과금 — 추론 중심이라 H20/Ascend로 충분 |
KC가 "자체 LLM을 만들지 않는다"는 전략은 칩 제약에 대한 합리적 대응이기도 하다. 학습에 필요한 고성능 칩 확보가 어려우니, 추론에 집중하는 것이 현실적이다.
3. KC의 차별점
3-1. 샤오미 그룹과의 관계 — "유일한 전략적 클라우드 플랫폼"
소유 구조: - Kingsoft Software: 37.4% 지분 - Xiaomi: 12.3% 지분 - Lei Jun(레이쥔) 개인 + 관계사: 합산 60%+ 지배 - 2026.03: 레이쥔 비상무이사직 사임, Qu Heng(샤오미 부사장) 합류 → 실무급 관리 전환
매출 기여도 추이:
| 분기 | 샤오미+킹소프트 생태계 매출 | YoY | 총매출 비중 |
|---|---|---|---|
| Q2 2025 | 5.78억 위안 | +53% | ~25% |
| Q3 2025 | 6.91억 위안 | +84% | ~28% |
| Q4 2025 | 8.04억 위안 | +63% | 29% |
Goldman Sachs 추정: 퍼블릭 클라우드 매출의 ~75%가 샤오미 관련.
프레임워크 계약 (2024.12 갱신, 주주총회 승인):
| 연도 | 연간 한도 | 전년비 |
|---|---|---|
| 2025 | 23.1억 위안 | — |
| 2026 | 31.4억 위안 | +36% |
| 2027 | 40.4억 위안 | +29% |
- 3년 합산 113억 위안 ($15.7억)
- Goldman: 2026년 중반 10~15% 추가 인상 예상 → 2025~2028 CAGR 37%
- Q4 2025에 분기 한도의 94% 소진 → 한도 재상향 압력
샤오미의 AI 투자 계획: - 향후 3년간 AI에 최소 $87억 (630억 위안) 투자 발표 - 2026년 단독으로 약 100억 위안 AI 투자 예상 (Goldman) - 자체 GPU 10,000개 확보 목표 → KC IDC를 통한 조달 지원 - KC가 최대 수혜자 — Goldman이 이를 근거로 Neutral→Buy 상향, TP $15.60
"1+N" 전략: - "1" = MiMo (샤오미 자체 LLM) - "N" = KC가 중립 플랫폼으로 호스팅하는 다양한 외부 모델 - KC는 자체 LLM을 개발하지 않고, MiMo의 추론 서비스를 지원하며 플랫폼 역할에 집중 - 이 전략이 중국 LLM 상위 10개 중 6개를 고객으로 확보한 비결 — 고객의 경쟁 모델과 직접 충돌하지 않으니까
MiMo-V2-Pro 효과 (2026.03.18 출시):
| 항목 | 내용 |
|---|---|
| 아키텍처 | MoE, 1T+ 총 파라미터, 42B 활성 |
| 성능 | Sonnet 4.6급 (SWE-bench 78.0%) |
| 가격 | Sonnet 4.6의 1/5 ($1/M input, $3/M output) |
| OpenRouter | "Hunter Alpha"로 7일 익명 테스트 → 1위 → 정체 공개 후 KC 주가 +14.2% |
| KC 함의 | KC의 포지션이 "클라우드 제공자"에서 "샤오미 AI 생태계의 유일한 인프라 백본"으로 격상 |
MiMo가 샤오미 생태계(스마트폰 수억 대, IoT 수억 대, SU7 EV, WPS Office)에 탑재되면, 그 추론 컴퓨트가 전부 KC 인프라에서 실행된다. OpenRouter에서의 API 서빙은 샤오미 자체 DC(싱가포르/네덜란드)이지만, 생태계 내부 추론은 KC 인프라.
비유: Tesla+xAI 관계와 유사하지만 핵심 차이가 있다. Tesla는 인프라도 자체 보유하지만, 샤오미는 인프라를 KC에 위임한다 → KC 매출로 직결.
3-2. 금산소프트 생태계
Kingsoft Software(금산소프트)는 KC의 모회사(37.4% 지분)이자 WPS Office의 개발사.
| 제품 | 연결 |
|---|---|
| WPS Office | 글로벌 MAU 6억+, 기업용 SaaS. MiMo Claw(에이전트 플랫폼)이 WPS와 통합 → KC에서 추론 |
| Kingsoft Security | 보안 솔루션, 정부/기업 고객 채널 |
| Seasun Games | 게임 스튜디오, 클라우드 컴퓨팅 수요 |
WPS+MiMo 통합이 특히 중요하다. WPS는 기업용 오피스 시장에서 Microsoft Office 다음으로 크고, 중국 정부/공공기관에서 MS Office 대신 WPS 사용을 권장하고 있다. WPS에 AI 기능(MiMo 기반)이 탑재되면, 그 추론 트래픽이 KC를 경유한다.
3-3. 정부 클라우드 시장
KC는 정부 클라우드를 별도 사업부로 분리 보고하지 않는다. 어닝콜에서 확인된 내용:
- "공공서비스(public services)" 수직 산업의 일부로 분류
- 통신사 파트너와 협력해 공공기관에 고성능 컴퓨팅 클러스터 공급
- 상하이 등 핵심 시장 진입 성공
- 헬스케어: Data Agent 기반 AI 앱 출시
- 제조업: 지능형 제조 컴퓨팅 서비스
한계: - 엔터프라이즈 클라우드 전체 성장률(연간 +5.3%)이 퍼블릭 클라우드(+32.5%)보다 현저히 낮음 - 정부 클라우드는 마진이 낮고 프로젝트성이라 스케일이 어려움 - 알리바바(Alibaba Government Cloud), 화웨이(정부 시장 최대 점유)와 정면 경쟁
정부 클라우드는 KC의 밸류 드라이버가 아니라 안정 수익 기반 정도의 역할이다. AI 추론이 핵심 성장 엔진.
4. 중국 AI 인프라 정책
4-1. 국산 칩 의무화
2025년 11월, 중국 정부는 정부 자금을 받는 데이터센터에 국산 AI 칩만 사용하도록 지시.
- 건설 30% 미만인 프로젝트: 외국 칩 제거 또는 구매 계획 취소
- 2027년까지 "알고리즘 주권" 목표 — 하드웨어부터 알고리즘까지 전체 AI 스택 국산화
- 국산 칩이 중국 AI 컴퓨트의 30~40% (2026년 목표) 담당하도록 추진, 2024년 10% 미만에서 급속 확대
KC 영향: KC가 정부/공공 프로젝트를 수주하려면 화웨이 Ascend 기반 인프라가 필수. H20으로는 정부 사업 불가. 하지만 Ascend 수급이 불안정(수율 30~40%)하므로 확장 속도에 제약.
4-2. 전기 보조금
간쑤, 귀주, 내몽골 등 서부 성 정부가 국산 칩 사용 AI 데이터센터에 산업용 전기요금 50% 할인 제공.
배경: 국산 칩의 전력 효율이 낮아 전기 소비량이 NVIDIA 대비 30~50% 높다. 910C의 TDP는 310~350W로 H100(700W)보다 낮지만, 동일 연산량을 처리하려면 5배 이상의 칩이 필요하므로 총 전력은 더 크다. 보조금으로 이 비용 격차를 메우려는 것.
4-3. 재정 지원 규모
- 빅펀드 III 등을 통해 AI 칩과 데이터센터에 연간 $500~700억 보조금 투입
- 국산 칩 비중: 2024년 10% 미만 → 2025년 41%(165만 장) → 2026년 목표 30~40%(수요 기준)
4-4. 동수서산(东数西算) 프로젝트
2022년 2월 착수된 국가 메가프로젝트. 동부의 데이터를 서부에서 처리.
| 항목 | 수치 |
|---|---|
| 구조 | 8개 국가 컴퓨팅 허브, 10개 데이터센터 클러스터 |
| 누적 투자 | 2,390억 위안 ($330억), 계획의 절반 이상 집행 |
| 서버 랙 | 195만 대 (2022년 146만 대에서 확대) |
| 가동률 | 63% |
| 2025 목표 | 총 컴퓨팅 파워 300 EFLOPS, 지능형 컴퓨팅 비중 35%+ |
| 그린 에너지 | 50개+ DC가 그린 기준 충족 |
| 문제점 | 신규 컴퓨팅 자원의 최대 80%가 유휴 — 과잉 투자 우려 |
KC 함의: 서부 허브에 참여하면 정부 지원을 받을 수 있지만, 유휴율 80%는 투자 리스크. KC의 현재 전략은 동부(베이징, 상하이 등) 핵심 시장 집중이므로, 동수서산은 장기 기회.
4-5. 데이터 규제
| 규제 | 내용 | KC 영향 |
|---|---|---|
| 사이버보안법/데이터보안법/PIPL | 특정 데이터 국내 저장 의무 | 중국 클라우드에 구조적 수혜 |
| 국경 간 이전 | 보안심사/SCC/인증 3가지 경로 | 글로벌 진출 시 복잡성 증가 |
| 2026.01 시행 | 국경 간 개인정보 이전 인증 본격화 | 국내 클라우드 수요 강화 |
| 자유무역구 특례 | 17개 업종 네거티브 리스트 | 일부 데이터 해외 이전 허용 |
데이터 현지화 의무는 중국 국내 클라우드 사업자에게 구조적 수혜다. 외국 클라우드(AWS, Azure, GCP)가 중국 시장에서 규제 장벽에 막혀 있으므로, KC를 포함한 국내 사업자의 보호막 역할을 한다.
4-6. 정책 종합 — KC에 미치는 영향
| 정책 | 기회 | 위험 |
|---|---|---|
| 국산 칩 의무화 | 정부 프로젝트 수주 시 국산 칩 기반 → 수요 증가 | KC 자체 칩 없음 → 화웨이 의존, 수급 불안 |
| 전기 보조금 | 서부 AIDC 건설 시 운영비 50% 절감 | 서부 = 고객과 물리적 거리 → 지연 시간(latency) 이슈 |
| 동수서산 | 정부 지원 인프라 활용 가능 | 유휴율 80% → ROI 불확실 |
| 데이터 현지화 | 외국 클라우드 배제 → 국내 수혜 | KC 글로벌 진출 제약 |
| 빅펀드 보조금 | AI 인프라 투자 보조 가능 | KC가 직접 수혜 대상인지 불확실 (칩 제조사 중심) |
5. Anthropic Economic Index × 중국 AIDC 함의
5-1. Anthropic Economic Index 핵심 발견 (42.5만 대화 실측)
볼트에 저장된 교차 분석(260325)에서 도출된 핵심 데이터:
Jevons Paradox 실증: - 사용자가 AI와 4.67배 더 오래 작업 (Claude.ai 2026.02 기준) - 성공률 66.9% → 69.9% (+3%p) → 더 어려운 문제 시도 → 토큰 소비 증가 - 멀티턴(task iteration) API에서 +69.1% → 세션당 토큰 3~10배 증가 - 자율성 지수 3.41/5 (중앙값 4.0) → 에이전트가 자율적일수록 더 많은 토큰 소비
인프라 수요 폭발:
| 용도 클러스터 | 6개월 성장 | KC 관련도 |
|---|---|---|
| 보안 모니터링 | +764.5% | 직접 |
| 운영 데이터 기록 | +712.5% | 직접 |
| 시스템관리 | +442.6% | 직접 |
| 문서 리뷰 | +341.5% | 간접 |
| 버그 문서화 | +307.1% | 간접 |
API 트래픽의 9.08%가 인프라 직접 관련 (IT인프라 5.53% + 클라우드디버그 1.90% + 에이전트설정 1.65%).
노동시장에서 DB관리, 보안테스트, 네트워크진단의 AI 침투율 100% — 수요가 추정이 아닌 확정 사실.
5-2. 로컬 LLM 확산이 중국 AIDC에 미치는 영향
Anthropic EI에서 확인된 핵심 트렌드: 개인 사용자의 AI 사용이 +7.6%p 증가(42%)하고, 사용자 교육 수준이 하향(12.2→11.9) 중. 이는 AI가 전문가 도구에서 대중 도구로 확산되고 있다는 뜻.
이 트렌드를 중국에 적용하면:
① DeepSeek 효과 — 저가 추론의 대중화
DeepSeek R1/V3가 미국 최상위 모델의 1/5~1/10 가격으로 서비스되면서, 중국 내 AI 추론 수요가 "전문가 학습"에서 "대중 추론"으로 전환됐다.
- OpenRouter 전체 주간 토큰: 20.4T (2024.11 대비 17배)
- 이 중 중국 모델 비중: 61~65% (4.69T/주)
- MiMo-V2-Pro가 Sonnet 4.6급 성능을 1/5 가격에 → 추론 비용 붕괴
- 가격이 낮아질수록 사용량은 더 늘어난다 (Jevons Paradox가 실측으로 확인됨)
② 로컬 LLM → 추론 인프라 수요 폭발
| 트렌드 | 미국 관측 (Anthropic EI) | 중국 예상 영향 |
|---|---|---|
| Jevons Paradox | 비용↓ → 사용량 4.67배↑ | DeepSeek/MiMo 저가 → 중국 추론 수요 5배+ 가능 |
| 멀티턴 증가 | 세션당 토큰 3~10배 | 에이전트형 워크로드 확산 → 장시간 GPU 점유 |
| 인프라 AI 침투 100% | DevOps/보안/DB 전면 AI화 | 중국 기업도 동일 궤적 → 기업 클라우드 AI 수요 |
| 개인 사용 42% | 비전문가 대중 사용 확대 | 샤오미 디바이스(수억 대)의 AI 기능 → MiMo 추론 → KC |
| 교육 수준 하향 | 전문가→대중 전환 | 중국 모바일 유저 10억+ → 디바이스 AI 폭발 잠재력 |
③ KC에 대한 구체적 함의
a) 추론 > 학습 전환 가속: KC CEO가 "수요의 절반 이상이 추론"이라고 밝힌 것은 글로벌 트렌드와 일치. Anthropic EI 데이터에서도 API 사용이 학습(모델 개발)보다 추론(서빙, 에이전트)에 집중됨을 확인. 추론은 KC의 H20/Ascend 인프라로 충분히 처리 가능한 워크로드.
b) 에이전트 시대 → 장시간 GPU 점유: Anthropic EI에서 에이전트 자율성 중앙값 4.0/5, 시스템관리 AI 침투 100%. 에이전트형 AI는 단발성 쿼리와 달리 수십 분~수 시간 연속 GPU를 점유한다. KC의 StarFlow MaaS가 정확히 이 수요를 타깃.
c) 샤오미 디바이스 AI = 대중화의 중국 버전: Anthropic EI가 보여준 "개인 사용 42%, 교육 수준 하향"은 AI가 전문가 도구에서 벗어나고 있다는 뜻. 중국에서 이 전환의 매개체는 샤오미 스마트폰/IoT. MiMo가 HyperOS에 탑재되면 수억 대 디바이스가 추론 트래픽을 생성하고, 이 트래픽은 KC에서 처리.
d) TAM 이중 확장: - 소비자 TAM: 샤오미 디바이스 기반 MiMo 추론 (개인 AI 대중화) - 기업 TAM: 인프라/DevOps/보안 AI 침투 100% → 기업 클라우드 AI 수요 (StarFlow, Galaxy Stack)
5-3. 교차 분석에서 기존 판단 강화 근거
볼트의 260325 교차 분석에서 도출된 수정 밸류에이션:
| 시나리오 | 확률 | 목표 | 근거 |
|---|---|---|---|
| Bull | 30% | $28~32 | AI 500% 지속 + MiMo + Jevons |
| Base | 40% | $20~23 | AI 300%+ 감속하나 구조적 |
| Bear | 25% | $12~14 | CapEx 마진 압박, 중국 규제 |
| Tail | 5% | $7 | 미중 디커플링 극단 |
| 가중 | $21~24 | +58~81% 업사이드 |
3개 독립 소스(Anthropic 실측 + KC Q4 IR + 샤오미 FY2025)가 같은 방향을 가리킨다는 점이 핵심이다: 1. AI 추론 수요는 구조적으로 폭발 중 (Anthropic 실측) 2. KC의 AI 매출은 이미 YoY +95% 성장 (KC Q4 확인) 3. 수요원(샤오미)의 AI 투자는 가속 중 (3년 630억 위안)
6. 밸류 전략 — KC가 재평가받으려면
6-1. 현재 밸류에이션이 낮은 이유 5가지
| 이유 | 상세 | 해소 난이도 |
|---|---|---|
| ① 중국 ADR 디스카운트 | VIE 구조, 상폐 리스크, 지정학 | 높음 (구조적) |
| ② 적자 기업 인식 | GAAP 기준 적자 지속 | 중간 (Non-GAAP 흑자 전환 중) |
| ③ 범용 클라우드 5위 인식 | 알리/화웨이 대비 점유율 3% | 중간 (AI 포지셔닝 전환 필요) |
| ④ GPU 수급 불확실성 | 칩 규제 반복 가능성 | 높음 (외부 요인) |
| ⑤ 샤오미 의존도 우려 | 관계사 거래 비중 29% | 낮음 (비중 관리 중, 외부 70%) |
6-2. 밸류 상향을 위한 구체적 지표/이벤트
단기 (1~2분기 내):
| 지표 | 현재 | 목표 | 밸류 영향 |
|---|---|---|---|
| AI 총빌링 분기 | 9.26억 위안 (Q4) | 10억+ (Q1 2026) | +95% 성장 지속 확인 → P/S 리레이팅 트리거 |
| AI 매출 비중 (퍼블릭 클라우드) | 49% | 60%+ | "AI 순수 플레이" 인식 전환 |
| Non-GAAP 영업이익 | 2분기 연속 흑자 | 4분기 연속 | 구조적 흑자 전환 확정 |
| MiMo OpenRouter 순위 | 1위 | 1위 유지 | 생태계 성장 선행지표 |
중기 (2~4분기):
| 이벤트 | 시기 | 밸류 영향 |
|---|---|---|
| Xiaomi 프레임워크 계약 캡 인상 | 2026 중반 | +10~15% 인상 시 → 3년 매출 가시성 확대 |
| CFO 후임 선임 | 미정 (2025.06 사임 후 공석) | 거버넌스 불확실성 해소 |
| GAAP 흑자 전환 | 2026 하반기~2027 | 적자 기업 낙인 제거 |
| HKEX 거래량 확대 | 지속 | ADR 상폐 리스크 헤지 |
장기 (1년+):
| 전환 | 현재 → 목표 | 밸류 효과 |
|---|---|---|
| 피어 그룹 재설정 | 알리/텐센트 대비 → "AI 인프라 플랫폼" 독립 카테고리 | P/S 3x → 5~6x |
| 추론 서비스 MaaS 비중 확대 | GPU 임대 → 토큰 과금 서비스 비중↑ | 마진 구조 개선 (StarFlow) |
| 에이전트 인프라 매출 | 초기 | 에이전트 기반 추론 매출 별도 공시 |
6-3. 비교 기업별 밸류에이션 멀티플
KC가 받아야 할 적정 멀티플을 판단하려면, 중국 클라우드보다는 AI 인프라 플랫폼으로 비교해야 한다.
| 비교군 | P/S 범위 | KC 적용 시 시총 |
|---|---|---|
| 중국 범용 클라우드 (알리 0.28x, BABA 0.29x) | 0.2~0.7x | $2.7~9.5억 (현재보다 하락) |
| 중립 IDC (GDS 0.68x, VNET 0.21x) | 0.2~0.7x | $2.7~9.5억 (부적절 비교) |
| 중국 AI 클라우드 (현재 KC) | ~3.0x | $4.0B (현재 수준) |
| 미국 네오클라우드 (CRWV 8.7x, NBIS 56x) | 8~58x | $10.9~78.8B (중국 할인 적용 불가) |
| 적정 범위 (중국 AI 프리미엄 + ADR 할인) | 4~6x | $5.4~8.1B → 주가 $18~27 |
KC의 AI 매출만 분리하면 성장률 +95%에 멀티플 3.0x = 성장 대비 극저평가. AI 부문 P/S를 네오클라우드의 1/3인 10x로만 잡아도 AI 부문 가치만 $6B+.
6-4. KC가 해야 할 것 vs 하지 말아야 할 것
해야 할 것: 1. AI 매출을 별도 세그먼트로 공시 — "AI Gross Billing"이 아닌 GAAP 인식 매출 기준 분리 2. 추론 vs 학습 매출 비중 공개 — 추론 마진이 높다는 주장의 정량적 근거 3. CFO 빨리 선임 — 2025.06 사임 후 10개월 공석은 거버넌스 불안 요인 4. HKEX 거래량 키우기 — ADR 상폐 시 자연스러운 전환 기반 5. 에이전트 인프라 매출 카테고리 신설 — StarFlow/Galaxy Stack의 MaaS 트래픽을 투자자가 추적 가능하게
하지 말아야 할 것: 1. 자체 LLM 개발 — 현재 "중립 플랫폼"이 최대 차별점. 자체 모델 만들면 고객과 충돌 2. 가격 전쟁 참여 — 알리/화웨이와 가격으로 싸우면 마진 붕괴 3. 추가 대규모 주식 발행 — 경영진이 "추가 발행 없다"고 명시한 것은 긍정적. 지켜야 함 4. 정부 클라우드에 과잉 투자 — 마진 낮고 스케일 어려움. AI 추론에 집중
7. 종합 판단
7-1. Q4 2025 실적 (2026.03.25 발표) 결과 요약
| 항목 | 결과 | 컨센서스 대비 |
|---|---|---|
| 총 매출 | 27.6억 위안 (역대 최고) | 컨센서스 27.5억 → 소폭 상회 |
| 퍼블릭 클라우드 | 19.0억 위안 (+35%) | — |
| AI 총빌링 | 9.26억 위안 (+95%) | — |
| 조정 영업이익률 | +2.0% (2분기 연속 흑자) | — |
| Non-GAAP EBITDA | 7.85억 위안 (+118%) | — |
| EBITDA 마진 | 28% (전년 16%) | +12%p |
| 2026 capex 가이던스 | 100억+ 위안 (2025년 50억 대비 2배) | 공격적 |
실적은 테제 확인 방향이다. AI 빌링 +95%, EBITDA 마진 28%, 추론이 학습을 넘어선 구조적 전환 — 모두 기존 투자판단의 근거를 강화.
7-2. 기존 투자판단 갱신
| 항목 | 기존 (260330) | 현재 (260408) | 변경 근거 |
|---|---|---|---|
| 판정 | 매수검토 | 매수검토 유지 | Q4 실적 확인, 추가 변경 불필요 |
| Confidence | 7/10 | 7/10 유지 | Q1 AI빌링 10억+ 확인 전까지 |
| 가중 기대값 | $20.5 | $20.5 유지 | — |
| 트리거 | Q1 AI빌링 10억+ & MiMo 1위 | 동일 | — |
Confidence 10이 아닌 이유: 1. CFO 공석 10개월 (거버넌스 불안, -1점) 2. GPU 수출 규제 재발 가능성 (외부 리스크, -1점) 3. GAAP 적자 지속 (구조적 흑자 미확정, -0.5점) 4. 샤오미 의존도 75% (Goldman 추정, 집중 리스크, -0.5점)
7-3. 모니터링 항목
주간: - MiMo-V2-Pro OpenRouter 순위 (openrouter.ai/rankings) - OpenRouter 주간 총 토큰 (20.4T → 25T+ 시 슈퍼사이클) - 중국 모델 점유율 (61~65% 유지 여부)
분기: - KC Q1 2026 실적 (2026.06 예상) — AI 빌링 10억+ 여부가 핵심 - Xiaomi 프레임워크 계약 캡 인상 (2026 중반) - CFO 후임 선임
이벤트: - GPU 수출 규제 변화 (H20 관세/금지 여부) - MiMo-V3 출시 (추가 추론 수요 트리거) - 중국 정부 국산 칩 의무화 확대 (KC에 기회+위험 동시)
출처
IR/공시
- KC Q4 2025 Earnings Call Transcript (2026.03.25) — Insider Monkey
- KC Q2 2025 Earnings Transcript — Motley Fool
- KC SEC 6-K Filing (Q4 2025)
- Xiaomi FY2025 Annual Results (2026.03)
리서치
- Goldman Sachs: KC Buy Upgrade, TP $15.60 (2026.02)
- Citi: KC Buy, TP $21.50
- Jefferies: KC Buy, TP $19.00
- Bernstein: CRWV Underperform, $56 (비교 참고)
- Sahm Capital: KC AI Strategy Repositioning (2026.03)
칩/기술
- DeepSeek: Ascend 910C = H100의 60% (TrendForce 2025.02.05 보도)
- SemiAnalysis: H20 추론 성능 분석
- Tom's Hardware: Ascend 910C vs H100
- Nexgen Compute: Ascend 910C 스펙 비교
- TrendForce: DeepSeek-Huawei Atlas 올인원 머신 분석
시장 데이터
- IDC: 중국 AI 클라우드 시장 규모/점유율
- Fortune BI: GPU 클라우드 시장 규모
- OpenRouter: 주간 토큰 소비, 모델 순위
볼트 기존 분석
- [[KC-투자판단-260330]] — Confidence 7, 매수검토
- [[260325_KC-Anthropic-Economic-Index-교차분석]] — 3소스 교차, Strong Buy
- [[260325_KC-Q4-실적프리뷰-AI추론인프라]] — MiMo 효과 분석
- [[260408_neocloud_kingsoft_analysis]] — 네오클라우드 비교
- [[260408_gpu_cloud_comparison]] — GPU 클라우드 5개사 비교
이 보고서는 ~/knowledge-agent/400-reports/에 저장. 볼트 기존 KC 분석 6건과 교차 참조하여 작성. 데이터 기준일: 2026-04-08 | 주가: $13.57 | 시총: $4.0B