시리즈: 우주 데이터센터 AI워크로드 경제성 (총 9편) | 3회
AI 워크로드 적합성 — 학습·추론·배치·스토리지
우주 데이터센터에 모든 AI 작업을 올릴 수 있는 건 아니야. 지연을 못 버티면 지구 가까이, 데이터가 우주에서 생기면 우주에서 처리하는 게 핵심인데, 워크로드별로 우주 적합성이 천차만별이야. 이번 편에서 정리해볼게.
Summary
- “데이터 중력(Data Gravity)” 원칙이 우주에서도 통해: 데이터가 있는 곳으로 컴퓨팅이 끌려가
- 추론은 LEO 엣지가 “현실적 우주 AI”의 시작점이고, 위성 간 레이저 링크(ISL)로 분산 추론까지 가능해
- 학습은 단기 실증(Starcloud) → 중기 조건부 → 장기 산업화 순서로 진행되며, 발사비가 관건이야
- 스토리지/DR은 달이 가장 설득력 있는 첫 시장이야 — “클라우드 확장”이 아니라 “오프사이트 백업의 극단”
이 글의 대상
- “우주에서 AI를 돌린다는데, 구체적으로 뭘 돌릴 수 있어?”가 궁금한 사람
- AI 워크로드 특성(학습 vs 추론 vs 배치)을 이해하고 우주 적합성을 판단하고 싶은 엔지니어
- Lonestar와 Starcloud가 왜 다른 시장을 노리는지 이해하고 싶은 투자자
목차
- 데이터 중력 — 우주 데이터센터의 제1원칙
- 추론 — LEO 엣지가 현실적 시작점
- 학습 — 단기 실증에서 장기 산업화까지
- 배치/오프라인 — 우주에 가장 잘 맞는 방식
- 스토리지/DR — 달이 가장 먼저 먹는 시장
- 워크로드별 우주 적합성 종합표
1. 데이터 중력 — 우주 데이터센터의 제1원칙
우주 데이터센터의 워크로드 선택을 관통하는 원칙이 하나 있어. Dave McCrory가 제시한 “데이터 중력(Data Gravity)” 개념이야.
핵심은 간단해: 데이터가 있는 곳으로 컴퓨팅이 끌린다. 데이터를 옮기는 것보다 컴퓨팅을 데이터 옆에 갖다 놓는 게 거의 항상 효율적이거든.
이게 우주에서 왜 중요하냐면:
- 지구에서 생성된 데이터를 우주로 올리려면 막대한 업링크 대역폭이 필요해 → 비효율적
- 우주에서 생성된 데이터(위성 관측, 우주 탐사)는 지구로 내리기 전에 우주에서 처리하는 게 효율적
- 레이턴시가 크면 “데이터를 보내서 처리하고 받는” 왕복 비용이 폭등해
그래서 우주 데이터센터의 워크로드는 크게 두 갈래로 나뉘어:
- 우주 데이터를 우주에서 처리: 위성 관측 데이터 전처리, 엣지 추론
- 지연에 둔감한 지구 워크로드를 우주의 무한 자원으로 처리: 대규모 배치 학습, 장기 저장
2. 추론 — LEO 엣지가 현실적 시작점
추론(Inference)은 이미 학습된 모델에 데이터를 넣어서 결과를 뽑아내는 거야. 학습보다 연산량이 적고, 단일 요청 단위로 처리되기 때문에 분산 환경에 잘 맞아.
왜 LEO 엣지 추론이 “현실적 우주 AI”의 시작점이야?
지구 관측 위성이 하루에 수 테라바이트의 이미지를 찍어. 이걸 전부 지상으로 내려보내려면 다운링크 대역폭이 병목이 되거든. 그런데 위성에 추론 모델을 올려두면?
- 촬영 → 즉시 분류/탐지 → 의미 있는 결과만 지상으로 전송
- 다운링크 대역폭을 10분의 1 이하로 줄일 수 있어
- 재난 감시, 선박 추적, 산불 탐지 같은 긴급 용도에서 “시간”이 곧 가치야
위성 간 레이저 링크(ISL)로 분산 추론
Starlink이 이미 사용하고 있는 ISL을 활용하면, 여러 위성의 GPU를 연결해서 하나의 추론 요청을 분산 처리하는 것도 가능해. 단일 위성의 컴퓨팅 파워가 부족하더라도, 위성 메시(mesh) 네트워크로 보완하는 거지.
물론 ISL 대역폭과 위성 간 지연이 제약이 되지만, 추론은 학습만큼 대규모 데이터 동기화가 필요하지 않아서 상대적으로 적합해.
3. 학습 — 단기 실증에서 장기 산업화까지
학습(Training)은 추론과 성격이 완전히 달라. 수천~수만 개 GPU가 동시에 데이터를 처리하면서 모델 파라미터를 업데이트하는 작업이야. GPU 간 초고속 통신(NVLink, InfiniBand)이 필수이고, 대규모 데이터셋을 반복 순회해야 해.
단기: 실증 단계 (지금)
Starcloud가 궤도에서 H100을 운용하면서 “우주에서 GPU 연산이 돌아간다”는 걸 보여줬어. 하지만 이건 아직 “돌아간다”는 걸 증명한 거지, 상업적으로 의미 있는 규모의 학습은 아니야.
중기: 조건부 가능
발사비가 충분히 떨어지고, 궤도에 수백~수천 대의 GPU 노드를 배치할 수 있게 되면, 특정 조건에서 학습이 경제적으로 가능해질 수 있어.
조건이 뭐냐면:
- 레이턴시에 둔감한 학습 작업: 비동기 학습, 파이프라인 병렬화 등
- 전력 비용이 지배적인 경우: 우주 태양광이 지상 전기보다 실질적으로 저렴해지는 시점
- 데이터가 이미 우주에 있는 경우: 위성 관측 데이터로 지구 관측 AI를 학습시키는 시나리오
Google Suncatcher가 프리프린트에서 발사비 민감도를 정면으로 다룬 게 이 시점을 정확히 겨냥한 거야.
장기: 산업화
스타십 세대의 초저가 발사, 우주 제조(In-Space Manufacturing), 궤도 조립이 현실화되면 “수만 GPU 규모의 우주 학습 클러스터”도 상상할 수 있어. 하지만 이건 2030년대 후반~2040년대 이야기야.
4. 배치/오프라인 — 우주에 가장 잘 맞는 방식
실시간 응답이 필요 없는 배치(Batch) 작업은 우주 데이터센터의 가장 자연스러운 적합 워크로드야.
왜 그런지 생각해 보면:
- 가동 시간창에 맞춰 돌릴 수 있어: 궤도 위성이 햇빛을 받는 구간에서 처리하고, 그림자 구간에서는 쉬는 식. “24/7 가동”을 전제하지 않아도 돼.
- 결과만 보내면 돼: 중간 과정의 실시간 피드백이 필요 없으니까 다운링크 부담이 적어.
- 위성 관측 데이터 처리에 딱이야: 촬영된 이미지를 요약·압축·선별해서 핵심만 지상으로 보내는 파이프라인.
구체적인 예시를 보면:
| 배치 워크로드 | 설명 | 우주 적합 이유 |
|---|---|---|
| 위성 이미지 전처리 | 수 TB 이미지에서 의미 있는 변화 감지 | 데이터가 이미 궤도에 있어 |
| 기상 데이터 분석 | 기상 위성 데이터를 현장에서 1차 처리 | 다운링크 절약, 속도 향상 |
| 대규모 시뮬레이션 | 지연 무관한 장시간 연산 | 무한 태양광 전력 활용 |
| 데이터 압축/인코딩 | 원본 데이터를 줄여서 전송 | 업링크/다운링크 대역폭 최적화 |
5. 스토리지/DR — 달이 가장 먼저 먹는 시장
여러 워크로드 중에서 가장 먼저 상업화될 가능성이 높은 건 달 기반 스토리지/재난 복구(DR)야.
왜 달이야?
Lonestar의 사업 모델을 보면 명확해. 이건 “클라우드 확장”이 아니라 “오프사이트 백업의 극단”이야.
기업과 정부가 재난 복구 백업을 하는 이유는 “최악의 시나리오에서도 데이터가 살아남게” 하려는 거잖아. 지구 위의 어떤 데이터센터도 지구 규모 재난(대규모 태양 폭풍, 핵전쟁, 소행성 충돌)으로부터 100% 안전하지 않아.
달에 데이터를 저장하면:
- 물리적으로 지구와 분리돼 있어서 지구 재난의 영향을 받지 않아
- 레이턴시가 2.56초라서 실시간 서비스는 못 하지만, 백업/복원에는 충분해
- “연 1회 백업 갱신” 같은 느린 주기로도 가치가 있어
Lonestar + Phison의 진행 상황
Lonestar는 Phison의 SSD 기술을 활용해서 달 환경에서 작동하는 스토리지를 개발했어. Intuitive Machines의 달 착륙선에 페이로드를 탑재하고 최종 설치·테스트까지 완료한 상태야. “달 데이터센터 하드웨어”가 실제로 달에 가는 단계까지 온 거지.
이게 왜 “가장 먼저 먹는 시장”이냐면:
- 연산이 아니라 저장이라서 전력 소비가 적어 (14일 밤 문제가 덜해)
- GPU 클러스터가 아니라 SSD 모듈이라서 질량이 상대적으로 가벼워
- “물리적 격리” 자체가 고객 가치라서, 성능 비교 대상이 지상 클라우드가 아니야
6. 워크로드별 우주 적합성 종합표
모든 걸 한 표로 정리해 볼게.
| 워크로드 | 지연 민감도 | 최적 입지 | 현실성 시점 | 대표 프로젝트 |
|---|---|---|---|---|
| 엣지 추론 | 높음 | LEO | 현재~2027 | Starcloud |
| 분산 추론 | 중간 | LEO 메시 | 2027~2030 | ISL 기반 위성군 |
| 배치 학습 | 낮음 | LEO/SSO | 2028~2032 | Suncatcher |
| 대규모 학습 | 낮음 | LEO/SSO | 2035+ | 미정 |
| 배치 처리 | 낮음 | LEO | 현재~2027 | 위성 데이터 전처리 |
| 스토리지/DR | 매우 낮음 | 달 | 현재 | Lonestar |
핵심 패턴이 보여? 지연에 민감할수록 LEO, 둔감할수록 달로 간다. 그리고 데이터가 우주에서 생기면 우주에서 처리하는 게 무조건 유리해.
핵심 정리
1. 데이터 중력(Data Gravity): 데이터가 있는 곳으로 컴퓨팅이 끌려간다 — 우주 데이터센터 워크로드 선택의 제1원칙이야
2. 추론은 LEO 엣지가 시작점이고, 학습은 "단기 실증 → 중기 조건부 → 장기 산업화" 로드맵을 따라가
3. 배치/오프라인 작업이 우주에 가장 잘 맞아: 가동 시간창 활용, 결과만 전송, 실시간 피드백 불필요
4. 스토리지/DR은 달이 가장 먼저 먹는 시장이야 — "오프사이트 백업의 극단"이라는 독자적 가치
FAQ
Q. 데이터 중력이 정확히 뭐야?
A. Dave McCrory가 제안한 개념으로, “데이터가 많아질수록 주변에 서비스와 컴퓨팅을 끌어당긴다”는 거야. 물리학의 중력 비유를 IT 인프라에 적용한 거지. 우주에서는 데이터 전송 비용이 지상보다 훨씬 비싸니까, 이 원칙이 더 강하게 작용해.
Q. Starcloud의 H100이 궤도에서 실제로 학습을 해?
A. 현재는 “GPU 연산이 궤도에서 작동한다”는 실증에 가까워. 상업적으로 의미 있는 규모의 학습을 하려면 GPU 수백~수천 대와 초고속 인터커넥트가 필요한데, 아직 그 단계는 아니야. 하지만 첫 걸음으로서의 의미가 커.
Q. 위성 간 레이저 링크로 학습도 가능해?
A. 이론적으로는 가능하지만, 현재 ISL 대역폭으로는 학습에 필요한 GPU 간 대규모 데이터 동기화가 어려워. 추론이나 비동기 학습처럼 통신 요구량이 적은 작업에는 적합하지만, 동기식 대규모 학습은 아직 갈 길이 멀어.
Q. Lonestar가 달에 SSD만 보내는 거야? 서버는 없어?
A. 초기 페이로드는 스토리지 중심이야. 연산 기능은 최소한으로, 데이터 수신·저장·무결성 검증 정도만 해. “달 데이터센터”라고 하지만 첫 단계는 “달 스토리지”에 가까워. 연산 기능은 기술과 발사비가 성숙하면 확장될 거야.
Q. 위성 데이터 처리를 왜 지상에서 안 해?
A. 지상에서도 물론 해. 문제는 다운링크 대역폭이야. 위성이 찍는 데이터양에 비해 지상으로 보낼 수 있는 양이 한정돼 있거든. 궤도에서 1차 처리를 해서 데이터를 줄이면, 다운링크 병목을 크게 해소할 수 있어. “전부 내려보내고 지상에서 처리”는 데이터양이 많아질수록 비효율적이야.
Q. 우주에서 배치 학습을 한다면, 학습 데이터는 어떻게 올려?
A. 이게 핵심 문제야. 수십~수백 TB의 학습 데이터를 업링크로 올리는 건 대역폭과 비용 면에서 엄청난 도전이야. 그래서 단기적으로는 “우주에서 생성된 데이터”를 우주에서 학습하는 시나리오가 유리하고, 지구 데이터 업로드는 업링크 기술이 발전한 후에나 현실적이야.
Q. “오프사이트 백업의 극단”이 실제로 수요가 있어?
A. 있어. 정부, 금융, 의료 같은 섹터에서는 규제상 지리적으로 분리된 백업을 요구하는 경우가 많거든. “다른 대륙”을 넘어 “다른 천체”까지 가면, 어떤 지구 재난에도 데이터가 살아남는다는 보장이 생겨. 비용을 감당할 수 있는 고가치 데이터부터 시장이 형성될 거야.
참고 자료 (References)
데이터 출처
| 출처 | 설명 | 링크 |
|---|---|---|
| Dave McCrory (Data Gravitas) | 데이터 중력 개념의 원저자 블로그 | 링크 |
| TechCrunch | Lonestar 달 데이터센터 인프라 보도 | 기사 링크 |
| Data Center Dynamics | Starcloud H100 궤도 운용 소식 | 기사 링크 |
| Phison | Lonestar와의 달 데이터센터 하드웨어 협력 보도 | 보도자료 |
| PR Newswire | Lonestar 페이로드 최종 설치·테스트 완료 보도 | 보도자료 |
핵심 인용
“Data has mass. And like any massive object, it attracts services and applications toward it.”
— Dave McCrory, Data Gravity 개념 창시자
다음 편 예고
[4편] 전력 — “공짜 태양광”의 진실과 원자로 필수론
- 우주 태양광이 정말 “공짜”인지, 숨겨진 비용은 뭔지
- 달과 화성에서 원자로가 왜 필수인지
- W/kg(전력 질량비)가 사업성을 어떻게 좌우하는지
'Tech' 카테고리의 다른 글
| 냉각 — 라디에이터 면적이 사업성을 결정한다 — 우주 데이터센터 AI워크로드 경제성 5/9 (1) | 2026.03.14 |
|---|---|
| 전력 — "공짜 태양광"의 진실과 원자로 필수론 — 우주 데이터센터 AI워크로드 경제성 4/9 (0) | 2026.03.14 |
| 달 vs 궤도 vs 화성 — 입지별 핵심 차이점 — 우주 데이터센터 AI워크로드 경제성 2/9 (0) | 2026.03.14 |
| 왜 지금 우주 데이터센터인가 — AI 인프라의 구조적 병목 — 우주 데이터센터 AI워크로드 경제성 1/9 (0) | 2026.03.14 |
| 우주 데이터센터 AI워크로드 경제성 — 시리즈 목차 (0) | 2026.03.14 |
