Claude Code에게 한 줄.
서버부터 도메인까지 자율주행.
AI가 인프라를 통째로 운영합니다. AI 모델을 학습·서빙하거나, 바이브 코딩한 앱을 도메인 물려 서비스하거나 — 한 마디면 끝입니다.
· 카드 등록 없이 시작 · 첫 가입은 구글 한 번이면 끝
네, onpod에 H100 한 장 띄울게요.
4분 17초 걸렸어요. 토큰은 콘솔 “AI 에이전트” 탭에서 발급된 것 그대로 썼습니다.
한 마디로
서버 인프라를 AI가 통째로
운영하는 클라우드입니다.
기존 서버 클라우드는 콘솔·SSH·터미널에 맞춰져 있어요. 우리는 CLI 한 줄에 인프라 작업을 통째로 담아서, AI 에이전트가 자연어로 서버를 만들고 운영할 수 있게 했습니다.
AWS · Google Cloud 콘솔 복잡하죠?
아무것도 몰라도 됩니다.
그냥 말로 시키세요.
우리 CLI는 사람보다 Claude Code · Codex · Cursor가 더 잘 쓰도록 설계됐습니다. 콘솔 클릭 없이, AI 에이전트에 자연어 한 마디 던지면 서버 띄우기 · 도메인 연결 · 자동 확장 · 종료까지 알아서 처리합니다.
구글로 가입
5초면 끝납니다. 카드 등록도 나중에 해도 됩니다.
한 줄 복사·붙여넣기
콘솔 “AI 에이전트” 탭에 토큰이 포함된 프롬프트가 있습니다. Claude · Cursor · Codex 첫 메시지에 통째로 붙여 넣으세요.
자연어로 일 시키기
그 뒤로는 그냥 “H100 두 장으로 학습 돌려” 라고 던지면 됩니다. 에이전트가 매뉴얼 읽고 알아서 처리합니다.
이렇게 시켜보세요
추론 배포 · 자동 확장
학습한 모델을 그 자리에서
API로 띄웁니다.
이미지와 GPU만 고르면 공개 API 주소가 바로 따라옵니다. 그리고 한 번 더 — 트래픽이 늘면 알아서 대수를 늘리고, 한가해지면 알아서 줄여요. 그래서 사람이 한꺼번에 몰려와도 서비스가 느려지거나 죽지 않습니다.
이미지와 GPU만 고르면 API 주소가 따라와요
콘솔에서 이미지 한 번에 띄우면 {slug}.live.onpod.ai 같은 안정 주소가 바로 발급됩니다. 도메인·인증서·라우팅을 따로 셋업할 일이 없어요.
바쁘면 알아서 늘고, 한가하면 알아서 줄어요
응답이 느려질 때 · 한 대에 요청이 많이 몰릴 때 · 에러가 늘 때 — 이런 기준 중 하나만 골라두면 그 기준대로 대수가 자동 조절됩니다. 잠깐 튀는 건 무시하고 진짜 바쁠 때만 늘려요.
GPU가 모자라도 알아서 채워요
더 늘리고 싶은데 GPU 자리가 없으면 약 3분 안에 추가 GPU를 켜서 채워줍니다. 모델별 한도가 미리 정해져 있어서 청구서가 폭탄이 되지 않아요. 끄고 켜기 모두 한 번의 토글.
정해두는 건 한 번이면 끝. 예를 들어 “응답이 0.5초 넘게 느려지면 한 대 추가, 5분간 잠잠하면 한 대 줄임” 한 줄을 콘솔 토글로 정해두면 그 다음부터는 사람이 밤에 깨지 않아요. 콘솔이나 CLI에서 언제든 기준만 다시 정하면 됩니다.
Pod 풀
돌아가는 동안에도
안을 들여다볼 수 있어요.
같은 컨테이너 여러 대를 한 묶음으로 띄우고, 트래픽에 맞춰 자동으로 늘리고 줄입니다. 운영 중에도 컨테이너 안에 직접 접속해서 로그·GPU 상태·모델을 점검할 수 있어요. 디버깅하면서도 자동 확장은 그대로 작동합니다.
이 두 가지를 한 묶음으로 다루는 건 GPU 클라우드에서 흔치 않은 구성이라, 직접 만들었어요.
나만 호출할 수 있는 주소
풀 전용 공개 URL이 발급되는데, 내 API 키만 통과합니다. 누가 주소를 알아도 외부에서 호출할 수 없어요.
컨테이너 안 직접 접속
운영 중인 컨테이너에 들어가서 GPU 사용량·모델 가중치·로그를 그 자리에서 확인합니다. 점검 끝나도 자동 확장은 계속 돌아요.
바쁘면 늘고, 한가하면 줄고
응답시간·요청 수·에러율 중 하나만 골라두면 그 기준대로 알아서 조절합니다. 잠깐 튀는 건 무시하고 진짜 바쁠 때만 늘려요.
- • 모델을 디버깅하면서 운영도 같이 해야 할 때
- • Jupyter · ComfyUI · 자체 학습 UI 처럼 직접 들어가서 다뤄야 하는 컨테이너
- • 다른 사람에게 노출하지 않고 나만 쓰는 추론용 공개 URL
싸다고 다가 아닙니다
열심히 만든 서비스,
그냥 날리실 거예요?
저렴한 GPU 임대를 쓰다가 호스트가 사라져 학습이 통째로 증발하거나, 잘 돌던 추론 서버가 알 수 없는 이유로 멈추는 일이 흔합니다. 시간당 몇 백 원 더 아끼려다 며칠 분량의 작업이 날아간 적, 한 번 겪으면 다시는 그 길로 안 갑니다. 우리는 처음부터 그 사고가 안 일어나도록 만들었어요.
글로벌 검증 인프라 위에서
개인 GPU 임대 호스트가 아니라, AWS 같은 ISO 27001 / SOC 2 인증 글로벌 데이터센터 위에서 실행됩니다. 호스트 자체가 사라지는 사고가 발생하지 않습니다.
데이터는 한국에서만 흐릅니다
모든 GPU·컨테이너·요청 처리는 한국 리전(서울)에서만 일어나요. 외부로 데이터가 빠져나가지 않아서, 국내 규제·내부 보안 검토에 그대로 들어맞습니다.
학습이 사라지지 않습니다
Pod가 새 호스트로 옮겨가도 작업 디렉터리는 그대로 따라옵니다. 학습 코드가 체크포인트를 디스크에 저장해두면 같은 지점에서 이어 받을 수 있어요.
안 끄면 안 꺼집니다
“다른 사용자가 들어와서 내 인스턴스가 회수됐다”는 일이 없도록 SKU를 분리했습니다. 시간 단위 · 장기 예약은 내가 끄기 전엔 회수 없음.
자체 데이터센터나 개인 GPU 호스트가 아닙니다. 대형 클라우드(AWS Seoul)와 ISO 27001 / SOC 2 / KISA-ISMS 인증을 받은 한국 IDC의 컴퓨트·스토리지·네트워크 위에서 작동합니다. 우리는 그 위에 GPU 라이프사이클·결제· AI 에이전트 인터페이스만 얹었습니다.
GPU 클라우드의 신뢰성은 결국 어떤 인프라 위에서 도는지가 결정합니다. 시간당 몇 백 원 더 아끼려다 학습이 통째로 사라지면 — 그게 가장 비싼 선택입니다. 견적을 받을 때 “어떤 데이터센터 / 어떤 인프라 위에 도는지” 를 꼭 물어보세요.
이제 안 해도 되는 일
그동안 GPU 빌리느라
하던 일들 — 이제 안 해도 됩니다.
누구에게 onpod이 딱일까요
사람이 한꺼번에 몰려와도.
평소 1명이 쓰던 서비스에 갑자기 100명이 들어와도, 우리 자동 확장이 알아서 늘려서 끊김 없이 응답해요. 어떤 상황에서 어떻게 도움이 되는지 실제 장면으로 보여드릴게요.
출시 다음 날 입소문이 났을 때
Product Hunt 1위, 트위터 떡상. 그 순간 호출이 100배 늘어도 서비스는 그대로 응답합니다. 새벽에 노트북 켜고 인스턴스 수동으로 늘리는 일, 없어요.
학회 발표 직후 데모 폭주
발표 끝나고 학회 슬랙·디스코드에서 데모 URL을 동시에 누릅니다. 우리는 호출이 늘면 인스턴스가 늘어나서, 첫 5분이 가장 중요한 그 순간에 죽지 않습니다.
내 에이전트가 분당 수백 번 호출할 때
Claude·Cursor 같은 에이전트가 우리 API를 도구로 쓴다면, 응답이 일정해야 에이전트가 안 멈춥니다. p95 응답시간 기준을 정해놓으면 그 선 안에 들어가도록 자동 조절됩니다.
월요일 출근 시간 한 번에 들어올 때
전 직원이 9시에 동시에 사내 챗봇을 켜도 멈추지 않습니다. 평일 낮에 늘었다가 새벽에 줄어드는 자연스러운 흐름을 알아서 따라갑니다.
조용히 키우다가 갑자기 화제가 됐을 때
트래픽이 평소의 50배가 되어도 같은 API 주소가 그대로 살아 있습니다. 동시에 비용 한도가 정해져 있어서, 깨어보니 청구서가 폭탄이 되는 일도 없습니다.
한 줄로 정리하면
onpod로 서비스하면, 사람이 몰려도 서비스가 느려지거나 죽지 않습니다. 우리가 처음부터 그렇게 만들어두었어요.
사용 방식
쓰는 방식은 세 가지.
AI에게 골라달라고 해도 됩니다.
시간 단위
사용 시작 시 즉시 GPU를 잡고, 끄기 전까지 회수되지 않습니다.
- 내가 끄기 전까지 회수 없음
- 켜져 있는 시간에만 과금
- 짧은 학습 · 실험 · 단발성 추론
장기 예약
월·연 단위로 GPU를 통째로 예약합니다. 약정 기간 안에는 회수가 없습니다.
- 약정 기간 내내 보장
- 약정 기간 전체에 대해 과금
- 장기 학습 · 상시 운영 · 안정성 우선
스팟
다른 사용자의 빈 자리를 활용해 더 가볍게 띄웁니다. 단, 회수될 수 있습니다.
- 시간/장기 사용자 진입 시 1분 안내 후 회수
- 켜져 있는 시간에만 과금
- 대량 일괄 · 중간 저장 가능한 작업
기업 보안
엔터프라이즈 환경에 맞춰 만들었습니다.
가격
모든 가격은 원화로 표시됩니다.
환율은 분기별로 한 번만 조정합니다. 환율 변동분은 우리가 흡수해서 청구서가 갑자기 바뀌지 않습니다.
예시 · H100 80GB 시간 단위 1시간 = 3,700원 · 24시간 연속 = 88,800원.
자주 묻는 질문
FAQ
정말 한 문장으로 GPU가 빌려지나요?
가입하고 콘솔의 “AI 에이전트” 탭에 있는 한 줄 프롬프트를 Claude·Cursor·Codex 첫 메시지에 붙여 넣은 다음부터는, 자연어로 일을 시키면 됩니다. 에이전트가 우리 매뉴얼을 읽고 GPU 임대·모델 실행·공개 주소 발급까지 알아서 처리합니다.
트래픽이 갑자기 몰려도 서비스가 안 죽나요?
안 죽습니다. 추론 서비스를 띄울 때 “응답이 느려지면 늘려” 같은 기준을 한 번만 정해두면, 그 뒤로는 시스템이 알아서 인스턴스를 늘리고 줄입니다. 잠깐 튀는 트래픽에 일희일비하지 않도록 “이 시간 이상 지속되면” 같은 안전장치도 같이 들어가요. 한가해지면 한 대씩 줄여서 비용도 같이 줄어듭니다.
GPU가 모자라면 어떻게 되나요?
한도 안에서 자동으로 추가 GPU를 켜서 채워줍니다. 인스턴스 한 대당 약 3분이면 추가됩니다. 모델별로 “여기까지만” 한도가 미리 정해져 있어서, 깨어보니 청구서가 폭탄이 되는 일은 없습니다. 한도와 자동 추가를 끄고 싶으면 콘솔 토글 한 번이면 됩니다.
AI에게 맡기지 않고 직접 콘솔에서 써도 되나요?
물론입니다. 콘솔에서 GPU 모델·이미지·환경변수를 골라 한 번에 띄울 수 있습니다. AI 에이전트는 더 빠르게 쓰는 방식일 뿐, 강제는 아닙니다.
데이터는 어디에 저장되나요?
GPU와 컨테이너는 모두 한국 데이터센터(서울 또는 평촌)에서 동작합니다. 학습·추론 데이터는 사용자가 명시적으로 외부 스토리지로 보내지 않는 한 인스턴스 종료와 함께 폐기됩니다.
기업 보안 검토에 필요한 항목이 준비되어 있나요?
변경 이력 전체가 자동 기록되어 감사 보고로 제공 가능합니다. 데이터 처리 위치, API 키 관리 정책, 격리 방식, 결제 흐름 등 검토 표준 항목 답변지를 미리 준비해 드립니다.
결제는 어떻게 이뤄지나요?
원화 카드·계좌·간편결제 모두 지원합니다. 잔액이 떨어지기 전에 자동 충전되며, 실패가 반복되면 단계적으로 안내합니다. 법인 결제 흐름에 맞춘 세금계산서 발행도 가능합니다.
회사 정보를 알고 싶습니다.
주식회사 AI3 (대표이사 표철민)가 운영합니다. 사업자등록번호 604-81-42515, 통신판매업 신고 제 2025-서울강남-03866호. 본사는 서울 강남구입니다. 자세한 사업자 정보는 콘솔의 이용약관·개인정보 처리방침 페이지 하단에서 확인할 수 있습니다.
환불 정책은 어떻게 되나요?
신청한 GPU가 5분 안에 준비되지 않으면 지연된 시간만큼 자동 환불됩니다. 우리 측 사고로 인한 중단도 사용 시간에서 제외됩니다.
기존 클라우드에서 옮길 수 있나요?
Docker 이미지와 환경변수만 있으면 그대로 이전 가능합니다. 모델 가중치 마이그레이션도 지원합니다. 자세한 절차는 콘솔의 마이그레이션 가이드를 참고하세요.