"LLM 비용이 $0입니다." 대만의 한 솔로 개발자가 Hacker News에 올린 글이 화제예요. Gemini 2.5 Flash 무료 티어만으로 4개 AI 에이전트가 콘텐츠 생성, 영업 리드 발굴, 보안 스캐닝, 운영 관리를 자동화하고 있다는 거예요. 27개 소셜 계정에서 330만 뷰. 월 인프라 비용은 고작 $5.

3초 요약
Gemini 무료 티어 선택 4개 전문 에이전트 구축 데이터 수집은 HTTP, 창작만 LLM 일 105건으로 일일 한도 7%만 사용 27개 계정 자동 운영

이게 뭔데?

Bo Liu라는 이름의 이 개발자는 대만에서 1인 테크 에이전시를 운영하고 있어요. OpenClaw(오픈소스 AI 에이전트 플랫폼)를 기반으로 4개의 에이전트를 WSL2 위에서 돌리고 있는데, 각 에이전트의 역할이 명확해요:

에이전트 역할 주요 작업
콘텐츠 에이전트 소셜 미디어 포스트 생성 일 8개 포스트, 셀프 리뷰로 품질 게이팅
영업 에이전트 잠재 고객 발굴 보안 스캐닝으로 리드 생성, 고객 데이터 동기화
보안 에이전트 보안 취약점 스캐닝 잠재 고객 사이트 분석, 리포트 생성
운영 에이전트 일상 운영 관리 엔드포인트 모니터링, 데이터 싱크

이 구조가 특별한 이유는 "LLM은 창작 작업에만 쓰고, 데이터 수집은 전부 HTTP로 처리한다"는 설계 원칙 때문이에요. RSS 피드, Hacker News, 웹 스크래핑 — 이런 리서치 파이프라인은 LLM 토큰을 한 개도 안 써요. Jina Reader 같은 도구로 순수 HTTP 호출만 하는 거예요.

$0
월 LLM 비용
27
자동 운영 소셜 계정
3.3M+
누적 조회수
~$5
월 인프라 비용

뭐가 달라지는 건데?

"AI 에이전트로 자동화"라는 말은 많이 들었을 거예요. 이 사례가 다른 점은 두 가지예요.

첫째, 진짜 $0 LLM 비용. 대부분의 AI 자동화 사례가 "저렴하다"고 하면서 월 수십~수백 달러의 API 비용을 숨겨요. 이 사람은 Gemini 2.5 Flash의 일일 무료 한도 1,500건 중 105건만 쓰고 있어서, 93%의 여유가 남아 있어요.

둘째, "1인 회사" 모델의 구체적 증명. Bo Liu의 Medium 글에서 이야기하는 One-Person Company(OPC) 개념은 추상적인 미래가 아니라 지금 돌아가고 있는 시스템이에요. 에이전트가 콘텐츠 담당자, 영업 담당자, 보안 엔지니어, 운영 매니저 역할을 각각 맡고 있어요.

왜 Gemini 무료 티어인가?

Gemini 2.5 Flash는 Google AI Studio에서 무료로 사용할 수 있어요. 일일 1,500건 요청, RPM 30이라는 제한이 있지만, 핵심 전략은 간단해요 — "1회 요청에 모든 컨텍스트를 주입해서, 1번의 응답으로 끝내기." 여러 번 대화하는 대신, 사전 정리된 로컬 마크다운 파일(토큰 소모 0)을 컨텍스트로 넣고 한 번에 결과를 받아요.

비교 항목 일반적인 AI 자동화 Gemini 무료 티어 스택
LLM 비용 $50~$200+/월 $0
인프라 비용 $20~$100/월 ~$5 (Vercel + Firebase 무료 티어)
API 호출 전략 다회 대화, 체이닝 1회 호출에 모든 컨텍스트 주입
데이터 수집 LLM으로 파싱 순수 HTTP (토큰 소모 0)
스케줄링 외부 크론 서비스 systemd 타이머 25개

Bo Liu는 한 가지 실수도 공유했어요 — GCP 빌링 계정의 API 키를 실수로 사용해서 $127 청구서를 받았다고요. AI Studio 키와 GCP 프로젝트 키를 혼동한 거예요. 무료 티어의 함정이 바로 여기에 있어요.

무료 티어의 리스크

Gemini 무료 티어는 Google AI Studio에서 생성한 키만 무료예요. GCP 콘솔에서 만든 키는 동일한 모델이라도 유료로 과금돼요. 키 관리를 잘못하면 순식간에 수백 달러가 빠져나갈 수 있어요. 또한 무료 티어는 상업적 사용에 제한이 있을 수 있으니, 서비스 약관을 반드시 확인하세요.

핵심만 정리: 시작하는 법

  1. Gemini API 키 발급받기
    Google AI Studio(ai.google.dev)에서 무료 API 키를 발급받으세요. 반드시 AI Studio에서 만들어야 해요 — GCP 콘솔이 아니라요. 일일 1,500건 요청이 무료고, Gemini 2.5 Flash 모델을 사용할 수 있어요.
  2. 데이터 파이프라인을 LLM과 분리하기
    이게 핵심 설계 원칙이에요. RSS 피드 수집, 웹 스크래핑, API 호출 같은 데이터 수집 작업은 LLM을 쓰지 마세요. Python의 requests, feedparser, Jina Reader 같은 도구로 순수 HTTP 처리하세요. LLM 토큰은 오직 "판단"과 "생성"에만 쓰는 거예요.
  3. "1요청 = 1결과" 패턴 적용하기
    무료 티어의 RPM 제한을 이기는 방법이에요. 사전에 수집한 데이터를 로컬 마크다운 파일로 정리하고, LLM 호출 시 모든 컨텍스트를 한 번에 주입해서, 한 번의 응답으로 결과를 받으세요. 멀티턴 대화는 비용과 시간을 낭비해요.
  4. OpenClaw 또는 유사 플랫폼 세팅하기
    OpenClaw은 오픈소스 AI 에이전트 플랫폼이에요. WSL2, Docker, 또는 서버에 설치하고, Gemini API를 연결하면 에이전트를 만들 수 있어요. 단, Bo Liu가 공유한 것처럼 프로덕션 수준으로 올리려면 상당한 커스터마이징이 필요해요.
  5. 작게 시작해서 확장하기
    처음부터 4개 에이전트를 만들지 마세요. 콘텐츠 에이전트 하나부터 시작하세요 — "RSS에서 트렌딩 토픽 수집 → Gemini로 초안 작성 → 셀프 리뷰 → 소셜 계정에 포스팅" 이 하나의 파이프라인이 안정되면, 다음 에이전트를 추가하는 거예요.