HSEOM GeckoHSEOM
Instagram

흑섬 TECH 블로그 - 데이터 기반 브리딩 기술

레오파드게코 브리딩에 데이터 분석과 AI 기술을 접목합니다. Python, NumPy를 활용한 체중 관리, 성장 추이 분석, 환경 데이터 시각화 등 실무에서 직접 사용하는 기술을 일반인도 이해하기 쉽게 설명합니다.

주요 카테고리

IT 카테고리

흑섬 TECH 블로그의 IT 카테고리입니다.

2개의 글이 있습니다.

[로컬AI#1] 맥미니 대란? 나만의 AI 구축하기

AI를 운용할 수 있는 환경만 구축하면, 챗봇(LLM), 코드 에이전트, AI 비서를 언제든지 원할 때 무제한으로 사용할 수 있어요. 맥 여러 대를 연결해서 나만의 AI 환경을 만드는 방법을 알려드릴게요.

카테고리: IT

작성일: 2026-02-09

예상 읽기 시간: 18

Back to Tech
IT·18min read·

[로컬AI#1] 맥미니 대란? 나만의 AI 구축하기

AI를 운용할 수 있는 환경만 구축하면, 챗봇(LLM), 코드 에이전트, AI 비서를 언제든지 원할 때 무제한으로 사용할 수 있어요. 맥 여러 대를 연결해서 나만의 AI 환경을 만드는 방법을 알려드릴게요.

1. 맥 클러스터로 무료 AI 구축하기

최근 개발자들이나 AI를 활용하고 싶은 비개발자분들 사이에서 맥미니를 대량 구매하는 특이한 현상이 보이고 있습니다.

맥미니 M4

맥미니 M4 (16GB)

맥 스튜디오

맥 스튜디오 (64GB)

저도 AI를 무제한으로 무료로 사용하고 싶어서 맥 스튜디오 1대(64GB)와 맥미니 4대(16GB)를 구매했었습니다.

맥미니 4대 나란히 정렬

이유가 뭘까요? 제 생각에는 크게 두 가지인 것 같습니다.

첫째, AI 활용도가 이전과는 사뭇 달라졌습니다. 예전에는 ChatGPT 같은 웹 서비스로 간단히 질문하는 정도였다면, 요즘은 Open Claw 같은 AI 비서를 개인 PC에서 안전하게, 끊김 없이 사용하고 싶어하는 분들이 늘고 있어요.

둘째, 외부 AI 서비스에 매달 요금을 내는 대신, 모델을 직접 다운받아서 개인 AI를 무료로 사용하려는 분들도 생겨나고 있는 것 같습니다.

그래서 이번 글에서는 맥 여러 대를 연결해서 AI 클러스터를 구축하는 방법과, 이걸로 어떤 것들을 할 수 있는지 간단히 소개해드리려고 합니다.

구축 완료된 맥 AI 클러스터

저 같은 경우엔 맥 스튜디오 1대 (64GB) + 맥미니 4대 (16GB × 4 = 64GB) = 총 128GB 메모리를 활용해서, 상황에 따라 GPT-OSS-120B 모델 혹은 Llama-3.3-70B 모델을 번갈아 가며 사용하고 있어요. 구성한 로컬 PC 환경에 따라 다양한 모델을 바꿔가며 사용할 수 있다는 점도 흥미롭죠!


2. 분산 AI 추론이란?

문제: AI 모델이 너무 크다

GPT-OSS-120B 같은 대형 AI 모델은 메모리를 66GB 이상 사용합니다. 그런데 맥미니 M4는 메모리가 16GB밖에 안 되죠.

(참고로, 맥미니 1대만 구매하시는 분들은 아마 외부 AI를 API로 연결해서 독립된 PC 환경에서 사용하시려는 의도가 있을 거예요. 저처럼 굳이 개인 모델을 직접 구축하지 않아도, 맥미니 1대로 충분히 외부 AI 서비스를 활용할 수 있거든요. 여기서 API라는 개념이 나오는데, 이건 나중에 따로 자세히 소개해드릴게요. 지금은 간단하게 소프트웨어끼리 소통하는 통로라고 이해하시면 됩니다!)

그럼 저처럼 개인 모델을 직접 돌리고 싶은 경우엔 어떻게 해야 할까요?

해결: 여러 대를 연결해서 나눠서 처리합니다

바로 여러 대를 연결해서 나눠서 처리하는 방법입니다. 이를 분산 AI 추론이라고 해요.

쿠팡 장바구니로 비유해볼게요:

  • 혼자서 장보기: 사과 3개, 바나나 2개, 우유 1개 → 총 6개 (무겁죠)
  • 친구 5명이 나눠서: 1명당 1~2개씩 → 가볍고 빠릅니다

AI 모델도 마찬가지예요. 66GB짜리 GPT 모델을 5대가 나눠서 처리하면 1대당 ~13GB만 담당하면 됩니다. 이를 Pipeline Sharding이라고 해요.

EXO 네트워크 그래프 - 5대 연결

기존 방식 vs EXO 방식

분산 AI를 구축하는 방법은 두 가지가 있어요.

추가 설명: 딥하게 이해하고 싶은 분들을 위해

기존에는 MPI(Message Passing Interface)라는 복잡한 방식으로 직접 구축해야 했어요. 하지만 EXO가 나오면서 우리가 직접 구축할 필요 없이 손쉽게 분산 시스템을 이용할 수 있게 됐습니다.

항목 기존 방식 (MPI) EXO
설정 시간 4-5시간 10-20분
난이도 전문가 수준 초보자 가능
네트워크 설정 수동 IP 설정 자동 발견

저도 처음에 기존 방식으로 해봤는데, SSH 키 설정, IP 주소 매핑, 방화벽 규칙 등을 일일이 손으로 작성해야 해서 4-5시간 정도 걸렸어요.

그런데 EXO를 쓰니까 10분 내외로 끝나더라고요. 명령어 한 줄이면 됩니다.


3. 무료로 쓸 수 있는 3가지 AI 서비스

#1 챗봇(LLM) - 무료 ChatGPT 만들기

EXO는 웹 대시보드에서 바로 AI 챗봇을 사용할 수 있어요. ChatGPT처럼 대화하면서 다양한 질문에 답변받을 수 있습니다.

EXO 챗봇 대화 화면

모든 요청이 우리 맥 클러스터에서 처리되니까 프라이버시도 안전하고, API 요금 걱정도 없어요.


#2 코딩 에이전트(Claude Code) - 개인 코딩 어시스턴트

Claude Code는 터미널에서 실행하는 AI 코딩 어시스턴트예요. 코드를 작성하고, 버그를 찾고, 파일을 수정하는 모든 것을 해줍니다.

(여기서 재미있는 점! Claude Code의 기능에 우리 PC에서 동작하는 AI 모델을 연동할 수 있어요. 이걸 프록시(Proxy)라고 하는데, 쉽게 말해 "끌어다 쓰기" 같은 거예요. Claude Code라는 좋은 도구에 우리가 구축한 로컬 AI 모델을 연결하면, 무제한으로 사용할 수 있답니다!)

Claude Code 터미널 실행 화면

한국어로 대화하면서 코드를 작성할 수 있어요. 예를 들어:

  • "Python으로 간단한 계산기 만들어줘"
  • "이 함수에서 버그 찾아줘"
  • "README 파일 작성해줘"

#3 요즘 핫한 AI 비서(Open Claw) - 디스코드/텔레그램 봇

Open Claw는 디스코드, 텔레그램, 슬랙 같은 채팅 앱에서 AI를 사용할 수 있게 해주는 오픈소스 프로젝트예요. 마찬가지로 우리 PC에서 동작하는 AI 모델과 연동할 수 있어서, 무제한으로 AI 비서를 사용할 수 있습니다.

Open Claw 메인 화면

설정은 간단해요. 디스코드 봇을 만들고, OAuth 권한을 설정하면 됩니다.

Discord OAuth 설정 화면

실제 사용 예시

디스코드에서 봇을 멘션하면 AI가 답변해줘요.

디스코드 봇과 대화 중

EXO 대시보드를 보면 실시간으로 추론이 처리되는 것을 볼 수 있어요.

EXO UI와 대화창 동시 화면

고급 활용: Google Calendar 연동

Open Claw는 MCP (Model Context Protocol)를 지원해서 다양한 서비스와 연동할 수 있어요. 예를 들어 Google Calendar와 연동하면:

  • "다음 주 회의 일정 알려줘"
  • "내일 오후 3시에 미팅 추가해줘"
  • "이번 달 일정 정리해줘"
Google Calendar 연동 화면

4. 나도 구현하고 싶다면? - 개인 AI를 사용하고 싶은 분들을 위한 구축 가이드

여기서부터는 실제로 맥 클러스터를 구축하고 싶은 분들을 위한 가이드예요.

Step 1: 모델 미리 다운로드하기 (안정성 확보)

EXO는 HuggingFace에서 모델을 자동으로 다운로드하는데, 가끔 불안정할 때가 있어요. 그래서 모델을 미리 다운로드해두는 걸 추천드려요.

# 모델 다운로드 (mac1에서 실행)
from huggingface_hub import snapshot_download

snapshot_download(
    repo_id="mlx-community/Qwen3-Next-80B-A3B-Instruct-4bit",
    local_dir="~/.cache/huggingface/qwen3-80b",
    local_dir_use_symlinks=False
)
EXO 모델 다운로드 화면

이렇게 하면 EXO가 캐시를 확인하고 "이미 있네?" 하고 다운로드를 건너뛰어요. 훨씬 안정적이에요.

Step 2: EXO 실행하기

이제 각 맥에서 EXO를 실행하면 돼요. 정말 간단해요.

# mac1에서 실행
cd ~/exo && uv run exo

# mac2, mac3, mac4, mac5도 동일하게 실행
ssh mac2@192.168.2.11 "cd ~/exo && uv run exo"
ssh mac3@192.168.2.12 "cd ~/exo && uv run exo"
ssh mac4@192.168.2.13 "cd ~/exo && uv run exo"
ssh mac5@192.168.2.14 "cd ~/exo && uv run exo"

끝이에요. 정말 간단하죠?

Step 3: 대시보드에서 확인하기

브라우저에서 http://localhost:52415로 접속하면 EXO 대시보드가 나와요.

EXO 대시보드 - 5대 노드 연결 상태

5대 맥이 자동으로 연결된 것을 볼 수 있어요. 네트워크 그래프가 노란색 노드들로 표시됩니다.

Pipeline vs Tensor?

우리처럼 노드당 메모리가 모델보다 작으면 Pipeline 선택! Tensor는 각 노드가 모델 전체를 올려야 해서 우리 환경에서는 불가능해요.


5. 마치며

저는 AI가 단순히 편리한 도구를 넘어서, 우리 삶의 질을 높여주는 동반자가 될 수 있다고 생각합니다.

이런 기술들이 더 많은 분들에게 알려져서, AI의 혜택을 누리는 분들이 늘어났으면 좋겠습니다.
다음에도 도움되는 글로 뵙겠습니다!


이 글이 도움이 되셨나요? 더 좋은 글로 찾아뵐게요!

#맥미니#맥스튜디오#AI클러스터#EXO#분산AI#개인LLM#ClaudeCode#OpenClaw#AppleSilicon