
한눈에 보는 핵심
Ollama는 ChatGPT처럼 쓰는 AI를 인터넷 없이 내 맥 안에서 돌릴 수 있게 해주는 도구예요.
macOS 14 Sonoma 이상이면 DMG 파일 하나로 설치되고, 터미널에서 모델 이름 하나만 입력하면 바로 대화할 수 있어요. 저장공간과 메모리가 결과 속도를 크게 좌우하니, 처음엔 작은 모델부터 시작하는 게 핵심이에요.
Ollama가 뭔지, ChatGPT·Gemini·Claude와 뭐가 다른지
Ollama는 오픈소스 언어 모델(LLM)을 내 컴퓨터에서 직접 실행할 수 있도록 만들어진 로컬 AI 실행 도구예요. ChatGPT·Gemini·Claude는 내가 입력한 텍스트를 외부 서버로 전송해 응답을 받아오는 구조인 반면, Ollama는 모델 파일이 내 맥에 저장되고 모든 처리도 로컬에서 이뤄져요.
가장 큰 차이는 세 가지예요. 첫째, 데이터가 외부로 나가지 않아요. 회사 문서나 개인 메모를 다룰 때 유리해요. 둘째, 모델을 직접 골라서 내려받고 관리할 수 있어요. Llama, Gemma, Qwen, Mistral 등 다양한 오픈소스 모델을 자유롭게 바꿔 쓸 수 있어요. 셋째, 사용량 제한이 없고 API 요금도 없어요. ChatGPT Plus는 월 약 20달러, Claude Pro도 비슷한 수준이지만 Ollama 자체는 무료예요. 다만 모델 파일 크기가 크고, 추론 품질은 GPT-4o 같은 최신 대형 모델에 미치지 못하는 점은 알고 시작하면 좋아요.
맥에서 Ollama 설치하는 순서와 첫 실행 방법
설치는 공식 사이트에서 DMG 파일을 받아 앱을 Applications 폴더에 옮기는 것으로 끝나요. macOS 14 Sonoma 이상이 필요하고, Apple Silicon(M1~M4) 맥은 Metal GPU 가속이 자동으로 켜져서 별도 드라이버 설정이 필요 없어요.
설치 순서는 다음과 같아요.
1) ollama.com/download/mac 에서 macOS용 DMG 파일을 내려받아요.
2) DMG를 열고 Ollama 앱을 Applications 폴더로 드래그해요.
3) 앱을 처음 실행하면 메뉴바에 라마 아이콘이 생기고, 터미널에서 쓸 CLI 링크를 /usr/local/bin에 만들어도 되냐고 권한 요청 창이 떠요. 허용하면 돼요.
4) 터미널을 열고 ollama --version을 입력해서 버전 번호가 나오면 설치가 완료된 거예요.
모델을 내려받으려면 터미널에 ollama pull 모델명을 입력하면 돼요. 예를 들어 ollama pull llama3.2를 입력하면 Llama 3.2 모델이 ~/.ollama 폴더에 저장돼요. 내려받은 뒤 ollama run llama3.2를 입력하면 터미널 안에서 바로 대화할 수 있어요. 설치된 모델 목록은 ollama list로 확인하고, 더 이상 쓰지 않는 모델은 ollama rm 모델명으로 삭제할 수 있어요.
어떤 모델부터 써볼지, 저장공간과 속도 주의점
처음엔 모델 크기를 작게 잡는 게 가장 중요해요. 모델이 메모리(통합 메모리 포함)에 다 올라가지 않으면 디스크 스왑이 발생해 속도가 5~10배 이상 느려지거든요. 아래 기준을 참고하면 돼요.
| 메모리 기준 | 추천 모델 | 모델 파일 크기(참고) |
| 8GB | llama3.2:3b, phi3:mini, gemma2:2b | 약 2~3GB |
| 8GB (상한) | qwen3:8b (Q4 양자화) | 약 5.2GB |
| 16GB | qwen3:14b, gemma3:12b | 약 9~10GB |
저장공간은 모델 파일 크기 + 여유 공간 최소 5GB 이상을 확보해두는 게 좋아요. 모델 하나가 수 GB인 경우가 대부분이고, 여러 개 받다 보면 금방 수십 GB가 쌓여요. 디스크가 빠듯하다면 외장 SSD에 ~/.ollama 폴더를 옮겨 쓰는 것도 방법이에요. Intel 맥(x86)은 GPU 가속이 지원되지 않아 CPU만 사용하므로 M 시리즈 맥보다 체감 속도 차이가 꽤 나요.
느리거나 설치가 안 될 때 확인할 항목
Ollama를 처음 쓸 때 자주 마주치는 문제와 확인 순서를 정리했어요.
① ollama: command not found 오류가 날 때
1) 앱이 Applications 폴더에 있는지 확인해요.
2) Ollama 앱을 실행한 뒤 메뉴바 아이콘이 생겼는지 확인해요.
3) 터미널을 완전히 닫고 새 탭으로 열어요 (PATH 갱신).
4) 그래도 안 되면 which ollama를 입력해 경로가 나오는지 확인하고, 없으면 앱을 재실행하면 /usr/local/bin 링크 생성을 다시 요청해요.
② 응답이 지나치게 느릴 때
1) 메모리를 많이 쓰는 앱(크롬, 영상 편집 툴 등)을 먼저 종료해요.
2) 현재 돌리는 모델이 메모리에 다 올라갈 수 있는 크기인지 확인해요.
3) 위 표를 참고해 더 작은 모델로 교체해봐요.
4) Intel 맥이라면 M 시리즈 대비 처리 속도 자체가 낮은 점을 감안해요.
③ 설치 자체가 안 될 때
1) macOS 버전이 14 Sonoma 이상인지 확인해요 (설정 → 일반 → 소프트웨어 업데이트).
2) 저장공간이 최소 10GB 이상 여유 있는지 확인해요.
3) 공식 사이트(ollama.com)에서 최신 DMG를 다시 내려받아 재설치해봐요.
로그를 직접 보고 싶다면 ~/.ollama/logs/server.log 파일을 열면 돼요. 오류 메시지가 영어로 나와도 그대로 복사해서 검색하면 대부분 해결책을 찾을 수 있어요.
개인정보·보안·무거운 모델 실행 전에 알아둘 주의점
로컬 실행이라는 특성 때문에 안전하다고 오해하기 쉬운 부분이 있어요. 짚어두면 좋은 주의사항을 모아봤어요.
로컬이라도 100% 안전하지는 않아요. Ollama는 기본적으로 포트 11434를 열어놓고 로컬 서버로 동작해요. 네트워크 설정을 잘못 건드리거나 외부 접근을 허용하면 모델이 외부에 노출될 수 있어요. 실제로 인터넷에 공개된 Ollama 서버가 수천 개 발견된 사례가 있으니, 별도 서버 설정을 할 게 아니라면 기본 로컬 전용 상태로 쓰는 게 안전해요.
개인정보 관점에서는 대화 내용이 외부로 전송되지 않는 건 맞아요. 다만 모델 자체가 민감한 정보를 기억하거나 학습하지는 않아요. 세션이 끝나면 맥락이 초기화돼요. 파일 시스템을 건드리는 명령이나 쉘 실행이 연결된 구성이라면 모델 출력을 그대로 실행하지 않도록 주의해야 해요.
무거운 모델을 메모리 여유 없이 억지로 돌리면 맥이 느려지거나 다른 앱이 강제 종료될 수 있어요. 메모리의 약 70~80% 이내 크기 모델을 기준으로 시작하고, 처음부터 70B급 대형 모델을 받으려는 시도는 충분한 사양을 확인한 뒤에 해요. 모델 파일은 삭제해도 다시 받을 수 있으니 부담 없이 작은 것부터 테스트해보면 돼요.
맥 Ollama 설치는 DMG 하나, 모델 한 줄 명령으로 시작할 수 있고, 처음엔 메모리에 맞는 작은 모델을 고르는 것만 잘 지켜도 금방 쓸 수 있어요.
출처
확인일: 2026-03-30
Ollama 공식 문서 — macOS 설치 가이드
Ollama 공식 다운로드 페이지 (macOS)
Ollama 트러블슈팅 가이드 — AI Vibe Coding with MINZKN
Ollama 설치부터 모델 커스텀까지 — 피카부랩스 블로그
Local LLMs vs Cloud LLMs: Ollama Privacy Comparison 2026 — freeacademy.ai
Ollama 8GB vs 16GB RAM 2026: Which Models Work — webscraft.org
Detecting Exposed LLM Servers: Ollama Case Study — Cisco Blogs
'IT 정보' 카테고리의 다른 글
| 애플 보상판매 조정, 한국 확인법과 실구매가 (0) | 2026.04.02 |
|---|---|
| 노트북LM 유튜브 요약하는 법 — 링크만 붙여넣으면 끝 (feat. 자막 오류 해결) (1) | 2026.04.01 |
| 에어팟 펌웨어 업데이트 정리 — 프로2·프로3·에어팟4 달라진 점 (0) | 2026.03.30 |
| 폴더블폰 자급제 가성비, Z플립 vs 레이저 (0) | 2026.03.30 |
| 맥 터미널 AI 도구 — 설치부터 비용 한도까지 한 번에 (0) | 2026.03.29 |