안녕하세요! 김코딩입니다
Ollama는 다양한 언어 모델(LLM)을 로컬 환경에서 쉽게 실행할 수 있도록 돕는 플랫폼입니다. 이 글에서는 Windows와 macOS 사용자들을 위한 Ollama 설치 방법을 자세히 안내합니다.
🖥️ 1. Windows에서 Ollama 설치 방법 🖥️
1-1. Ollama 공식 웹사이트 접속
- Ollama 공식 웹사이트에 접속합니다.
- 상단 메뉴에서 ‘Download’ 버튼을 클릭합니다.
- **Windows용 설치 파일 (.exe)**을 다운로드합니다.
1-2. Ollama 설치하기
- 다운로드한 **설치 파일(.exe)**을 실행합니다.
- ‘Next’ 버튼을 클릭하여 설치를 진행합니다.
- 설치 위치를 지정합니다. 기본 위치를 권장합니다.
- **‘Install’**을 눌러 설치를 마칩니다.
1-3. 환경 변수 설정 (선택 사항)
- 설치 후 **‘시스템 환경 변수 편집’**을 검색하여 실행합니다.
- **‘환경 변수’ > ‘시스템 변수’ > ‘Path’**를 선택하고 ‘편집’ 클릭.
- Ollama가 설치된 경로 (예:
C:\Program Files\Ollama
)를 추가합니다. - **‘확인’**을 눌러 저장합니다.
1-4. 명령어 실행 확인
- **명령 프롬프트 (CMD)**를 열고 다음 명령어를 입력합니다:
ollama --version
- 정상적으로 버전이 출력된다면 설치가 완료된 것입니다.
1-5. 모델 다운로드 및 실행
- 원하는 모델을 다운로드:
ollama pull llama2
- 다운로드한 모델 실행:
ollama run llama2
- 만약 GPU 사용이 가능하다면 다음과 같이 실행:
ollama run llama2 --use-gpu

🍏 2. macOS에서 Ollama 설치 방법 🍏
2-1. Ollama 공식 웹사이트 접속
- Ollama 공식 웹사이트에 접속합니다.
- 상단 메뉴에서 **‘Download’**를 클릭합니다.
- **macOS용 설치 파일 (.dmg)**을 다운로드합니다.
2-2. Ollama 설치하기
- 다운로드한 .dmg 파일을 더블 클릭하여 실행합니다.
- Ollama.app을 ‘응용 프로그램’ 폴더에 드래그하여 복사합니다.
- 응용 프로그램에서 Ollama를 실행합니다.
- 보안 경고가 뜨면 **‘시스템 설정 > 보안 및 개인 정보 보호’**에서 **‘실행’**을 허용합니다.
2-3. Homebrew를 통한 설치 (대안 방법)
- 터미널을 열고 아래 명령어를 입력하여 Homebrew를 설치합니다. (이미 설치된 경우 생략)
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
- Ollama 설치:
brew install ollama
- 설치 확인:
ollama --version
2-4. Rosetta 설치 (M1/M2 칩 전용)
- M1/M2 칩을 사용하는 경우, x86 기반 프로그램 실행을 위해 Rosetta 2가 필요합니다.
- 터미널에서 다음 명령어를 입력:
softwareupdate --install-rosetta
2-5. 모델 다운로드 및 실행
- 모델 다운로드:
ollama pull llama2
- 모델 실행:
ollama run llama2
- GPU가 지원되는 경우:
ollama run llama2 --use-gpu
🛠️ 문제 해결 (FAQ) 🛠️
- 명령어 인식 안됨:
- 환경 변수 설정 확인 또는 터미널 재시작.
- 모델 다운로드 실패:
- 인터넷 연결 상태 확인 및 VPN 사용 시 해제.
- 실행 중 오류 발생:
- GPU 드라이버 업데이트 또는 Ollama 최신 버전 확인.
마무리
이와 같이 Windows 및 macOS에서 Ollama를 설치하고 사용하는 방법을 자세히 설명해 드렸습니다. Ollama를 통해 다양한 LLM을 로컬에서 실행해 보세요!
추가적인 정보는 Ollama 공식 문서를 참고해 주세요.