Getting Started with Ollama
How to install and run local LLMs using Ollama and integration with OpenClaw
February 27, 2026
Getting Started with Ollama
Ollama는 Llama 3, Mistral, Gemma와 같은 대규모 언어 모델(LLM)을 로컬 환경에서 매우 간편하게 설치하고 실행할 수 있게 해주는 오픈소스 도구입니다.
별도의 복잡한 GPU 설정 없이도 최적화된 환경을 제공하는 것이 특징입니다.
별도의 복잡한 GPU 설정 없이도 최적화된 환경을 제공하는 것이 특징입니다.
Installation
Linux 환경에서는 아래의 단일
curl 명령어를 통해 설치 스크립트를 실행할 수 있습니다.Install Ollamash
Verification
설치가 완료되었다면 터미널에서
ollama 명령어를 입력하여 정상 설치 여부와 사용 가능한 옵션을 확인합니다.Check Ollama versionsh
Running Models
원하는 모델을 실행하려면
로컬에 모델 파일이 없다면 자동으로 Ollama Library에서 다운로드한 후 대화를 시작합니다.
run 커맨드를 사용합니다.로컬에 모델 파일이 없다면 자동으로 Ollama Library에서 다운로드한 후 대화를 시작합니다.
Run LLM modelsh
Core Commands
모델 관리 및 서버 제어를 위한 주요 명령어는 다음과 같습니다.
| Command | Description |
|---|---|
ollama list | 로컬에 설치된 모델 목록 확인 |
ollama pull <model> | 실행하지 않고 모델 파일만 미리 다운로드 |
ollama rm <model> | 설치된 특정 모델 삭제 |
ollama serve | API 활용을 위해 백그라운드 서버 실행 |
Using with OpenClaw
OpenClaw는 Ollama를 기반으로 보다 확장된 기능이나 UI를 제공하는 도구입니다.
Ollama 서버가 활성화된 상태에서 아래 명령어를 통해 인터페이스를 호출할 수 있습니다.
Ollama 서버가 활성화된 상태에서 아래 명령어를 통해 인터페이스를 호출할 수 있습니다.
Launch OpenClawsh