Getting Started with Ollama
How to install and run local LLMs using Ollama and integration with OpenClaw
February 27, 2026

Getting Started with Ollama

OllamaLlama 3, Mistral, Gemma와 같은 대규모 언어 모델(LLM)을 로컬 환경에서 매우 간편하게 설치하고 실행할 수 있게 해주는 오픈소스 도구입니다.
별도의 복잡한 GPU 설정 없이도 최적화된 환경을 제공하는 것이 특징입니다.

Installation

Linux 환경에서는 아래의 단일 curl 명령어를 통해 설치 스크립트를 실행할 수 있습니다.
Install Ollama
sh

Verification

설치가 완료되었다면 터미널에서 ollama 명령어를 입력하여 정상 설치 여부와 사용 가능한 옵션을 확인합니다.
Check Ollama version
sh

Running Models

원하는 모델을 실행하려면 run 커맨드를 사용합니다.
로컬에 모델 파일이 없다면 자동으로 Ollama Library에서 다운로드한 후 대화를 시작합니다.
Run LLM model
sh

Core Commands

모델 관리 및 서버 제어를 위한 주요 명령어는 다음과 같습니다.
CommandDescription
ollama list로컬에 설치된 모델 목록 확인
ollama pull <model>실행하지 않고 모델 파일만 미리 다운로드
ollama rm <model>설치된 특정 모델 삭제
ollama serveAPI 활용을 위해 백그라운드 서버 실행

Using with OpenClaw

OpenClaw는 Ollama를 기반으로 보다 확장된 기능이나 UI를 제공하는 도구입니다.
Ollama 서버가 활성화된 상태에서 아래 명령어를 통해 인터페이스를 호출할 수 있습니다.
Launch OpenClaw
sh
Jooojub
System S/W engineer
Explore Tags
Series
    Recent Post
    © 2026. jooojub. All right reserved.