解説
さらに詳しく解説
Ollamaとは
Ollama(オーラマ)は、ローカル環境で大規模言語モデル(LLM)を簡単に実行できるオープンソースツールです。コマンド1つでLlama、Mistral、Gemmaなどのモデルを動かせます。
特徴
| 特徴 | 詳細 |
|---|---|
| 簡単セットアップ | ワンコマンドでインストール |
| ローカル実行 | データが外部に送信されない |
| マルチモデル対応 | 多数のオープンモデルに対応 |
| API互換 | OpenAI API互換エンドポイント |
| クロスプラットフォーム | Mac、Linux、Windows対応 |
インストール
bash
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows
# 公式サイトからインストーラーをダウンロード基本的な使い方
bash
# モデルのダウンロード&実行
ollama run llama3.1
# 対話を開始
>>> こんにちは、今日の予定を教えてください
# 特定サイズのモデル
ollama run llama3.1:70b
# モデル一覧
ollama list
# モデル削除
ollama rm llama3.1対応モデル
| モデル | パラメータ | 特徴 |
|---|---|---|
| Llama 3.1 | 8B-405B | Meta製、高性能 |
| Mistral | 7B | 効率的、高速 |
| Gemma 2 | 9B-27B | Google製 |
| CodeLlama | 7B-34B | コード特化 |
| Phi-3 | 3.8B | 小型高性能 |
API利用
bash
# サーバーとして起動
ollama serve
# REST API呼び出し
curl http://localhost:11434/api/generate -d '{
"[model](/glossary/model)": "llama3.1",
"[prompt](/glossary/prompt)": "Hello, world!"
}'Python連携
python
from ollama import Client
client = Client()
response = client.generate(
model='llama3.1',
prompt='Pythonでフィボナッチ数列を生成するコードを書いて'
)
print(response['response'])必要スペック
| モデルサイズ | 推奨RAM | 推奨VRAM |
|---|---|---|
| 7B | 8GB+ | 8GB+ |
| 13B | 16GB+ | 16GB+ |
| 70B | 64GB+ | 48GB+ |
活用事例
Ollamaの活用:
├── ローカル[チャットボット](/glossary/chatbot)
├── コードアシスタント
├── 文書要約・分析
├── プライベート[RAG](/glossary/rag)システム
└── 開発・テスト環境他ツールとの比較
| ツール | 特徴 |
|---|---|
| Ollama | シンプル、CLI中心 |
| LM Studio | GUI、視覚的 |
| vLLM | 高速推論、本番向け |
| llama.cpp | 低レベル、軽量 |
