メインコンテンツへスキップ
AI用語集に戻る
AI用語

Ollama

Ollama

解説

Ollamaとは、Meta社の「Llama 3」などの最新AIを、自社のPCやサーバー上で手軽に動かせる無料ソフトです。外部クラウドを介さないため、機密情報の漏洩リスクを抑えつつ、月額費用なしでAIを活用できます。専門知識がなくても導入しやすく、コストと安全性を両立したい中小企業のAI導入に最適なツールです。

さらに詳しく解説

Ollamaとは

Ollama(オーラマ)は、ローカル環境で大規模言語モデルLLM)を簡単に実行できるオープンソースツールです。コマンド1つでLlama、Mistral、Gemmaなどのモデルを動かせます。

特徴

特徴詳細
簡単セットアップワンコマンドでインストール
ローカル実行データが外部に送信されない
マルチモデル対応多数のオープンモデルに対応
API互換OpenAI API互換エンドポイント
クロスプラットフォームMac、Linux、Windows対応

インストール

bash
# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows
# 公式サイトからインストーラーをダウンロード

基本的な使い方

bash
# モデルのダウンロード&実行
ollama run llama3.1

# 対話を開始
>>> こんにちは、今日の予定を教えてください

# 特定サイズのモデル
ollama run llama3.1:70b

# モデル一覧
ollama list

# モデル削除
ollama rm llama3.1

対応モデル

モデルパラメータ特徴
Llama 3.18B-405BMeta製、高性能
Mistral7B効率的、高速
Gemma 29B-27BGoogle
CodeLlama7B-34Bコード特化
Phi-33.8B小型高性能

API利用

bash
# サーバーとして起動
ollama serve

# REST API呼び出し
curl http://localhost:11434/api/generate -d '{
  "[model](/glossary/model)": "llama3.1",
  "[prompt](/glossary/prompt)": "Hello, world!"
}'

Python連携

python
from ollama import Client

client = Client()
response = client.generate(
    model='llama3.1',
    prompt='Pythonでフィボナッチ数列を生成するコードを書いて'
)
print(response['response'])

必要スペック

モデルサイズ推奨RAM推奨VRAM
7B8GB+8GB+
13B16GB+16GB+
70B64GB+48GB+

活用事例

Ollamaの活用:
├── ローカル[チャットボット](/glossary/chatbot)
├── コードアシスタント
├── 文書要約・分析
├── プライベート[RAG](/glossary/rag)システム
└── 開発・テスト環境

他ツールとの比較

ツール特徴
Ollamaシンプル、CLI中心
LM StudioGUI、視覚的
vLLM高速推論、本番向け
llama.cpp低レベル、軽量
AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する