Ollamaの導入
SOP 1.0
※自己責任で。
※環境・ヴァージョンで異なるケースも予想される。
- 目次
- ソフトウェア ヴァージョン
- Ollamaインストール
- AIモデルのダウンロードから導入、基本的なコマンド
- 動作画面例
- ソフトウェアヴァージョン
- Ollama(2025.12.26ダウンロード)
- Windows 11 Home 24H2
- AIモデル例
モデル 推定パラメータ数 推奨VRAM (4-bit) RAM Llama 3.2 1B 1.5GB 4GB以上 標準, 高速 3B 2.5GB 8GB以上 11B (Vision) 8-10GB 16GB以上 Gemma 2 2B 2GB 8GB以上 Google製, 論理性良 9B 7-8GB 16GB以上 27B 18-20GB 32GB以上 DeepSeek-R1 1.5B 1.5GB 4GB以上 (蒸留版) 8B 6-7GB 16GB以上 推論特化 14B 10-12GB 24GB以上 32B 22-24GB 48GB以上 70B 45-50GB 64GB以上 ファイルサイズ 推定パラメータ数 主なモデル例 約 1.0 GB 〜 1.5 GB 1B 〜 1.5B Llama 3.2 (1B), DeepSeek-R1 (1.5B) 約 2.0 GB 〜 2.5 GB 3B Llama 3.2 (3B) 約 4.7 GB 〜 5.5 GB 7B 〜 9B Llama 3.1 (8B) Gemma 2 (9B) DeepSeek-R1 (8B) 約 8.5 GB 〜 10 GB 11B 〜 14B Llama 3.2 (11B), DeepSeek-R1 (14B) 約 18 GB 〜 21 GB 27B 〜 32B Gemma 2 (27B) DeepSeek-R1 (32B) 約 40 GB 以上 70B 〜 Llama 3.3 (70B), DeepSeek-R1 (70B) - Ollamaインストール
- Ollama公式サイトからOllamaSetup.exeをダウンロード
- 実行、Installを押す
- AIモデルのダウンロードから導入、基本的なコマンド
※OllamaはGUIとCLIを持つ。
※CLIでの導入を紹介する。カテゴリ 入力タイミング コマンド 内容・用途 実行・対話モード コマンドプロンプト ollama run <モデル名> モデルを起動し対話モードに入る
※モデル未導入ならDLも開始オプション例 任意のモデルサイズを指定する方法
Llama 3.2
1B (軽量): ollama run llama3.2:1b
3B (標準): ollama run llama3.2:3b
11B (画像対応マルチモーダル): ollama run llama3.2:11b
Gemma2
2B: ollama run gemma2:2b
27B: ollama run gemma2:27b
DeepSeek-R1
1.5B (軽量): ollama run deepseek-r1:1.5b
14B (中量): ollama run deepseek-r1:14b
32B (重量): ollama run deepseek-r1:32b管理(確認) コマンドプロンプト ollama list インストール済みのモデル一覧を表示 管理(稼働) コマンドプロンプト ollama show <モデル名> モデルの詳細情報を表示 管理(稼働) コマンドプロンプト ollama ps 現在メモリ(RAM/VRAM)にロードされているモデルを表示 導入 コマンドプロンプト ollama pull <モデル名> モデルのダウンロード(インストール)のみを行う 削除 コマンドプロンプト ollama rm <モデル名> 不要になったモデルファイルを削除 解放 コマンドプロンプト ollama stop <モデル名> メモリに常駐しているモデルを終了・解放 作成 コマンドプロンプト ollama create <名> -f Modelfile 設定ファイル(レシピ)から自分専用のカスタムモデルを作成 標準割り当て コマンドプロンプト(修飾タグ) :latest 挿入すると、標準(開発者推奨)モデルが割り当てられる。
例:ollama run llama 3.2:latest (8Bが割り当ての模様, 2025.12.00)モデルファイル特定 コマンドプロンプト(修飾タグ) --modelfile 挿入すると、モデルファイルのFROM(ベースモデル)、PARAMETER(動作設定)、TEMPLATE(会話の形式)、SYSTEM(システムプロンプト)が特定される。
例:ollama show llama 3.2:latest --modelfile対話中 Ollama /bye 対話モードを終了し、コマンドプロンプトに復帰 対話中 Ollama /show info 現在対話中のモデルの詳細情報を表示 - 動作画面例
- GUI
- CLI
- AIモデルを導入していないと、当然Listに表示されない。
- AIモデルを3タイプ導入
- AIモデルの詳細を表示
コメント
コメントを投稿