Ollamaの導入

 SOP 1.0


※自己責任で。

※環境・ヴァージョンで異なるケースも予想される。


  1. 目次
    1. ソフトウェア ヴァージョン
    2. Ollamaインストール
    3. AIモデルのダウンロードから導入、基本的なコマンド
    4. 動作画面例
  1. ソフトウェアヴァージョン
    1. Ollama(2025.12.26ダウンロード)
    2. Windows 11 Home 24H2
    3. AIモデル例

      1. モデル推定パラメータ数 推奨VRAM (4-bit)RAM
        Llama 3.21B1.5GB4GB以上
        標準, 高速3B2.5GB8GB以上
        11B (Vision)8-10GB16GB以上
        Gemma 22B2GB8GB以上
        Google製,  論理性良9B7-8GB16GB以上
        27B18-20GB32GB以上
        DeepSeek-R11.5B1.5GB4GB以上
        (蒸留版)8B6-7GB16GB以上
        推論特化14B10-12GB24GB以上
        32B22-24GB48GB以上
        70B45-50GB64GB以上
      2. ファイルサイズ推定パラメータ数 主なモデル例
        約 1.0 GB 〜 1.5 GB1B 〜 1.5BLlama 3.2 (1B),
        DeepSeek-R1 (1.5B)
        約 2.0 GB 〜 2.5 GB3BLlama 3.2 (3B)
        約 4.7 GB 〜 5.5 GB7B 〜 9BLlama 3.1 (8B) 
        Gemma 2 (9B)
        DeepSeek-R1 (8B)
        約 8.5 GB 〜 10 GB11B 〜 14BLlama 3.2 (11B),
        DeepSeek-R1 (14B)
        約 18 GB 〜 21 GB27B 〜 32BGemma 2 (27B)
        DeepSeek-R1 (32B)
        約 40 GB 以上70B 〜Llama 3.3 (70B),
        DeepSeek-R1 (70B)

  2. Ollamaインストール
    1. Ollama公式サイトからOllamaSetup.exeをダウンロード
    2. 実行、Installを押す

  3. AIモデルのダウンロードから導入、基本的なコマンド
    ※OllamaはGUIとCLIを持つ。
    ※CLIでの導入を紹介する。
    カテゴリ入力タイミングコマンド内容・用途
    実行・対話モードコマンドプロンプトollama run <モデル名>モデルを起動し対話モードに入る
    ※モデル未導入ならDLも開始
    オプション例任意のモデルサイズを指定する方法
    Llama 3.2

    1B (軽量): ollama run llama3.2:1b
    3B (標準): ollama run llama3.2:3b
    11B (画像対応マルチモーダル): ollama run llama3.2:11b

    Gemma2
    2B: ollama run gemma2:2b
    27B: ollama run gemma2:27b

    DeepSeek-R1
    1.5B (軽量): ollama run deepseek-r1:1.5b
    14B (中量): ollama run deepseek-r1:14b
    32B (重量): ollama run deepseek-r1:32b
    管理(確認)コマンドプロンプトollama listインストール済みのモデル一覧を表示
    管理(稼働)コマンドプロンプトollama show <モデル名>モデルの詳細情報を表示
    管理(稼働)コマンドプロンプトollama ps現在メモリ(RAM/VRAM)にロードされているモデルを表示
    導入コマンドプロンプトollama pull <モデル名>モデルのダウンロード(インストール)のみを行う
    削除コマンドプロンプトollama rm <モデル名>不要になったモデルファイルを削除
    解放コマンドプロンプトollama stop <モデル名>メモリに常駐しているモデルを終了・解放
    作成コマンドプロンプトollama create <名> -f Modelfile設定ファイル(レシピ)から自分専用のカスタムモデルを作成
    標準割り当てコマンドプロンプト(修飾タグ):latest挿入すると、標準(開発者推奨)モデルが割り当てられる。
    例:ollama run llama 3.2:latest (8Bが割り当ての模様, 2025.12.00)
    モデルファイル特定コマンドプロンプト(修飾タグ)--modelfile挿入すると、モデルファイルのFROM(ベースモデル)、PARAMETER(動作設定)、TEMPLATE(会話の形式)、SYSTEM(システムプロンプト)が特定される。
    例:ollama show llama 3.2:latest --modelfile
    対話中Ollama/bye対話モードを終了し、コマンドプロンプトに復帰
    対話中Ollama/show info現在対話中のモデルの詳細情報を表示

  4. 動作画面例
    1. GUI

    2. CLI
      1. AIモデルを導入していないと、当然Listに表示されない。






      2. AIモデルを3タイプ導入








      3. AIモデルの詳細を表示



コメント

このブログの人気の投稿

Visual Studio CodeでのPython環境の構築と運用

VSCodeのPython実行環境で、ブラウザ上からローカルAIを動かす(ケ号01)