VSCodeのPython実行環境で、ブラウザ上からローカルAIを動かす(ケ号01)
メモ
- 概要
- VSCode+Python+Ollamaのローカル環境
- ブラウザ上で、チャット窓付のインターフェースを構築
- ブラウザの多重起動を行うとハングるので、多重起動防止の措置も
- Ollamaライブラリをインストール
- ターミナルからpipでインストール
- pip install ollama
- Ollamaコントロール
- pip install streamlit
- Streamlitはブラウザ用のウィジットライブラリ(HTMLやJavaScriptにエンコードする)
- ソースimport streamlit as stimport ollamast.title("Local AI Chat by Ollama") # ブラウザのタイトル# 会話履歴を保存(ブラウザを更新しても消えないようにする)if "messages" not in st.session_state:st.session_state.messages = []# 過去のメッセージを表示for msg in st.session_state.messages:with st.chat_message(msg["role"]):st.markdown(msg["content"])# ユーザーの入力欄if prompt := st.chat_input("メッセージを入力..."):st.session_state.messages.append({"role": "user", "content": prompt})# ユーザーのターンwith st.chat_message("user"):st.markdown(prompt)# AIのターンwith st.chat_message("assistant"):response = ollama.chat(model='llama3.2', messages=st.session_state.messages)full_response = response['message']['content']st.markdown(full_response)st.session_state.messages.append({"role": "assistant", "content": full_response})# Python -m streamlit run ai-test-01.py --server.headless true# ブラウザ経由でOllamaを読み込むコマンド 多重起動を防止# http://localhost:8501 にブラウザでアクセスする# Ctrl + C でターミナルからブラウザを終了。Ollamaから抜ける。# 同じWifiなら、起動中のOllama on browserを利用可能
- 実行
- コマンドプロンプトから、適切なAIモデルでOllamaを起動しておく。
- ollama run llama3.2 など
- ターミナルから、Python -m streamlit run ai-test-01.py --server.headless true
- ターミナルでサーバーが立ち上がるだけ。多重起動を防ぐ。
- ブラウザでhttp://localhost:8501/
- 8501は、Streamlistが固有に作成するポート番号
- 終了
- ターミナルで、Ctrl+C
- 参考
コメント
コメントを投稿