VSCodeのPython実行環境で、ブラウザ上からローカルAIを動かす(ケ号01)
メモ 概要 VSCode+Python+Ollamaのローカル環境 ブラウザ上で、チャット窓付のインターフェースを構築 ブラウザの多重起動を行うとハングるので、多重起動防止の措置も Ollamaライブラリをインストール ターミナルからpipでインストール pip install ollama Ollamaコントロール pip install streamlit Streamlitはブラウザ用のウィジットライブラリ(HTMLやJavaScriptにエンコードする) ソース import streamlit as st import ollama st . title ( "Local AI Chat by Ollama" ) # ブラウザのタイトル # 会話履歴を保存(ブラウザを更新しても消えないようにする) if "messages" not in st . session_state : st . session_state .messages = [] # 過去のメッセージを表示 for msg in st . session_state .messages: with st . chat_message ( msg [ "role" ]): st . markdown ( msg [ "content" ]) # ユーザーの入力欄 if prompt := st . chat_input ( "メッセージを入力..." ): st . session_state .messages. append ({ "role" : "user" , "content" : prompt }) # ユーザーのターン with st . chat_message ( "user" ): st . markdown ( prompt ) # AIのターン with st . chat_message ( "assistant" ...