Ollama Model Runner - 使い方
概要
Ollamaで動作するローカルLLMをブラウザUIから実行できるツールです。
動作要件
- Ollama がローカルで起動していること
- Python 3.8+
-
uv(パッケージ管理)
起動方法
# 依存関係のインストール
uv sync
# アプリ起動
uv run python app.py
ブラウザで http://localhost:7860 が開きます。
機能説明
モデル選択
- プルダウンからOllamaにインストール済みのモデルを選択
- 🔄 ボタンでモデル一覧を更新
サンプル選択
| サンプル |
説明 |
| フリートーク |
空のプロンプトで自由に入力 |
| 要約 |
日本語テキストを200文字以内で要約 |
| 質問応答 |
ユーザーからの質問に対して回答 |
| メール下書き |
ビジネスメールの下書きを作成 |
| メッセージ下書き |
メッセージの下書きを作成 |
パラメータ
- temperature: 生成の多様性(0.0〜2.0)
- top_p: トークン選択の範囲(0.0〜1.0)
- max_new_tokens: 生成する最大トークン数
ボタン
- 実行: 選択したモデルでプロンプトを送信
- キャンセル: 実行中のリクエストを中断
- クリア: プロンプトと出力をクリア
-
ダウンロード:
完全出力をテキストファイルで保存(ファイル名:
output.txt、文字コード: UTF-8)
- 履歴を更新: 会話履歴を表示
ダウンロード機能の詳細
-
対象:
完全出力欄(ストリーミング表示ではなく、確定した出力全体)
- ファイル名:
output.txt(固定)
- 文字コード: UTF-8
-
動作:
「ダウンロード」ボタンをクリックすると、ブラウザからファイルがダウンロードされる
- 制約: 完全出力欄が空の場合はダウンロードされない
履歴機能
「履歴に保存」チェックボックスをONにすると、会話を保存できます。