Ollama Model Runner - 使い方

概要

Ollamaで動作するローカルLLMをブラウザUIから実行できるツールです。

動作要件

起動方法

# 依存関係のインストール
uv sync

# アプリ起動
uv run python app.py

ブラウザで http://localhost:7860 が開きます。

機能説明

モデル選択

サンプル選択

サンプル 説明
フリートーク 空のプロンプトで自由に入力
要約 日本語テキストを200文字以内で要約
質問応答 ユーザーからの質問に対して回答
メール下書き ビジネスメールの下書きを作成
メッセージ下書き メッセージの下書きを作成

パラメータ

ボタン

ダウンロード機能の詳細

履歴機能

「履歴に保存」チェックボックスをONにすると、会話を保存できます。