スマートウィンドウのカスタムモデル - 独自エンドポイントの利用

Firefox Firefox 作成日: 1 週間前
英語のコンテンツを機械翻訳したものを表示しています。人間によってレビューされておらず、誤りを含む場合があります。コンテンツを修正するには、ここから

スマートウィンドウでは、Firefox が提供する AI モデルの代わりに、独自の AI モデルを接続できます。これは、より詳細な制御を行いたい場合、特定のプロバイダーを使用したい場合、またはデバイス上でローカルにモデルを実行したい場合に便利です。

次のいずれかを接続できます:

  • リモートモデル (OpenRouter など)
  • デバイス上で実行されるローカルモデル (Lemonade Server や Ollama など)
: カスタムモデルを使用すると、スマートウィンドウが期待どおりに動作しない場合があります。この機能とこれらの手順は、これらのサービスやツールに精通しているユーザーを対象としています。

リモートモデル (OpenRouter) を使用する

  1. まだアカウントを持っていない場合は、https://openrouter.ai/ で OpenRouter アカウントを作成します。
  2. OpenRouter で API キーを生成し、安全な場所にコピーします。
    • OpenRouter の API キーは sk-or-v1- で始まります。
  3. OpenRouter の 「モデル」ページ を開き、使用したいモデルを選択します。
    • モデル ID をメモします。例: z-ai/glm-4.5-air:free
  4. Firefox で Settings を開きます。
  5. AI Controls > Smart Window Settings > Assistant model の順に移動します。
  6. Custom: Use your own LLM を選択します。
  7. 以下のフィールドに入力します:
    • Model name: 手順 3 で取得した OpenRouter のモデル ID を貼り付けます。
    • Model endpoint: OpenRouter の API エンドポイント (通常は https://openrouter.ai/api/v1) を入力します。
    • API key: 手順 2 で取得した OpenRouter の API キーを貼り付けます。
  8. Save をクリックします。
  9. スマートウィンドウを開き、アシスタントの使用を開始します。
ヒント: OpenRouter のモデルページ (直接リンク) で「free」と検索すると、無料のモデルを見つけることができます。

bringyourownmodel

ローカルモデルを使用する

例: Lemonade Server

  1. https://lemonade-server.ai/ から Lemonade Server をダウンロードしてインストールします。バージョン 10.2.0 以降を使用する必要があります。
  2. Lemonade Server を実行し、アプリの指示に従って任意のモデルをダウンロードします。
  3. コマンドラインターミナルで、`lemonade config set ctx_size=8192` コマンドを実行してコンテキストサイズを大きく設定します。
  4. UI からモデルを再読み込みするか、`lemonade unload` コマンドを使用します (次にモデルにリクエストを行うと、設定が読み込まれます)。
  5. Firefox で Settings を開きます。
  6. AI Controls > Smart Window Settings > Assistant model の順に移動します。
  7. Custom: Use your own LLM を選択します。
  8. 以下のフィールドに入力します:
    • Model name: 手順 2 で取得したモデル名 (例: SmolLM3-3B-GGUF) を入力します。
    • Model endpoint: Lemonade Server のエンドポイント (通常は http://localhost:13305/api/v1) を入力します。
    • Lemonade Server では API キーは不要です。
  9. Save をクリックします。
  10. スマートウィンドウを開き、アシスタントの使用を開始します。

例: Ollama

  1. https://ollama.com/download から Ollama をダウンロードしてインストールします。
  2. Ollama を実行し、サイトの指示に従って任意のローカルモデルをダウンロードします。
  3. Firefox の設定画面を開き、AI Controls > Smart Window Settings > Assistant model の順に移動して、Custom: Use your own LLM を選択します。
  4. 以下のフィールドに入力します:
    • Model name: 手順 2 で取得したモデル名 (例: qwen3.5:4b) を入力します。
    • Model endpoint: OpenRouter の API エンドポイント (通常は http://localhost:11434/v1) を入力します。
    • Ollama では API キーは不要です。
  5. Save をクリックします。
  6. スマートウィンドウを開き、アシスタントの使用を開始します。

関連記事

以下の人々がこの記事の執筆を手伝ってくれました:

Illustration of hands

ボランティア

あなたの専門知識を成長させ、他の人と共有してください。質問に答えたり、ナレッジベースを改善したりしてください。

詳しく学ぶ