Windows 10 reached EOS (end of support) on October 14, 2025. If you are on Windows 10, see this article.

Hilfe durchsuchen

Vorsicht vor Support-Betrug: Wir fordern Sie niemals auf, eine Telefonnummer anzurufen, eine SMS an eine Telefonnummer zu senden oder persönliche Daten preiszugeben. Bitte melden Sie verdächtige Aktivitäten über die Funktion „Missbrauch melden“.

Weitere Informationen

ollama support for AI chatbot?

  • 3 Antworten
  • 0 haben dieses Problem
  • Letzte Antwort von TyDraniu
  • Gelöst

can we get a ollama local ai models to use in AI chatbot? it would be more private and give more flexibility for users

can we get a ollama local ai models to use in AI chatbot? it would be more private and give more flexibility for users

Ausgewählte Lösung

Hi, I guess you can. Enter about:config in the address bar and set your local chatbot URL in the browser.ml.chat.provider preference. Perhaps you also need to switch browser.ml.chat.hideLocalhost to false.

Diese Antwort im Kontext lesen 👍 1

Alle Antworten (3)

Ausgewählte Lösung

Hi, I guess you can. Enter about:config in the address bar and set your local chatbot URL in the browser.ml.chat.provider preference. Perhaps you also need to switch browser.ml.chat.hideLocalhost to false.

thank you so much😄

and also is there any way to remove or increase the limit of summarize page length? since its local I can just let it summarize a lot longer pages with no problem

Yes, you can increase browser.ml.chat.maxLength in about:config.

Stellen Sie eine Frage

Sie müssen sich mit Ihrem Benutzerkonto anmelden, um auf Beiträge zu antworten. Bitte stellen Sie eine neue Frage, wenn Sie noch kein Benutzerkonto haben.