Tools · Helpers

Local AI

Home · Tools · Helpers · Local AI

Ein kleiner lokaler Website-Chatbot (Browser-LLM via WebGPU) mit simpel stabiler Q&A-Retrieval-Logik aus Markdown-Dateien.

Ziel: kein Cloud-Backend, kein Account, kein Tracking – nur lokale Berechnung + statische Wissensdateien (MD). Funktioniert am besten auf Desktop (Chrome/Edge) oder Safari mit aktivem WebGPU.

Hinweis: Auf iPhone/iOS ist WebGPU nicht überall verfügbar. Dann kann das Modell nicht laden (das ist kein Bug der Seite, sondern Feature-Support).

Was das Ding kann

Kurz & konkret – plus Copy-Vorlagen für Einbau/Anpassung.

✅ Lokal im Browser: WebLLM (WebGPU) – keine Server-API nötig
✅ Stabiler Modus: Antworten nur aus passenden Q&A (Markdown)
✅ Fallback: nur wenn Q&A nicht reicht (und dann strikt “Ich weiß es nicht.”)
✅ Einfache Wissenspflege: Dateien unter assets/knowledge/*.md
✅ Copy-Templates: “Embed-Snippet” + kompletter JS-Code
Wie du’s auf einer eigenen Website nutzt:
1) assets/js/local-ai.js + assets/knowledge/*.md übernehmen
2) Einmal Script einbinden (Snippet) – fertig
3) Bei anderem Ordneraufbau: Pfade in KNOWLEDGE anpassen

Code (Copy & Anpassung)

Du kannst entweder das Embed-Snippet kopieren (empfohlen) oder den kompletten JS-Code.