Tools · Helpers
Local AI
Ein kleiner lokaler Website-Chatbot (Browser-LLM via WebGPU) mit simpel stabiler Q&A-Retrieval-Logik aus Markdown-Dateien.
Ziel: kein Cloud-Backend, kein Account, kein Tracking – nur lokale Berechnung + statische Wissensdateien (MD). Funktioniert am besten auf Desktop (Chrome/Edge) oder Safari mit aktivem WebGPU.
Hinweis: Auf iPhone/iOS ist WebGPU nicht überall verfügbar. Dann kann das Modell nicht laden (das ist kein Bug der Seite, sondern Feature-Support).
Was das Ding kann
Kurz & konkret – plus Copy-Vorlagen für Einbau/Anpassung.
✅ Lokal im Browser: WebLLM (WebGPU) – keine Server-API nötig
✅ Stabiler Modus: Antworten nur aus passenden Q&A (Markdown)
✅ Fallback: nur wenn Q&A nicht reicht (und dann strikt “Ich weiß es nicht.”)
✅ Einfache Wissenspflege: Dateien unter
assets/knowledge/*.md✅ Copy-Templates: “Embed-Snippet” + kompletter JS-Code
Wie du’s auf einer eigenen Website nutzt:
1)
2) Einmal Script einbinden (Snippet) – fertig
3) Bei anderem Ordneraufbau: Pfade in
1)
assets/js/local-ai.js + assets/knowledge/*.md übernehmen2) Einmal Script einbinden (Snippet) – fertig
3) Bei anderem Ordneraufbau: Pfade in
KNOWLEDGE anpassen
Code (Copy & Anpassung)
Du kannst entweder das Embed-Snippet kopieren (empfohlen) oder den kompletten JS-Code.