Wie unterscheidet sich LandiKI von ChatGPT oder Gemini?
Unsere Lösung basiert auf Open-Source LLMs, die vollständig On-Premises oder in einer Private Cloud betrieben werden. Anders als Public-Dienste bieten wir volle Kontrolle über Datenflüsse, Modellanpassung und Integrationen. Die Kommunikation mit dem Modell verlässt zu keinem Zeitpunkt das Unternehmensnetzwerk – ein entscheidender Vorteil im Hinblick auf Datenschutz und Compliance.
Welches Modell nutzt ihr – wie flexibel ist es?
Unsere LLM-Instanz läuft auf Ollama – einer schlanken, containerisierten Plattform für das lokale Deployment von Large Language Models (LLMs). Als Frontend verwenden wir Open WebUI, eine intuitive, modulare Benutzeroberfläche mit Multi-User-Support, Rollenmanagement und Integration von RAG-Komponenten. Diese Kombination erlaubt uns eine produktionsreife Umgebung bei gleichzeitig hoher Flexibilität und einfacher Erweiterbarkeit. Wir sind dabei nicht auf ein einzelnes Modell beschränkt - verschiedene LLMs lassen sich individuell einbinden, konfigurieren und gezielt testen, um den jeweils besten Fit für spezifische Anforderungen zu finden.
Wie werden Unternehmensdaten eingebunden?
Wir nutzen eine RAG-Architektur zur kontextuellen Anreicherung von Prompts. Die Embeddings werden via OpenAI-kompatibler Transformer-Modelle (z. B. BGE, Instructor XL) erzeugt und automatisiert aus internen Quellen gespeist (PDFs, Confluence, Markdown, Emails etc.). Der Zugriff erfolgt über angepasste RAG-Plugins innerhalb der Open WebUI oder eigene Middleware.
Wie schnell ist LandiKI einsatzbereit?
Dank Ollama und Open WebUI können erste Use Cases innerhalb weniger Tage live gehen. Besonders für Teams mit DevOps-Erfahrung ist der Einstieg schnell und skalierbar. Wir bieten auf Wunsch eine vorgefertigte Instanz inkl. Konfiguration, Datenanbindung und Rollout-Support.
Wie sicher ist das Setup im produktiven Einsatz?
Sehr sicher. Unsere KI läuft komplett intern, ohne Verbindung zur Cloud oder zu externen Servern. Zugriffe sind über Benutzerkonten geschützt, und nur freigegebene Personen oder Teams können mit der KI arbeiten. Besonders für sensible Daten oder Branchen mit hohen Datenschutzanforderungen ist das ein großer Vorteil.