privacyarchitecturelocal-first

Was „Local-First" für KI-Agenten wirklich bedeutet

Die meisten KI-Tools leben vollständig in der Cloud. Dein stomme.ai-Agent nicht.

Von Nils Ekström, CTO bei Stomme AI

Jeder Chatbot, den du verwendet hast, funktioniert auf dieselbe Weise: Du öffnest einen Browser-Tab, gibst einen Prompt ein, erhältst eine Antwort und schließt den Tab. Deine Konversationshistorie, deine Präferenzen, dein Kontext — alles wird auf Servern anderer gespeichert. Das KI-Unternehmen entscheidet, was gespeichert wird, wie lange es gespeichert wird und was damit passiert.

Für schnelle Fragen ist das in Ordnung. Aber wenn eine KI deine E-Mails, deinen Kalender, deine Kundenarbeit und deine Geschäftsabläufe übernimmt — brauchst du eine andere Architektur.

Was „local-first" wirklich bedeutet

Lass uns genau festlegen, was wo läuft, denn die meisten „lokale KI"-Behauptungen sind irreführend. Hier ist genau, wie ein stomme.ai-Agent funktioniert:

Auf deinem Mac (lokal): Der Agent selbst — sein Arbeitsbereich, sein Gedächtnis, seine Konversationshistorie, Dateien, verbundene Tools, Orchestrierung, Planung und der gesamte angesammelte Kontext. Das ist die Infrastruktur, die einen Agenten zu einem Agenten macht und nicht zu einem Chatbot. Er läuft als Hintergrunddienst auf deinem Mac, wie jede andere Anwendung.

In der Cloud (API-Aufrufe): KI-Reasoning. Wenn dein Agent denkt — eine E-Mail entwirft, ein Dokument analysiert, ein Projekt plant — sendet er eine Anfrage an Anthropics Claude API und erhält eine Antwort. Das ist dieselbe API, die Claude.ai antreibt. Anthropics Bedingungen verbieten die Verwendung von Kundendaten für das Modelltraining.

Auf unseren Servern: Nur Abrechnung, Onboarding und Kontoverwaltung. Wir sehen deine Konversationen, deine Dateien oder die Arbeit deines Agenten nicht.

Die ehrliche Version: Das Gehirn deines Agenten nutzt Cloud-KI. Der Körper deines Agenten — alles, was er weiß, erinnert und tut — lebt auf deinem Mac.

Warum das mehr zählt als „vollständig lokal"

Einige hören „Cloud-KI" und denken, das verfehlt den Zweck. Aber überlege, was ein Agent im Laufe von Monaten ansammelt: deine Kommunikationsmuster, deinen Projektkontext, deine Kundenbeziehungen, deine Vorlieben, deinen Arbeitsstil. Das sind die wertvollen Daten. Und genau die bleiben auf deinem Rechner.

Das KI-Reasoning ist zustandslos — jeder API-Aufruf ist eine Frage und eine Antwort. Nichts wird auf Anthropics Seite zwischen den Anfragen gespeichert. Dein Agent sendet Kontext, erhält eine Antwort und der Kontext kehrt in deinen lokalen Arbeitsbereich zurück.

Das ist grundlegend anders als bei einem Cloud-Chatbot, bei dem alles — Historie, Kontext, Vorlieben — auf deren Servern liegt.

Was du wirklich besitzt

Wenn du ein Chatbot-Abo kündigst, verschwindet deine Konversationshistorie (oder wird unzugänglich). Bei einem stomme.ai-Agent bleibt alles, was dein Agent aufgebaut hat — sein Gedächtnis, seine Projektdateien, sein angesammeltes Verständnis deiner Arbeit — als normale Dateien auf deinem Mac. Du kannst sie lesen, sichern oder migrieren.

Nach sechs Monaten, in denen er deine Abläufe betreut hat, ist dieser angesammelte Kontext wirklich wertvoll. Er ist eine Datei auf deiner Festplatte und nicht an ein Abo gebunden.

Datenschutz, den du überprüfen kannst

Der Arbeitsbereich deines Agenten ist ein Ordner auf deinem Mac. Du kannst ihn öffnen und jede Datei lesen. Du kannst den Netzwerkverkehr überwachen und genau sehen, was wohin geht. Du musst keiner Datenschutzerklärung blind vertrauen — du kannst die Architektur selbst prüfen.

Für Unternehmen, die Kundendaten, regulierte Informationen oder Wettbewerbsinformationen verarbeiten, ist das entscheidend. Die Wissensbasis deines Agenten — der sensible Teil — verlässt niemals dein Netzwerk. Nur einzelne Reasoning-Anfragen gehen zum KI-Anbieter, und diese unterliegen den kommerziellen API-Bedingungen von Anthropic (kein Training mit deinen Daten).

Kannst du vollständig lokale Modelle nutzen?

Ja. Wenn du leistungsfähige Hardware hast (Apple-Silicon-Macs funktionieren sehr gut), kannst du deinen Agenten so konfigurieren, dass er lokale KI-Modelle statt oder zusätzlich zu Cloud-APIs verwendet. Das ermöglicht vollständig offline Reasoning, bei dem keinerlei Daten deine Maschine verlassen — bei dem Kompromiss kleinerer Modelle. Es ist eine Konfigurationsentscheidung, keine architektonische Einschränkung.

Die Quintessenz

Wir behaupten nicht, dass deine Daten „dein Gerät niemals verlassen" — das ist eine Marketingaussage, die die meisten Unternehmen nicht ehrlich belegen können. Wir sagen dir genau, was wo läuft: Die Infrastruktur deines Agenten ist lokal, KI-Reasoning erfolgt über Cloud-APIs und deine angesammelten Daten bleiben auf deinem Mac.

Das ist ein bedeutender Unterschied zu jedem Chatbot, auch wenn es nicht die einfache „100 % lokal"-Geschichte ist, die manche hören wollen.


Dein Agent läuft auf deinem Mac. KI-Reasoning über Cloud-API. Deine Daten bleiben deine.

Ready to meet your agent?

Set up takes under an hour. No technical knowledge required.

Start for free