Av Nils Ekström, CTO på Stomme AI
Kortversionen
Din Stomme AI-agentinfrastruktur körs på din Mac. Konversationer och filer stannar på din enhet. Vi läser inte din mejl. Vi lagrar inte dina konversationer. Om våra servrar går ner fortsätter din agent att fungera. Om du avslutar stannar dina data hos dig.
Det är löftet. Här är hur det fungerar.
Var dina data finns
De flesta AI-verktyg fungerar på samma sätt: du skriver något, det skickas till en server, servern bearbetar det, svaret kommer tillbaka. Dina data passerar genom — och stannar ofta på — någon annans infrastruktur.
Stomme AI fungerar annorlunda. Din agent är programvara installerad på din Mac. Den körs lokalt, som vilken annan applikation som helst. Dina konversationer, filer och agentminne lagras på din hårddisk — inte i en molndatabas.
När din agent behöver resonera — generera ett svar, analysera ett dokument, utkasta ett mejl — skickar den en prompt till ett moln-AI-modell-API (Claude av Anthropic). Prompten bearbetas och svaret kommer tillbaka. Men dina filer laddas inte upp. Ditt mejlarkiv indexeras inte på en fjärrserver. Din konversationshistorik finns på din dator.
Vad som stannar på din Mac:
- Alla konversationer med din agent
- Filer din agent skapar eller läser
- Din agents minne (preferenser, kontext, mönster)
- Anslutna tjänste-inloggningar (lagrade i macOS Nyckelring)
Vad som passerar externa servrar:
- AI-resonemangsprompts och svar (Anthropic moln-API)
- Webbsökningsfrågor (Brave Search API)
Vad vi lagrar på vår infrastruktur:
- Din kontoinformation (namn, mejl, fakturering)
- Prenumerations- och faktureringsdata (via Stripe)
- Tjänstemetadata (agenthälsokontroller, användningsräknare)
Det är allt. Vi har inte tillgång till dina konversationer, dina filer eller din agents minne.
Vad händer med onboarding-data?
När du för första gången konfigurerar din agent frågar vi om dina preferenser, verktyg och arbetssätt via ett onboarding-formulär. Den informationen bearbetas på våra servrar för att konfigurera din agent — anpassar dess beteende, kopplar dina tjänster och bygger dess arbetsprofil.
När din agent är konfigurerad och körs på din Mac raderas den onboarding-datan från våra servrar. Den lagras inte, loggas inte och används inte för att träna några modeller.
Godkännandefunktionen
Din agent är autonom — den arbetar utan att du tittar på. Men den är inte oövervakad.
Åtgärder med stor inverkan kräver ditt uttryckliga godkännande innan de utförs:
- Skicka mejl för din räkning — din agent utkastar, du godkänner
- Radera filer — din agent flaggar, du bekräftar
- Komma åt en ny tjänst — din agent begär, du beviljar
- Installera eller ändra något — blockeras som standard
Du sätter gränserna. Din agent respekterar dem. Varje åtgärd loggas och kan granskas via Mission Control.
Jämförelse med ChatGPT
Med ChatGPT lagras dina konversationer på OpenAI:s servrar. OpenAI:s integritetspolicy täcker hur de hanterar dessa data, inklusive potentiell användning för modellträning (du kan avanmäla dig). Dina frågor, dina dokument, dina idéer — de passerar genom och stannar potentiellt på infrastruktur du inte kontrollerar.
Med Stomme AI lämnar dina konversationer aldrig din Mac. Moln-AI-modellen ser enskilda resonemangsprompts, men din konversationshistorik, dina filer och din agents ackumulerade kunskap förblir lokala.
Den praktiska skillnaden: om OpenAI drabbas av ett dataintrång kan din ChatGPT-historik potentiellt exponeras. Om Stomme AI drabbas av ett dataintrång påverkas inte dina konversationer — för vi hade dem aldrig.
Vad händer om du avslutar
Dina agentfiler stannar på din Mac. Din konversationshistorik, din agents minne, dina konfigurerade arbetsflöden — allt förblir på din dator. Vi raderar ditt konto från vår infrastruktur (faktureringsuppgifter, användningsräknare, agenthälsodata). Du behåller allt du skapat.
Du kan till och med exportera din agents konfiguration om du vill sätta upp en egeninstallation av OpenClaw senare. Teknologin är öppen källkod. Dina data var alltid dina.
Vad vi inte kan lova
Transparens innebär att vara ärlig om begränsningar också:
- AI-modellsleverantörer ser dina resonemangsprompts. När din agent skickar en fråga till Claude når den prompten Anthropics servrar. Vi kan inte kontrollera vad som händer inuti deras infrastruktur.
- Webbsökningar är synliga för sökleverantören. När din agent använder Brave Search skickas frågan via Braves API. Det är samma sak som att du söker på webben själv.
- Om någon får tillgång till din Mac, får de tillgång till din agent. Lokalt betyder lokalt — din agents säkerhet är din dators säkerhet.
Arkitekturbeslutet
Vi lät inte din agent köra lokalt för att det var enklare. Det var det inte. Molnbaserade agenter är enklare att bygga, enklare att underhålla och enklare att skala.
Vi valde lokal körning för att det är rätt arkitektur för en personlig AI-agent. Din agent hanterar din mejl, din kalender, dina filer och ditt arbete. Dessa data bör stanna där de hör hemma — hos dig.
Integritet bör inte vara en funktion du betalar extra för. Det bör vara hur systemet är byggt.