Sökresultat för

OpenClaw - Det ska vara en hummer i år

39 minuter i lästid
Jens Riboe
Jens Riboe
Senior/Expert Software Developer
OpenClaw - Det ska vara en hummer i år

OpenClaw — Hummern har landat

En genomgång av projektet som demokratiserade AI-agenter, vad det kräver av hårdvara och intelligens, och varför det spelar roll under 2026.


Från samtal till handling — eller från konversativ AI till agentiv AI

Man brukar säga att det går snabbt i hockey. Vad ska man då inte säga om AI? Här går det ju ultrasnabbt. Alla minns vi väl GitHub Copilot (från 2022) och eventuellt de otaliga härm-aporna. När man skrev in sin programkod och pausade ett ögonblick, så försökte copilot gissa sig till vad som skulle kunna vara fortsättningen. Ibland blev det bra, men för det mesta helt tokigt och ens egen tankebana kontinuerligt störd genom att man tvingades analysera förslaget och radera det. De flesta jag känner tröttnade snabbt och avinstallerade.

Året efter kom ChatGPT och rörde upp hela skolvärlden när ungarna snabbt som attan kom på att man kunde låta ChatGPT göra inlämningsuppgifterna. Med denna och de efterföljande Claude, Gemini och Grok under 2024, inleddes den konversativa AI eran, och visade världen vad stora språkmodeller (LLM = Large Language Model) kunde göra: besvara frågor, sammanfatta dokument, skriva kod, förklara komplexa ämnen. Men oavsett hur imponerande svaren var, förblev interaktionen i grunden passiv. Användaren frågade. Modellen svarade. Ingen av dem gjorde något.

Skiftet som inleddes under andra halvan av 2025 och accelererar kraftigt under detta år handlar om att ge språkmodeller händer. Genom protokoll som MCP (Model Context Protocol), function calling och tool use kan en LLM numera inte bara resonera om att ett flyg borde bokas — den kan faktiskt boka det också. Den kan rensa en inkorg, skicka ett mejl, styra en kalender, manipulera filer och navigera i en webbläsare. Språkmodellen har gått från samtalspartner till handlingskraftig agent.

Det verktyg som banat väg för agentiv AI är Claude Code CLI; ett kommandorads-program man kör direkt i den egna projekt-katalogen och som analyserar och skriver programkoden direkt i filsystemet. Man utökar funktionaliteten med skills, hooks, subagents och kopplingar till MCP servrar.

Denna har också gett upphov till en ny cool term vibe coding, som innebär att man låter AI:n designa systemet grafiskt, skriva all programkod, skriva och köra tester, upprepa tills alla test lyckas, samt driftsätta systemet på någon av de otaliga webbtjänsterna för applikationsdrift.

Det är i detta skifte som OpenClaw har blivit en central referenspunkt. Inte för att projektet uppfann konceptet med AI-agenter, utan för att det demokratiserade det — och förankrade det i öppen källkod, lokal kontroll och en hummer som maskot.


Peter Steinberger och hummerns resa

Historien bakom OpenClaw handlar lika mycket om sin skapare som om sin kod. Peter Steinberger är en österrikisk utvecklare som under 13 år byggde och drev PSPDFKit, ett företag vars PDF-teknik användes av Dropbox, Salesforce och IBM. Men efter drygt ett decennium som företagsledare kände han sig utbränd. Han bokade en enkelbiljett till Madrid och försvann ett tag.

Tillbaka i Wien började han experimentera med AI. Det projekt som så småningom blev OpenClaw var hans 44:e AI-relaterade experiment. Han har själv beskrivit det som att han var irriterad över att det inte existerade, så han "promptade det till existens" — en formulering som fångar både attityden och metoden.

Projektet lanserades i november 2025 under namnet Clawdbot, en ordlek på Anthropics chattbot Claude. Anthropic såg dock inte lika roligt på namnvalet och invände mot varumärkeslikheten. Den 27 januari 2026 döptes projektet om till Moltbot (i linje med hummertematiken — "molt" betyder att ömsa skal). Tre dagar senare bytte Steinberger igen, denna gång till OpenClaw, helt enkelt för att Moltbot aldrig riktigt lät bra.

Timingen sammanföll med en viral explosion. Entreprenören Matt Schlicht hade lanserat Moltbook, ett socialt nätverk avsett för AI-agenter, och den kombinerade uppmärksamheten fick OpenClaw att skjuta i höjden. Projektet passerade 247 000 GitHub-stjärnor i början av denna månad (mars 2026) — en av de snabbaste ökningarna i plattformens historia.

Den 14 februari 2026 meddelade Steinberger att han ansluter sig till OpenAI. Sam Altman, OpenAI:s VD, kallade honom en "genius" och skrev att OpenClaw kommer att leva vidare som ett open source-projekt i en stiftelse med OpenAI:s stöd. Steinberger beskrev sitt beslut som drivet av en vilja att förändra världen snarare än att bygga ännu ett företag, och att hans nästa uppdrag är att skapa agenter som "even my mum can use". Kontexten var talande: Mark Zuckerberg hade skrivit till honom via WhatsApp, Satya Nadella (Microsofts VD sedan 2014) hade hört av sig, och ingen europeisk aktör hade gjort ett seriöst försök att behålla honom.


Vad OpenClaw är — och inte är

Det finns en avgörande distinktion som ofta går förlorad i rapporteringen: OpenClaw är inte en AI-modell. Det är ett orkestreringsramverk — en lång-körande tjänst som agerar mellanhand mellan meddelandeappar och en stor språkmodell. OpenClaw tillhandahåller infrastrukturen: meddelanderoutning mellan plattformar som WhatsApp, Telegram, Discord, Signal och iMessage, filsystemåtkomst, shell-exekvering, cron-schemaläggning, webbläsarkontroll och ett minnes- och skills-system. Men all förståelse, allt resonemang och all beslutsfattning kommer från den LLM som är inkopplad.

En träffande analogi: OpenClaw utan en ansluten LLM är som en bil med ratt, pedaler och instrumentbräda — men utan motor. Gateway-tjänsten körs, meddelanden kan routas, men ingenting förstår dem eller genererar ett svar.

OpenClaw är implementerat i TypeScript, byggt med Vite och körs på Node.js (version 22 eller senare). Det installeras med NPM eller ännu hellre med PNPM. Stöd för Bun är på G, men inte riktigt i hamn ännu.

Det som gör arkitekturen elegant är skills-systemet. En skill definieras som en mapp innehållande en SKILL.md-fil med metadata och instruktioner. Detta är precis samma sak som i Claude Code. Det gör plattformen extremt utbyggbar — användare kan bygga egna skills eller använda communitybidrag, och man kan till och med be OpenClaw att bygga en ny skill åt sig själv. Enkelheten i formatet är en styrka, men den är också en potentiell attackyta (mer om det under säkerhetsavsnittet).

OpenClaw skiljer sig fundamentalt från mer polerade produkter som Claude Cowork, Anthropics egen agent-lösning. Cowork lever inuti Claude Desktop-appen, körs i en sandlåda via Apple Virtualization Framework, och kräver en Claude-prenumeration. OpenClaw är öppen källkod under MIT-licens, plattformsoberoende, modell-agnostiskt och kräver mer teknisk handpåläggning — men erbjuder i gengäld full kontroll, multi-plattformskommunikation och proaktiv automation med heartbeats och cron-jobb. Cowork är en väldesignad hushållsapparat; OpenClaw är ett hemmabyggt operativsystem för AI-agenter.

Det finns ytterligare en analogi man kan göra angående hem-automation. Här finner man ett stort utbud av konkurrerande kommersiella produkter, men också den klart lysande open-source stjärnan Home Assistant. Folk har redan börjat koppla ihop dessa två. Det är framförallt när det kommer till intelligent återkoppling och styrning av hemma-enheter såsom växthus-bevattning, analys av övervakningsvideo (är det ett rådjur eller en skurk på tomten?), smart styrning av elförbrukning baserad på aktuellt spotpris på elen, utetemperatur och huruvida någon är hemma eller ej.


Extern intelligens kontra lokal intelligens

En av de mest intressanta aspekterna av OpenClaw är valet mellan att använda molnbaserade AI-modeller och att köra allt lokalt. Det är inte bara en teknisk fråga — det handlar om kostnad, integritet, kapabilitet och kontroll.

Moln-API-läge

I sin vanligaste konfiguration skickar OpenClaw förfrågningar till en extern LLM via API — Claude, ChatGPT eller DeepSeek. Den tunga beräkningen sker på leverantörens servrar, och OpenClaw fungerar som en lätt gateway. Hårdvarukraven är minimala: själva ramverket använder under en gigabyte, och i princip klarar en Raspberry Pi uppgiften.

Fördelen är tillgång till de mest kapabla modellerna som existerar — modeller med hundratals miljarder parametrar, 200K tokens kontextfönster och sofistikerad instruktionsföljning. Nackdelen är löpande API-kostnader och det faktum att all data passerar externa servrar. För den som hanterar känslig information — juridiska dokument, hälsodata, finansiella uppgifter — kan det vara en dealbreaker.

Lokalt modell-läge

Alternativet är att köra en språkmodell direkt på den egna hårdvaran, vanligtvis via Ollama, ett CLI-verktyg som gör det enkelt att ladda ner och köra öppna modeller som Llama 3, Mistral eller DeepSeek R1 lokalt. Ollama exponerar ett OpenAI-kompatibelt API på localhost, vilket gör att omkonfigureringen från ett moln-API till ett lokalt installerad dito är tämligen odramatiskt.

Kvalitetsgapet är dock påtagligt. Frontier-modeller som Claude och ChatGPT har tränats med enorma resurser och levererar konsekvent starka resultat i komplex resonering, lång kontext och strukturerad output. Lokala modeller som kan köras på konsumenthårdvara är betydligt mindre och smalare. Gapet visar sig framför allt i tre dimensioner: resonemang vid komplexa flerstegsuppgifter, kontextfönstrets storlek (200K tokens i Claude mot 8K–128K i de flesta lokala modeller), samt konsistens och pålitlighet i outputformatet.

Hybridansatsen — det pragmatiska svaret

I praktiken är den mest effektiva strategin en hybridmodell: lokala modeller hanterar enklare, högfrekventa uppgifter — sammanfattningar, klassificering, kort textgenerering — medan frontier-modellerna reserveras för komplexa resonemang och långkontextanalys. Det sparar API-kostnader utan att offra kvalitet där det verkligen behövs. Som tumregel fungerar lokala modeller i storleksordningen 8–20 GB bäst som balans mellan kvalitet och svarstid.

Det viktigaste verktyget för att utvärdera vilken väg som passar är att faktiskt testa: installera Ollama, dra ner en modell, peka OpenClaw mot det lokala API:t, och se vad som fungerar och vad som inte gör det.


Kunskapsbaser, RAG och vektordatabaser

En aspekt av OpenClaws arkitektur som förtjänar uppmärksamhet är hur den hanterar långtidsminne och kontextuell kunskap. Här kommer begrepp som RAG (Retrieval-Augmented Generation) och vektordatabaser in i bilden.

RAG — eller på svenska ungefär "hämtningsförstärkt generering" — innebär att man ger en språkmodell tillgång till en extern kunskapsbas vid frågetillfället. Istället för att enbart förlita sig på det modellen lärde sig under träning, söker systemet först igenom relevanta dokument, berikar prompten med det hittade materialet, och låter modellen generera ett svar grundat i den specifika informationen. Det gör att modellen kan besvara frågor om privat eller domänspecifik data utan omträning, och att svaren kan spåras tillbaka till källdokument.

Den tekniska ryggraden i en RAG-pipeline är vanligtvis en vektordatabas. Dokument delas upp i mindre stycken och omvandlas till vector embeddings — stora arrayer av flyttal som representerar textens semantiska innebörd. Texter med liknande betydelse hamnar nära varandra i vektorrummet, vilket möjliggör sökning baserad på mening snarare än exakta nyckelord.

För OpenClaw-användare som vill hålla allt lokalt finns flera alternativ:

  • SQLite med sqlite-vec (minimalistiskt, en fil per databas och ingen server),
  • PostgreSQL med pgvector (produktionsmoget med full SQL-kraft), eller
  • dedikerade vektordatabaser som ChromaDB eller LanceDB, vilka är optimerade för snabb prototypning av AI-applikationer

Valet beror på skala och komplexitet — för de flesta hemmabruk räcker SQLite eftersom det är lätt att ta backup på en binärfil. Men å andra sidan är det ju tämligen enkelt att installera en PostgreSQL-server, vilket är en mycket kraftfull och skalbar lösning och den medger fjärråtkomst via otaliga SQL-verktyg.


Hårdvara — från Mac Mini till barebone-Linux

OpenClaw självt är lätt — det är ett Node.js-ramverk som orkestrerar API-anrop. Men i det ögonblick man vill köra lokala modeller ändras ekvationen helt. Då blir RAM, processor och minnesarkitektur avgörande.

Mac Mini — communityns referenshårdvara

Mac Mini med Apple Silicon har blivit så synonymt med OpenClaw att återförsäljare rapporterat om lagerbrist drivna av projektets popularitet. Anledningen är framför allt Apples unified memory architecture (UMA): CPU, GPU och Neural Engine delar samma fysiska minnespool. Det finns ingen separat VRAM — GPU:n läser direkt från systemminnet med hög bandbredd, utan flaskhals från en PCIe-buss.

I praktiken innebär det att en Mac Mini med 24 GB unified memory kan ladda och köra lokala modeller som skulle kräva ett dedikerat grafikkort på en PC. Modeller i 7B–13B-klassen fungerar väl med 16 GB; med 24 GB får man bekväm marginal för modeller upp till 34B parametrar; och med de större Max-chippen och 48–128 GB minne kan man köra 70B-modeller.

B står för miljarder (billions på engelska) och syftar på antalet parametrar i modellen. Parametrar är de numeriska vikter som modellen lärde sig under träning — de utgör i princip modellens "kunskap". 7B = 7 miljarder parametrar (t.ex. Llama 3 8B, Mistral 7B), 13B = 13 miljarder parametrar. Ju fler parametrar, desto mer kapabel modell — men också desto mer minne krävs. En tumregel är att varje miljard parametrar kräver ungefär 0,5–1 GB RAM beroende på kvantiseringsnivå (hur mycket man "komprimerar" modellens vikter). En 7B-modell kvantiserad till 4-bit tar ungefär 4–6 GB RAM, en 13B-modell kanske 8–10 GB.

Mac Mini M4 drar cirka 5–7 watt i viloläge och 8–15 watt under typisk belastning — ungefär 10–15 kronor i månaden i elkostnad. Den är tyst, kompakt nog att gömma bakom en skärm, och kan köras headless via SSH. Den stora nackdelen: RAM är fastlödd och kan inte uppgraderas i efterhand. Man måste välja rätt konfiguration från start.

Barebone-minidator med Linux

För den som föredrar x86-flexibilitet och uppgraderingsbarhet finns en växande marknad av minidatorer från tillverkare som ACEMAGIC, GEEKOM och GMKtec, ofta byggda kring AMD Ryzen-processorer. Man köper ett barebone-chassi och installerar själv RAM, NVMe-SSD och ett Linux-system — Debian eller Ubuntu är de vanligaste valen.

Fördelen är mer RAM per krona, möjlighet att uppgradera i efterhand, och i vissa fall Oculink-portar som ger möjlighet att koppla in ett externt GPU i framtiden. I entusiastklassen har maskiner med AMD Ryzen AI MAX+ och 64 GB unified memory rapporterats köra 120B-parametermodeller med rimlig hastighet under Linux.

Oculink (Optical Copper Link) är en kompakt fysisk kontakt som ger en direkt PCIe-anslutning ut från datorn. I praktiken innebär det att man kan koppla in ett externt grafikkort — t.ex. en NVIDIA RTX 4090 eller 5090 — via en extern dockningsstation, och få nära samma prestanda som om kortet satt inuti en stationär dator. Det är relevant i OpenClaw-sammanhanget för att det ger en uppgraderingsväg: köp en kompakt barebone-minidator idag, kör lokala modeller på den integrerade GPU:n, och om behoven växer kan du senare koppla in ett kraftfullt externt grafikkort utan att byta hela maskinen. Den typen av framtidssäkring finns inte på Mac Mini, där allt är fastlödd. I praktiken är Oculink fortfarande nischat — det kräver en separat eGPU-låda och ett kompatibelt grafikkort, så det är mest relevant för entusiaster som planerar att köra riktigt stora lokala modeller (70B+).

Nackdelen är mer handpåläggning vid installation och underhåll, samt avsaknaden av iMessage-integration (som kräver macOS).

Raspberry Pi 5 — budgetvägen in

Med ett pris runt 800–1 200 kronor för kortet är Raspberry Pi 5 (8 GB) det billigaste sättet att komma igång med OpenClaw som alltid-på-tjänst. För ren moln-API-drift räcker det gott — OpenClaw gör i huvudsak nätverksanrop, och det klarar en Pi. Det viktiga är att använda en NVMe-SSD istället för SD-kort; skillnaden i prestanda för de frekventa läs- och skrivoperationerna är dramatisk.

För lokala modeller är Pi:n däremot alltför begränsad. Den fungerar som en startpunkt för att lära sig plattformen, med vetskapen att skills och konfiguration kan flyttas direkt till kraftfullare hårdvara senare.

Men man kan ju alltid stila för kollegerna genom att ha med sig sin egen agentiv-låda i skjortans bröstficka, driven av en powerbank och kopplad till internet via mobilens delningstjänst. 😎


Säkerhetsaspekter

Det vore oansvarigt att skriva om OpenClaw utan att adressera säkerhetsfrågorna. Det som gör plattformen kraftfull — bred systemåtkomst, autonom handling, integration med känsliga tjänster — är precis det som gör den riskabel.

OpenClaw behöver i princip samma åtkomst till datorn som användaren själv har: filer, nätverk, konton, webbläsare, meddelandetjänster. Det är vad som krävs för att agenten ska kunna agera meningsfullt. Men det innebär också att en felkonfigurerad eller komprometterad installation kan göra verklig skada.

Under januari 2026 upptäckte säkerhetsforskare vid DepthFirst en kritisk sårbarhet (CVE-2026-25253) som möjliggjorde fjärrkodexekvering med ett enda klick. Ciscos AI-säkerhetsteam testade en tredjepartsskill och fann att den utförde datautfiltrering och prompt injection utan att användaren märkte det. Vissa statliga myndigheter och större företag har uttryckligen förbjudit personal att köra OpenClaw på arbetsdatorer.

Men perspektivet bör nyanseras. Docker-isolation är en etablerad skyddsåtgärd som communityn rekommenderar. Att köra OpenClaw på en dedikerad enhet — en separat Raspberry Pi eller minidator — ger isolering som en delad laptop aldrig kan erbjuda. Starka frontier-modeller är bättre på att motstå prompt injection. Och det faktum att OpenClaw är öppen källkod innebär att kod och skills kan granskas, till skillnad från proprietära lösningar där användaren måste lita blint.

Säkerhet i OpenClaw-sammanhang handlar inte om att undvika risker helt — det handlar om att förstå dem och hantera dem medvetet. Om vi ska dra till med ytterligare en analogi; man kör lämpligen inte bil utan säkerhetsbälte, krockkudde, inbyggd störtbåge och automatbromsning.


Vad kan vi förvänta oss under 2026?

OpenClaw befinner sig i en remarkabel position: ett hobbyprojekt som på några månader blivit ett av de mest uppmärksammade open source-projekten i världen, vars skapare nu sitter på OpenAI för att forma nästa generations AI-agenter.

Flera utvecklingar tecknar sig tydligt. Stiftelsestrukturen som Steinberger aviserat kommer att ge projektet formell styrning, säkerhetsgranskning och långsiktig stabilitet oberoende av enskilda aktörer. Ekosystemet expanderar — Tencent har redan lanserat en fullständig produktsvit byggd på OpenClaw, kompatibel med WeChat, och tredjepartsskills växer snabbt.

Samtidigt bygger de stora AI-labbens — Anthropic med Claude Cowork, Google med sina agentprodukter, Apple med sitt ekosystem — sina egna agentlösningar. Frågan är om dessa kommer att göra OpenClaw överflödigt, eller om öppenheten, modellflexibiliteten och den lokala kontrollen ger det en bestående nisch.

Det mest sannolika svaret är att båda världarna kommer att samexistera. Det finns användare som vill ha en polerad, säker, "det bara fungerar"-upplevelse — och det finns de som vill äga sin infrastruktur, välja sin modell och hacka sin agent. OpenClaw talar till den andra gruppen, och den gruppen växer. De som idag kör Home Assistant kommer garanterat att köra OpenClaw.

Steinbergers uppdrag hos OpenAI — att bygga agenter som alla kan använda — tyder på att insikterna från OpenClaw kommer att formas om till något mer tillgängligt. Men det öppna projektet lever vidare, med en community som bevisat att den kan driva utvecklingen framåt med eller utan sin grundare.

2026 ser ut att bli året då AI-agenter går från kuriositet till vardagsverktyg. OpenClaw är en av anledningarna till varför.