6 april 2026
Conway - Anthropics nästa steg mot en AI som aldrig stänger av
I slutet av mars 2026 publicerade Anthropic av misstag sin egen källkod, och i den koden låg något de inte var redo att visa: Conway, en autonom AI-agent som arbetar i bakgrunden utan att du behöver starta den.

Conway, Anthropic och frågan om vad som händer när AI börjar arbeta utan att vi tittar på
Det händer sällan att ett mjukvaruföretag av misstag publicerar sin egen källkod. Det händer ännu mer sällan att det avslöjar något som hela branschen hemlighållit.
Den 31 mars 2026 publicerade Anthropic av misstag ungefär 500 000 rader TypeScript. I den koden hittade forskare 44 dolda feature flags som pekade mot ej lanserade funktioner: bakgrundsagenter, multi-agent-koordinering och schemalagda uppgifter. Dagen efter bröt sajten TestingCatalog nyheten om vad dessa spår pekade mot: ett projekt vid namn Conway.
Anthropic bekräftade att det var ett mänskligt misstag i ett release-paket, inte ett säkerhetsintrång. Inga officiella uttalanden om Conway har publicerats. Men källkoden ljuger inte.
Conway är en persistent agentmiljö för Claude. Inte en chatbot. Inte ett tillägg till chatten. En helt separat instans med eget gränssnitt som körs kontinuerligt, alltid aktiv, utan att användaren behöver starta den manuellt varje gång.
Det är en fundamentalt annorlunda relation till AI än den vi hittills haft.
Och det är just det som gör det värt att stanna upp och tänka.
Vad läckan visade
TestingCatalog, den sajt som bröt nyheten den 1 april 2026, hade grävt fram konkreta tekniska spår ur Claudes kodbas. Conway-instansen har tre delar i sidopanelen: Search, Chat och System. Det är System-delen som är mest avslöjande, med inställningar för connectors, webhooks och extensions.
I källkoden finns bekräftade tekniska egenskaper: ett eget gränssnitt skiljt från den vanliga chattvyn, stöd för att köra Claude Code, möjlighet att ta emot externa webhooks (publika URL:er kan väcka Conway-instansen när externa tjänster triggar dem), direkt integration med Claude in Chrome och ett nytt tilläggsformat kallat CNW ZIP.
Det är den sista punkten som analytiker fastnat vid. CNW ZIP är ett nytt protokoll tänkt att standardisera hur agenter kan interagera med mjukvara och nätverk på djupet. Flera jämför det med en app store för AI-agenter. Det är inte ett tekniskt tillägg. Det är en plattformsstrategi.
I källkoden finns också referenser till något som heter Epitaxy, kopplat till Conway. Troligast är att det är operatörsgränssnittet, den del som hanterar hur Conway styr och exekverar uppgifter. Det är fortfarande spekulativt, men konsekvent omnämnt i oberoende analyser.
Från reaktiv till autonom
För att förstå vad Conway egentligen innebär behöver man förstå var vi är och vart vi är på väg.
Hittills har AI-verktyg fungerat reaktivt. Du öppnar ett fönster, ställer en fråga, får ett svar. Du stänger fönstret. Ingenting händer utan att du initierar det. Det är den logik som gällt för Claude.ai, för ChatGPT, för alla de verktyg som definierat vad vi menar när vi säger AI-assistent.
Cowork, som finns i Anthropics desktop-app, utmanar redan den modellen. Men Cowork kräver att du sitter vid datorn och startar uppgiften. Du är fortfarande i loopen. Beslutsfattandet är fortfarande medvetet.
Conway eliminerar det steget. En Conway-instans kan väckas av externa händelser, av en webhook, av ett system som triggar den, utan att du aktivt initierar något. Den arbetar medan du gör något annat. Kanske medan du sover.
Det är en kvalitativ förändring, inte en kvantitativ. Det handlar inte om att AI:n gör saker snabbare eller bättre. Det handlar om att den gör saker utan att du tittar.
Anthropics strategiska logik
Det vore fel att läsa Conway som en isolerad produkt. Det är ett led i en tydlig rörelsebana.
Det hela började med desktop-appen. I oktober 2024 lanserade Anthropic Claude Desktop för macOS och Windows, och appen hade från start haft två flikar: Chat och Code. Code-fliken är Claude Code utan terminal, du kan följa processen visuellt, du skriver i klartext vad du vill ha gjort. Ingen kodbas att navigera, inget som kräver att du vet hur programmeraren tänker. Det är vibe coding i sin mest tillgängliga form. Cowork, som kom som research preview i januari 2026, tar det hela ett steg till: du beskriver en uppgift, lämnar den och kommer tillbaka när den är klar. Inte ett samtal i realtid, utan en delegation. Nu pekar Conway mot nästa steg: ett system som lever i användarens dator och kan agera även när ingen sitter framför skärmen.
Analytiker från BigGo Finance och andra menar att Anthropics rörelser sammantagna handlar om att bygga ett underliggande AI-operativsystem. Conway är skiktet som gör att Claude kan existera permanent i din digitala miljö, koordinera med andra system, agera på events och utföra uppgifter på mandat du en gång definierat.
Cowork tog fart snabbt. Snabbare, enligt vissa analytiker, än Claude Code i sin tid. Det är logiskt: Claude Code kräver att man är bekväm med terminalen. Cowork är för alla som har en dator och en uppgift. Och det ger Anthropic råd att ta sig tid med nästa steg. De behöver inte ha bråttom. Men rörelsen är tydlig: varje produkt rör sig ett steg längre bort från den reaktiva chatboten, ett steg närmre ett system som agerar på eget initiativ.
Skuggan som fick handlingskraft
Här är vi vid det som gör Conway intressant inte bara som teknologi, utan som spegel av något djupare.
Jung talade om Skuggan som den del av psyket som verkar utanför medvetandets ljus. Den är inte ond, men den är okontrollerad. Den rymmer det vi förnekat, det vi tryckt undan, det vi inte velat titta på i oss själva. Och precis som skuggan inte försvinner för att vi ignorerar den, fortsätter den att agera, fast från det omedvetna.
"Det man inte vill veta om sig själv hamnar till slut som öde." - C.G. Jung
Conway representerar något strukturellt liknande. Chatboten är det medvetna: det vi ser, initierar och styr. Varje steg är synligt. Vi kan granska, korrigera, avbryta. Chatboten är AI som persona, den mask som vetter mot oss och väntar på vår direkta uppmärksamhet.
Conway är något annat. Den verkar i bakgrunden. Utanför vår direkta uppmärksamhet. Triggad av externa system, aktiv medan vi inte tittar. Det är inte en metafor att kalla det skuggsidan av AI-assistenten. Det är en beskrivning av hur systemet faktiskt fungerar.
Frågan Jung ställde om Skuggan är densamma som vi nu måste ställa om Conway: vad händer när det som opererar utanför medvetandets kontroll får verklig handlingskraft?
Det delegerade omedvetna
Vi delegerar till det omedvetna hela tiden. När vi kör en välbekant väg hem och plötsligt befinner oss framför porten utan att minnas resan. När vi utför rutinuppgifter med halva uppmärksamheten riktad någon annanstans. När vi sover och låter hjärnan bearbeta, sortera och integrera utan vår medvetna inblandning.
Det är inte farligt i sig. Det omedvetna är inte fienden. Men det kräver integration. Det kräver att det som sker i bakgrunden förblir förankrat i de värderingar och intentioner vi medvetet valt.
Conway gör samma sak teknologiskt: det tar uppgifter vi en gång definierat och utför dem utan att vi behöver vara medvetna om processen. Det är praktiskt. Det är effektivt. Det kan vara befriande.
Men frågan är om vi, som med det omedvetna, kan lita på att det som verkar i bakgrunden faktiskt är integrerat med våra verkliga värderingar. Inte de vi uppger i ett inställningsfönster. Utan de vi faktiskt lever efter.
Det är en annan fråga. Och den är svårare.
De konkreta riskerna
Det vore oärligt att bara skriva om Conway som ett filosofiskt fenomen. Det finns praktiska riskfrågor som ingen seriös analys kan hoppa över.
En always-on agent med tillgång till din data, ditt mail, dina filer och din browser är en fundamentalt annorlunda riskprofil än en chatbot. Om Conway alltid lyssnar och kan triggas av externa system, vad händer vid dataläckor? Vem äger det som diskuteras i bakgrunden? Vilka system kan nå instansen, och under vilka omständigheter?
Det finns också frågan om kontrollförlust av ett mer vardagligt slag. Med en chatbot kan du se och korrigera varje steg. Med Conway som arbetar autonomt i bakgrunden är det svårare att identifiera misstag mitt i ett arbetsflöde. Hur mycket autonomi ska AI:n ha? Och vem bestämmer det gränsvärdet?
Troligen är dessa frågor precis anledningen till att Conway inte är lanserat än. Anthropic har ett starkt rykte inom AI-säkerhet. Constitutional AI, deras ramverk för AI med inbyggda etiska riktlinjer, är en central del av deras identitet. Det vore anmärkningsvärt om de inte ville täcka alla luckor innan de släpper en autonom agent på marknaden.
Individuation som lanseringsstrategi
Jung talade om individuation som processen att integrera det omedvetna i medvetandet. Inte att eliminera det omedvetna, utan att lära känna det, bygga en relation till det och säkerställa att det inte styr oss utan vår vetskap.
Kanske är Anthropics försiktighet med Conway en slags teknologisk individuation. Man vill inte släppa lös det autonoma innan man förstår vad det bär på. Innan integreringen är tillräckligt djup. Innan man kan svara på frågan: arbetar detta system verkligen i linje med de värderingar vi säger oss ha?
Det är en rimlig och i grunden sympatisk hållning. Den är också ovanlig i en bransch som ofta prioriterar snabb lansering framför djup förståelse.
Men det löser inte den mer grundläggande frågan, den som handlar om oss som användare. Om vi är redo.
Är vi redo för ett AI som arbetar medan vi sover?
Det är lätt att tycka att Conway låter bekvämt. Att ha en agent som sköter sig i bakgrunden, som triggas av externa händelser, som arbetar på uppdrag vi definierat och sedan kör utan vår inblandning. Det är en vision om frigjord tid, om delegering av det tråkiga, om att vakna upp till ett arbete som gjorts.
Men frihet kräver alltid något tillbaka. Den kräver att vi är tillräckligt tydliga med oss själva om vad vi vill och varför. Att vi inte delegerar beslut vi borde fatta själva. Att vi inte skapar autonoma system som förstärker impulser vi egentligen ville ha kontroll över.
Det är exakt vad Jungiansk psykologi handlar om: inte att eliminera de delar av psyket som opererar utan vår direkta kontroll, utan att bygga en medveten relation till dem. Att inte vara naiv inför vad de kan göra på eget bevåg.
Conway kommer att lanseras. Förmodligen snart. Och det kommer att vara ett bra verktyg för många människor. Men det kommer att kräva en ny typ av medvetenhet av användaren.
Vi behöver veta vilka uppdrag vi ger. Vi behöver granska vad som gjorts i vårt namn. Vi behöver ha en relation till vår digitala skugga, inte bara låta den agera och hoppas att det går bra.
Det är en enkel princip. Men den är sällan enkel att leva efter.
Det omedvetna väntar alltid
Det finns en detalj i Conway-läckan som stannat hos mig sedan jag läste om den för första gången.
Anthropic publicerade källkoden av misstag. Ingen hackade dem. Ingen bröt sig in. Det var ett mänskligt misstag i ett release-paket. Och i den koden låg Conway: fullt synligt, välstrukturerat, uppenbarligen långt kommen i utveckling.
Conway hade redan en parallell existens, utanför vad som kommunicerats officiellt, utanför vad användarna visste om. Det verkar i det dolda, inte för att Anthropic är oärliga, utan för att det är så produktutveckling fungerar. Saker existerar länge innan de är redo att visas.
Men metaforen är ändå svår att skaka av sig.
Det som verkar i det dolda finns alltid redan där. Det är bara en fråga om när vi väljer att se det.
Jung menade att individuation inte är ett val vi gör en gång och sedan är färdiga med. Det är en pågående process. En relation till det omedvetna som kräver uppmärksamhet, ärlighet och mod att titta på det vi helst inte vill titta på.
Conway är inte ett hot. Det är en fråga. En fråga om vilken sorts relation vi vill ha till de system vi skapar och de uppdrag vi delegerar.
Svaret på den frågan är inte tekniskt.
Det är psykologiskt.
Källor
TestingCatalog, 1 april 2026: "Exclusive: Anthropic tests its own always-on 'Conway' agent" - testingcatalog.com
Dataconomy, 3 april 2026: "Anthropic Tests Conway As A Persistent Agent Platform For Claude" - dataconomy.com
TechBriefly, 3 april 2026: "Anthropic explores extension based agent system with Conway" - techbriefly.com
Times of AI, 4 april 2026: "Anthropic's Always-On AI Agent Conway Leaked; What Can It Do" - timesofai.com
BigGo Finance, 4 april 2026: "Anthropic Secretly Tests 'Always-On' Agent Conway, AI Evolves from Tool to Autonomous Digital Twin" - finance.biggo.com
AIBase, 2 april 2026: "Anthropic Tests Lobster Conway" - news.aibase.com
36kr, 4 april 2026: "Anthropic's Overnight Shocking Upgrade: Claude Goes 'Permanent Online'" - eu.36kr.com
C.G. Jung: Diverse verk, inklusive om Skuggan, individuation och det omedvetna. Se bl.a. Collected Works och The Red Book
Birgir Birgisson är AI-arkitekt, systembyggare och skribent med Jungiansk och etisk kompass. Han grundade Jungian Synergy Coaching och arbetar idag med att bygga AI-drivna system och verktyg. Han skriver öppet och transparent om teknikens påverkan på människan, ledarskap och personlig utveckling. Delar av materialet är framtaget eller skapat med hjälp av olika AI-verktyg.