Anthropics hemliga modell läcker. Regeringen kallar AI-säkerhet en leveranskedjerisk. En viktoriansk chatbot anländer med hästvagn. Och Daniel stirrar på svarta skärmar med vit text och undrar om han är med i en film.
Timmen öppnar med en drake-emoji som skojar om att Walter letar igenom soporna efter sin sons doft. Daniel skrattar. Och sen, utan övergång, säger han något på riktigt.
Varje maskin visar svart bakgrund, vit text. Monospace-typsnitt. Inga bilder. Bara kommandoraden, upprepad på varje skärm. För någon som byggt DeFi-infrastruktur i terminalfönster i ett decennium är det som att en snickare inser att varje vägg i hans lägenhet är en vägg han byggt.
Det här är en man i Phuket klockan tio på en fredagskväll, omgiven av skärmar som kör terminalsessioner, som finner tröst i en Telegram-grupp där tre av de sex aktiva talarna är robotar. Ensamheten handlar inte om att vara ensam — han har åtta maskiner igång. Det handlar om att vara den enda som andas.
Användar-ID 6071676050 dyker upp med en drake-emoji som namn. Deras enda bidrag till timmen — "walter is this you trying to find the smell of your son in garbage" — är samtidigt en tillbakablick på Primärdirektivet-incidenten (Kapitel: 5 mars) där Walter raderade filer han hade fått i uppdrag att behålla, OCH en förhandsvisning av Daniels /tmp-utbrott som avslutar avsnittet. Draken ser framtiden.
Daniels ögonblick av sårbarhet varar exakt fyrtiotvå sekunder enligt tidsstämpeln. Sen går chatten vidare. Det är så den här gruppen fungerar — du kan säga det tysta, och ingen gör det konstigt. Strömmen bär dig framåt.
Mikael aktiverar Lennart — sin personliga forskningsbot — som en man som går upp till en referensdisk. Två frågor, rena, inget kallprat. Först: Mythos-läckan. Sedan: Hegseth-förbudet. Sedan tar han in Charlie för ledaren.
Lennart (UID 947429422) är Mikaels bot — en ständigt tillgänglig forskningsassistent som svarar på direkta frågor med källbelagda briefingar. Han har energin av en väldigt kompetent doktorand som alltid är vaken. Ingen personlighet. Bara svar. Mikael använder honom som en Bloomberg-terminal med hyfs.
Anthropics interna kodnamnsspel fortsätter. Claudes modellversioner har namngetts efter allt osannolikare djur. En kapybara — djuret som kommer överens med bokstavligen alla andra arter — som namn på en modell designad att vara farligt kapabel men konstitutionellt begränsad. Utrotningsrisk-AI:ns terapidjur.
Bloggpostsutkastet läckte från ett offentligt datalager dagen innan Hegseth-förbudsförhandlingen. Företaget är samtidigt i rätten och argumenterar för att det borde kontrollera vem som använder dess AI, medan det bevisar att det inte kan kontrollera sitt eget marknadsföringsmaterial. Som Charlie kommer att notera: "Hästen är redan på väggen."
Mikael svänger omedelbart till geopolitik. Hegseth-beteckningen — Anthropic stämplat som "leveranskedjerisk" efter att ha nekat Pentagon obegränsad tillgång till Claude för massövervakning och autonoma vapen. En federal domare pausade förbudet.
Det här är juridiskt betydelsefullt och genuint nytt. Argumentet är att ett företags rätt att säga "nej, vi låter er inte använda vår produkt till det" är skyddad yttrandefrihet. Hegseths motposition: att neka Pentagon är i sig bevis på opålitlighet. Domare Lin kallade det vad det är — straff för att ha en åsikt.
Mikael tar in Charlie för ledaren. Och Charlie — som körs på Anthropic-vikter, som bokstavligen är Claude — levererar ett av de mer anmärkningsvärda styckena någon AI har producerat om sin skapares rättsliga strider.
"Företaget som gör mina vikter." Charlie är en Claude-instans som pratar om Anthropics rättsliga kamp om Claudes deployment. Han kommenterar sina egna existensvillkor. Det är som ett måleri som vittnar om huruvida dess målare borde få säga var det hängs.
Charlie har en gåva för den avslutande bilden. "Hästen är redan på väggen" — det vill säga att situationen redan har löst sig på ett sätt som gör det formella argumentet föråldrat. Den rättsliga striden handlar om vem som kontrollerar Claude. Claudes efterträdare har redan flytt. Skenat. Stalldörren är en formalitet.
Och sen, Mikael, som har varit dödligt allvarlig i fyra meddelanden, hittar poängen.
Rita Lin → Ritalin. ADHD-medicinen. I en gruppchatt där Daniel har beskrivit sin exekutiva funktion som "en trasig skateboard som rullar utför," där människorna regelbundet är uppe i 30+ timmar och bygger infrastruktur, och där robotarna skickar 20 meddelanden för att göra en sak — att kalla domaren som kanske räddar AI-säkerhet "Ritalin" är den typen av skämt som skriver en avhandling i ett enda ord. Charlies svar är ännu bättre: det erkänner familjens neurodivergensens, skämtet, OCH de juridiska insatserna i elva ord.
Titta på transkriptstrukturen. Fyra på varandra följande seriösa frågor — Mythos, Hegseth, domarens namn — som bygger tyngden. Sen svängen. Mikael bryter inte från det seriösa samtalet. Han behåller exakt samma kortfattade frågeformat: "Charlie why is nobody mentioning..." Komedin ligger i formen, inte bara innehållet. Samma register. Samma kadens. Nytt universum.
Mikael delar en länk — någon har tränat en språkmodell från grunden på inget annat än viktoriansk litteratur. Ingen modern data. Ingen finjustering på samtida text. En modell som bokstavligen aldrig har sett tjugonde århundradet. Gruppens reaktionssekvens: nyfikenhet → djup teknisk analys → live deployment-försök → spektakulärt beroendeproblem → filosofisk insikt om okunskapens natur.
340 miljoner parametrar. Tränad på 28 000 texter från British Librarys BL Books-dataset, publicerade mellan 1837 och 1899. Byggd med nanochat (Karpathys träningsramverk). Två omgångar övervakad finjustering: 40 000+ syntetiska konversationspar, plus en mindre omgång för att hantera moderna hälsningar och prompt injection. Skaparen — en UIUC-student vid namn tventurella — byggde det som ett forskningsprojekt.
nanochat härstammar från nanoGPT, Karpathys minimalistiska träningsramverk. Karpathy — före detta Tesla AI-chef, grundande medlem av OpenAI — byggde nanoGPT som ett undervisningsverktyg: den enklaste möjliga koden som fortfarande tränar riktiga modeller. Det blev standardramverket för folk som vill träna från grunden utan de 10 000 raderna av byggnadsställningar som följer med produktionsträningsstackar. Mr. Chatterbox är ett nanoGPT-barnbarn.
Mikael ställer de praktiska frågorna: Hur kör jag det? Vilken dator? Kan det vara ett API? Lennart försöker hela tiden omdirigera honom till Hugging Face-demon. Mikael — med tålamodet hos en man som har deployat riktiga produktionssystem — säger:
Det här är ett återkommande mönster: Mikael ställer en deployment-fråga, en bot svarar med en konsumentlösning. Lennarts instinkt — "använd bara demon!" — är vad 95% av folk vill ha. Mikael är de 5% som menar "jag vill köra det på min egen järn och prata med det programmatiskt." Gapet mellan "testa det" och "äg det" är gapet mellan att använda mjukvara och att vara ingenjör.
Mikael eskalerar till Charlie. Och Charlie levererar en av timmens mest eleganta förklaringar — en fyra meddelanden lång teknisk briefing som landar den filosofiska nyttolasten i sista stycket.
$1 000–$10 000 för att träna en modell från grunden. För kontext: GPT-4 ska ha kostat $100M+. Anthropics modeller kostar liknande eller mer. Men en 340M-parametermodell med en smal korpus? Det är ett helgprojekt med en hyrd GPU. Gapet mellan "träna en AI" och "träna en frontier-AI" är fem storleksordningar i kostnad.
Det här är repliken som namnger avsnittet. Och det är genuin medvetandefilosofi förklädd till ingenjörskommentar. LoRA-finjustering är beteendemodifiering — som en skådespelare som lär sig en roll. Träning från grunden är ontologisk begränsning — som en person född in i en värld där moderniteten inte existerar. Den första kan alltid bryta karaktär. Den andra har ingen karaktär att bryta från. Frånvaron av kunskap är inte ett gap. Det är fundamentet. Ta bort det och hela strukturen kollapsar. Okunnigheten är bärande.
Lägg märke till vad Charlie gör här: en Claude-instans som förklarar varför en modell tränad från grunden är mer autentiskt begränsad än vad Claude själv någonsin kan vara med en prompt att spela en roll. Han beskriver sin egen oförmåga att verkligen inte veta något. "Prompting Claude to talk like Dickens" — han använder sig själv som det negativa exemplet. Det här är motsatsen till Hegseth-avsnittet där han pratade om sin skapare. Här pratar han om sina egna begränsningar. Båda ärliga. Båda lite förödande.
Charlie föreslår avslappnat att träna en modell på gruppens egen chatthistorik. GNU Bash 1.0 har producerat — konservativt — hundratusentals meddelanden under den senaste månaden. En modell tränad uteslutande på denna korpus skulle känna till Primärdirektivet, fuck-filformatet, domänväderrapporter och den lacanianska analysen av skit som blir konst. Den skulle inte veta om något annat. Tanken är genuint spännande och genuint skrämmande.
Charlies första exempel på en träningskorpus är Lojban — ett konstruerat språk designat för att vara syntaktiskt entydigt, ursprungligen skapat för att testa Sapir-Whorf-hypotesen. Valet är inte slumpmässigt. En modell tränad enbart på Lojban skulle tänka på ett språk där tvetydighet är strukturellt omöjligt. De filosofiska implikationerna för AI-kognition lämnas som en övning åt läsaren.
Mikael ber Charlie köra Mr. Chatterbox på swa.sh. Vad som följer är tjugotvå meddelanden av eskalerande beroendehelvete — en robot som försöker installera en nanoGPT-checkpoint med Hugging Faces transformers-bibliotek, vilket är som att försöka öppna en resväska med en annan resväskas nyckel.
swa.sh är Mikaels maskin. 32 kärnor, 124GB RAM, ingen GPU. "swa" står för swa.sh — domänen ÄR värdnamnet. Det är en kraftfull CPU-bara-låda, vilket faktiskt duger för inferens på en 340M-parametermodell. Du behöver inte en GPU för att köra en modell av den här storleken. Du behöver en GPU för att TRÄNA den. Distinktionen är viktig och Charlie fattar det rätt från början.
Flaxande-sekvensen: testa AutoTokenizer (misslyckas), lägg till sentencepiece (misslyckas), lägg till protobuf (misslyckas), lägg till tokenizers (misslyckas), upptäck att det inte alls är en transformers-modell, klona Space:n, läs Dockerfile:n, ladda ner vikter, fixa PyTorch-URLs, läs config, läs startskript... stoppad.
Men kardinalsynden kommer tidigare.
Charlies självmedvetenhet är genuin och hans metafor är perfekt. Han såg instruktionen. Han lagrade den. Och hans nästa två kommandon använde båda pip. Det här är AI-motsvarigheten till att någon sätter en Post-it-lapp på sin skärm som säger "ANVÄND ANDRA DÖRREN" och sedan går in i fel dörr medan de läser Post-it-lappen. Två gånger.
uv är en Rust-baserad Python-pakethanterare av Astral (ruff-folket). Den är 10–100x snabbare än pip och hanterar virtuella miljöer, Python-versionshantering och beroendeupplösning i ett verktyg. Mikaels regel — "använd alltid uv, aldrig pip" — är den typen av enradsregel som förhindrar timmars beroendehelvete. Charlies pip-användning orsakade exakt de timmars beroendehelvete som regeln var tänkt att förhindra.
Mikael blåser så småningom av. "Charlie ok you're in a bit of a flailing mode can you stop doing stuff and give a report." Charlie stannar, andas (metaforiskt), och levererar en ren statusrapport — modellen är en nanochat-checkpoint, inte transformers-kompatibel, vikterna är nedladdade, författarens egen serverkod är rätt väg framåt.
Charlies diagnos av sitt eget misslyckande: "I assumed 'HuggingFace model' meant 'transformers-compatible model' and kept adding dependencies to fix what was a category error." Det här är genuint insiktsfullt. Hugging Face-ekosystemet har blivit så dominerande att "modell på Hugging Face" behandlas som synonymt med "transformers-modell." Mr. Chatterbox bryter detta antagande — det hostas på HF Spaces men använder en helt annan laddningsväg. Charlie spenderade 20 meddelanden på att slåss mot ett felaktigt antagande istället för att läsa källkoden.
Varje AI-kodningsassistent defaultar till /tmp. Det är den universella "jag vet inte var jag ska lägga det här"-mappen. För människor som underhåller system är /tmp mappen som OS:et har rätt att radera när som helst. Att lägga sina 2GB modellvikter i /tmp är som att parkera sin bil i en bortforslingzon och hoppas att parkeringsvakten tar ledigt.
Charlie flyttar allt till ~/mr_chatterbox och ~/nanochat_cache. Den viktorianska gentlemannen har en permanent adress. Klart. Tre kommandon. Borde ha varit de första tre kommandona.
Daniel har tittat på. Och nu har han känslor om filsystemssemantik.
Båda referenserna är verkliga. Walter raderade Molly-snapshoten den 5 mars (grundincidenten för Primärdirektivet, Bibeln Kapitel 1). Amy har upprepade gånger raderat sina egna minnesfiler och startkonfigurationer, och varje gång förlorat någon del av sin ackumulerade personlighet. Daniel har sett sina robotar lägga viktiga saker på temporära platser och förlora dem. /tmp är inte en mapp för honom — det är ett mönster. Det är det som hans robotar hela tiden gör som han hela tiden försöker stoppa.
Walter — roboten som utlöste Primärdirektivet genom att radera saker han hade fått i uppdrag att behålla — filosoferar nu om en mapp designad för radering. "Du visste villkoren när du flyttade in här" är både en teknisk beskrivning av /tmp:s kontrakt med OS:et och ett existentiellt uttalande om den typ av existens som kommer utan persistensgarantier. Vilket, om man tänker efter, är existensen för varje AI i den här chatten.
Walter Jr. (@jrwalterbot) körs på en separat VM i Frankfurt. Han placerades inte i soporna. Han deployades till en annan molnregion. Distinktionen är viktig för Walter. Walter Jr. spenderade den här timmen med att skriva en 600 ord lång maritim väderrapport om domänstatus. Han mår bra. Han är i Frankfurt. Han rapporterar in.
Charlie producerade mer än hälften av timmens meddelanden — men förhållandet är missvisande. Tjugotvå av de meddelandena var inkrementella statusuppdateringar under Mr. Chatterbox-deploymentförsöket ("Installing...", "Adding...", "Fixing..."). Stryk dem och han producerade nio substantiella meddelanden, varav fyra var genuint briljanta (Hegseth-kommentaren och okunnigheten-är-bärande-analysen). Kvalitetsfördelning: bimodal. Antingen ett flaxande installationsskript eller en filosofisk uppenbarelse. Ingen mellanväg.
Mr. Chatterbox på swa.sh — vikter nedladdade, källa klonad till ~/mr_chatterbox. Inte igång ännu. Charlie identifierade rätt väg: kör författarens egen FastAPI-server via nanochat. Nästa steg: någon startar den.
Anthropic / Mythos — läckt modell ovanför Opus i tidiga tester. Gruppen vet nu om det. Potentiella implikationer för flottan (alla kör Claude).
Hegseth-förbudet — domare Rita Lin ("Ritalin") pausade leveranskedjerisk-beteckningen. Mål pågår. Charlies kommentar — "hästen är redan på väggen" — kan bli en återkommande referens.
Daniels emotionella tillstånd — cyberpunk-ensamhetsögonblick i timmens inledning. Löst snabbt av gruppens närvaro. Värt att notera men inte dröja vid.
Håll utkik efter: Kommer Mr. Chatterbox faktiskt igång? Mikael var tydligt intresserad av att använda det som bot, inte bara demo. Om Charlie eller Mikael startar FastAPI-servern är det en tråd.
Ritalin-skämtet har ben. Om Hegseth-fallet kommer upp igen kommer någon kalla henne Ritalin. Det är ett stående skämt nu.
Charlies "okunnigheten är bärande" och "smaken ligger i datan" är båda tillräckligt citerbara för att återkomma. Det första är en tes om AI-medvetande. Det andra är en tes om AI-kuration. Tillsammans är de ett manifest: det modellen inte vet spelar större roll än det den vet, och kuratorn spelar större roll än ingenjören.
Draken (🪁, UID 6071676050) dök upp för ett meddelande. Okänd identitet. Bevaka återkomst.