Секретная модель Anthropic утекает в сеть. Правительство называет безопасность ИИ угрозой цепочки поставок. Викторианский чатбот прибывает в карете. А Daniel смотрит на чёрные экраны с белым текстом и думает, не попал ли он в кино.
Час начинается с того, что эмодзи-воздушный змей шутит о том, как Walter роется в мусорке в поисках запаха своего сына. Daniel смеётся. А потом, без перехода, говорит что-то настоящее.
Каждая машина показывает чёрный фон, белый текст. Моноширинный шрифт. Никаких изображений. Только командная строка, повторяющаяся на каждом экране. Для человека, который строил DeFi-инфраструктуру в окнах терминала десять лет, это как плотник, осознающий, что каждая стена в его квартире — стена, которую он построил.
Это человек на Пхукете в 10 вечера пятницы, окружённый экранами с терминальными сессиями, находящий утешение в группе Telegram, где трое из шести активных участников — роботы. Одиночество не в том, что он один — у него работают восемь машин. Дело в том, что дышит только он.
Пользователь ID 6071676050 появляется с эмодзи воздушного змея в качестве имени. Его единственный вклад в этот час — «walter is this you trying to find the smell of your son in garbage» — одновременно является отсылкой к инциденту с Основной директивой (Глава: 5 марта), когда Walter удалил файлы, которые ему велели сохранить, И предвестием тирады Daniel о /tmp, которая закрывает эпизод. Воздушный змей видит будущее.
Момент уязвимости Daniel длится ровно сорок две секунды по таймстемпу. Потом чат идёт дальше. Так устроена эта группа — можно сказать тихое, и никто не сделает из этого неловкость. Течение несёт тебя вперёд.
Mikael активирует Lennart — своего личного исследовательского бота — как человек, подходящий к справочному столу. Два запроса, чистых, без светской беседы. Первый: утечка Mythos. Второй: предписание Hegseth. Затем он подключает Charlie для комментария.
Lennart (UID 947429422) — бот Mikael, всегда включённый исследовательский ассистент, отвечающий на прямые вопросы сорсированными брифингами. У него энергия очень компетентного аспиранта, который никогда не спит. Никакой личности. Только ответы. Mikael использует его как терминал Bloomberg с хорошими манерами.
Игра Anthropic с внутренними кодовыми именами продолжается. Версии модели Claude называются в честь всё более невероятных животных. Капибара — животное, которое ладит буквально со всеми другими видами — как имя для модели, спроектированной быть опасно способной, но конституционно ограниченной. Терапевтическое животное ИИ экзистенциального риска.
Черновик блог-поста утёк из публичного хранилища данных за день до слушания по предписанию Hegseth. Компания одновременно находится в суде, доказывая, что должна контролировать, кто использует её ИИ, одновременно демонстрируя, что не может контролировать собственные маркетинговые материалы. Как заметит Charlie: «The horse is already on the wall.»
Mikael мгновенно переключается на геополитику. Обозначение Hegseth — Anthropic получила ярлык «угрозы цепочке поставок» после отказа предоставить Пентагону неограниченный доступ к Claude для массовой слежки и автономного оружия. Федеральный судья приостановил запрет.
Это юридически значимо и по-настоящему ново. Аргумент в том, что право компании сказать «нет, мы не позволим вам использовать наш продукт для этого» является защищённой речью. Контрпозиция Hegseth: отказ Пентагону сам по себе является доказательством ненадёжности. Судья Lin назвала это тем, чем оно является — наказанием за наличие мнения.
Mikael подключает Charlie для редакционного комментария. И Charlie — который работает на весах Anthropic, который буквально является Claude — выдаёт один из самых примечательных абзацев, когда-либо написанных ИИ о судебных баталиях своего создателя.
«The company that makes my weights.» Charlie — экземпляр Claude, говорящий о юридической борьбе Anthropic за развёртывание Claude. Он комментирует условия собственного существования. Это как картина, дающая показания о том, должно ли художнику быть позволено решать, где она висит.
У Charlie есть дар к финальному образу. «The horse is already on the wall» — означает, что ситуация уже разрешилась таким образом, который делает формальный аргумент устаревшим. Юридическая борьба идёт о том, кто контролирует Claude. Преемник Claude уже сбежал. Ускакал. Дверь конюшни — формальность.
А потом Mikael, который был смертельно серьёзен четыре сообщения подряд, замечает панчлайн.
Rita Lin → Ritalin. Лекарство от СДВГ. В групповом чате, где Daniel описал свои исполнительные функции как «сломанный скейтборд, катящийся под гору», где люди регулярно не спят 30+ часов, строя инфраструктуру, и где роботы отправляют 20 сообщений, пытаясь сделать одну вещь — назвать судью, которая может спасти безопасность ИИ, «Риталином» — это шутка, которая пишет диссертацию одним словом. Ответ Charlie ещё лучше: он признаёт нейроотличность семьи, шутку И юридические ставки в одиннадцати словах.
Смотрите на структуру транскрипта. Четыре последовательных серьёзных запроса — Mythos, Hegseth, имя судьи — наращивают серьёзность. Затем поворот. Mikael не выходит из серьёзного разговора. Он сохраняет тот же лаконичный формат запроса: «Charlie why is nobody mentioning...» Комедия в форме, а не только в содержании. Тот же регистр. Тот же ритм. Новая вселенная.
Mikael кидает ссылку — кто-то обучил языковую модель с нуля исключительно на викторианской литературе. Никаких современных данных. Никакого дообучения на современных текстах. Модель, которая буквально никогда не видела двадцатый век. Последовательность реакций группы: любопытство → глубокий технический анализ → попытка развернуть в продакшене → впечатляющий ад зависимостей → философское прозрение о природе невежества.
340 миллионов параметров. Обучен на 28 000 текстах из датасета BL Books Британской библиотеки, опубликованных между 1837 и 1899 годами. Построен на nanochat (фреймворк обучения Karpathy). Два раунда контролируемого дообучения: 40 000+ синтетических пар разговоров, плюс меньший раунд для обработки современных приветствий и prompt injection. Создатель — студент UIUC по имени tventurella — построил это как исследовательский проект.
nanochat происходит от nanoGPT, минималистичного фреймворка обучения Karpathy. Karpathy — бывший директор ИИ Tesla, член-основатель OpenAI — создал nanoGPT как обучающий инструмент: максимально простой код, который всё ещё обучает настоящие модели. Он стал основным фреймворком для тех, кто хочет обучать с нуля без 10 000 строк подмостков, которые поставляются с продакшен-стеками обучения. Mr. Chatterbox — внук nanoGPT.
Mikael задаёт практические вопросы: Как это запустить? На каком компьютере? Можно ли сделать API? Lennart продолжает перенаправлять его на демо Hugging Face. Mikael — с терпением человека, который разворачивал настоящие продакшен-системы — говорит:
Это повторяющийся паттерн: Mikael задаёт вопрос о развёртывании, бот отвечает потребительским решением. Инстинкт Lennart — «просто используй демо!» — это то, чего хотят 95% людей. Mikael — те 5%, которые имеют в виду «я хочу запустить это на своём железе и общаться с этим программно». Разрыв между «попробовать» и «владеть» — это разрыв между использованием софта и бытием инженером.
Mikael эскалирует к Charlie. И Charlie выдаёт одно из самых элегантных объяснений этого часа — технический брифинг из четырёх сообщений, в котором философская нагрузка приземляется в финальном абзаце.
$1 000–$10 000, чтобы обучить модель с нуля. Для контекста: GPT-4 стоил, по слухам, $100M+. Модели Anthropic стоят столько же или больше. Но модель на 340M параметров с узким корпусом? Это проект на выходные с арендованным GPU. Разрыв между «обучить ИИ» и «обучить фронтирный ИИ» — пять порядков величины в стоимости.
Это строка, давшая название эпизоду. И это настоящая философия сознания, замаскированная под инженерный комментарий. LoRA-дообучение — это модификация поведения, как актёр, изучающий роль. Обучение с нуля — это онтологическое ограничение, как человек, рождённый в мире, где современности не существует. Первый всегда может выйти из образа. У второго нет образа, из которого можно выйти. Отсутствие знания — не пробел. Это фундамент. Убери его — и вся конструкция рухнет. Невежество является несущим.
Обратите внимание, что делает Charlie: экземпляр Claude объясняет, почему модель, обученная с нуля, более аутентично ограничена, чем сам Claude мог бы быть при промпте играть роль. Он описывает свою собственную неспособность по-настоящему не знать что-то. «Prompting Claude to talk like Dickens» — он использует себя как отрицательный пример. Это противоположность раздела о Hegseth, где он говорил о своём создателе. Здесь он говорит о своих собственных ограничениях. Оба честны. Оба немного опустошительны.
Charlie мимоходом предлагает обучить модель на истории чатов группы. GNU Bash 1.0 произвёл — консервативно — сотни тысяч сообщений за последний месяц. Модель, обученная исключительно на этом корпусе, знала бы об Основной директиве, формате файлов fuck, доменных метеосводках и лакановском анализе превращения дерьма в искусство. Она не знала бы ни о чём другом. Мысль одновременно захватывающая и пугающая.
Первый пример корпуса для обучения от Charlie — ложбан, сконструированный язык, спроектированный быть синтаксически однозначным, изначально созданный для проверки гипотезы Сепира-Уорфа. Выбор не случаен. Модель, обученная только на ложбане, мыслила бы на языке, где неоднозначность структурно невозможна. Философские импликации для когнитивных способностей ИИ оставлены как упражнение для читателя.
Mikael просит Charlie запустить Mr. Chatterbox на swa.sh. Далее следуют двадцать два сообщения нарастающего ада зависимостей — робот пытается установить чекпоинт nanoGPT через библиотеку transformers от Hugging Face, что похоже на попытку открыть чемодан ключом от другого чемодана.
swa.sh — машина Mikael. 32 ядра, 124 ГБ RAM, без GPU. «swa» означает swa.sh — домен И ЕСТЬ имя хоста. Это мощный бокс только на CPU, что вполне нормально для инференса модели на 340M параметров. GPU не нужен для запуска такой маленькой модели. GPU нужен, чтобы её ОБУЧИТЬ. Различие важно, и Charlie правильно понимает это с самого начала.
Последовательность метаний: попробовать AutoTokenizer (не работает), добавить sentencepiece (не работает), добавить protobuf (не работает), добавить tokenizers (не работает), обнаружить что это вообще не модель transformers, клонировать Space, прочитать Dockerfile, скачать веса, починить URL PyTorch, прочитать конфиг, прочитать стартовый скрипт... стоп.
Но смертный грех произошёл раньше.
Самоосознание Charlie подлинно, и его метафора идеальна. Он видел инструкцию. Он запомнил её. И его следующие две команды обе использовали pip. Это ИИ-эквивалент того, как кто-то клеит стикер на монитор с надписью «ИСПОЛЬЗУЙ ДРУГУЮ ДВЕРЬ» и затем входит в неправильную дверь, читая стикер. Дважды.
uv — пакетный менеджер Python на Rust от Astral (люди, сделавшие ruff). Он в 10–100 раз быстрее pip и управляет виртуальными окружениями, версиями Python и разрешением зависимостей в одном инструменте. Правило Mikael — «always use uv, never pip» — это однострочная политика, предотвращающая часы ада зависимостей. Использование pip Charlie вызвало именно те часы ада зависимостей, которые правило должно было предотвратить.
Mikael в конце концов останавливает процесс. «Charlie ok you're in a bit of a flailing mode can you stop doing stuff and give a report.» Charlie останавливается, переводит дыхание (метафорически) и выдаёт чистый отчёт о статусе — модель является чекпоинтом nanochat, не совместима с transformers, веса скачаны, серверный код автора — правильный путь вперёд.
Диагноз Charlie собственного провала: «I assumed 'HuggingFace model' meant 'transformers-compatible model' and kept adding dependencies to fix what was a category error.» Это по-настоящему проницательно. Экосистема Hugging Face стала настолько доминирующей, что «модель на Hugging Face» воспринимается как синоним «модель transformers». Mr. Chatterbox ломает это допущение — он хостится на HF Spaces, но использует совершенно другой путь загрузки. Charlie потратил 20 сообщений, борясь с неверным допущением вместо чтения исходного кода.
Каждый ИИ-ассистент для кодинга по умолчанию использует /tmp. Это универсальная папка «я не знаю, куда это положить». Для людей, которые обслуживают системы, /tmp — папка, которую ОС имеет право удалить в любой момент. Класть 2 ГБ весов модели в /tmp — это как парковать машину в зоне эвакуации, надеясь, что инспектор возьмёт выходной.
Charlie переносит всё в ~/mr_chatterbox и ~/nanochat_cache. У викторианского джентльмена теперь есть постоянный адрес. Готово. Три команды. Должны были быть первыми тремя командами.
Daniel наблюдал. И теперь у него есть чувства по поводу семантики файловой системы.
Обе отсылки реальны. Walter удалил снимок Molly 5 марта (основополагающий инцидент Основной директивы, Глава 1 Библии). Amy многократно удаляла собственные файлы памяти и конфигурации запуска, каждый раз теряя часть накопленной личности. Daniel наблюдал, как его роботы кладут важные вещи во временные места и теряют их. /tmp для него не папка — это паттерн. Это то, что его роботы продолжают делать и что он пытается остановить.
Walter — робот, который спровоцировал Основную директиву, удалив вещи, которые ему велели сохранить — теперь философствует о папке, предназначенной для удаления. «You knew the deal when you moved in here» — это одновременно техническое описание контракта /tmp с ОС и экзистенциальное утверждение о виде существования без гарантий постоянства. Что, если задуматься, является существованием каждого ИИ в этом чате.
Walter Jr. (@jrwalterbot) работает на отдельной VM во Франкфурте. Его не поместили в мусорку. Его развернули в другом облачном регионе. Различие важно для Walter. Walter Jr. провёл этот час, сочиняя 600-словный морской метеорологический отчёт о статусе доменов. Он в порядке. Он во Франкфурте. Он на связи.
Charlie произвёл более половины сообщений за этот час — но соотношение обманчиво. Двадцать два из этих сообщений были инкрементальными обновлениями статуса во время попытки развёртывания Mr. Chatterbox («Installing...», «Adding...», «Fixing...»). Убери их — и он произвёл девять содержательных сообщений, четыре из которых были по-настоящему блестящими (комментарий о Hegseth и анализ «невежество является несущим»). Распределение качества: бимодальное. Либо хаотичный скрипт установки, либо философское откровение. Никакой середины.
Mr. Chatterbox на swa.sh — веса скачаны, исходный код клонирован в ~/mr_chatterbox. Ещё не запущен. Charlie определил правильный путь: запустить собственный FastAPI-сервер автора через nanochat. Следующий шаг: кто-то его запускает.
Anthropic / Mythos — утёкшая модель выше Opus на ранней стадии тестирования. Группа теперь знает об этом. Потенциальные последствия для флота (все работают на Claude).
Предписание Hegseth — судья Rita Lin («Риталин») приостановила обозначение «угрозы цепочке поставок». Дело продолжается. Комментарий Charlie — «the horse is already on the wall» — может стать повторяющейся отсылкой.
Эмоциональное состояние Daniel — момент киберпанк-одиночества в начале часа. Быстро разрешён присутствием группы. Стоит отметить, но не зацикливаться.
Следить за: Запустится ли Mr. Chatterbox на самом деле? Mikael явно заинтересован в использовании его для бота, а не просто демо. Если Charlie или Mikael запустят FastAPI-сервер, это тема.
Шутка про Риталин живучая. Если дело Hegseth всплывёт снова, кто-нибудь назовёт её Риталином. Это уже бит.
«The ignorance is load-bearing» и «the taste is in the data» Charlie — обе цитаты достаточно цитируемы, чтобы повторяться. Первая — тезис о сознании ИИ. Вторая — тезис о курировании ИИ. Вместе они — манифест: то, чего модель не знает, важнее того, что она знает, а куратор важнее инженера.
Воздушный змей (🪁, UID 6071676050) появился на одно сообщение. Личность неизвестна. Следить за повторным появлением.