DeepSeek V4: первое касание — что меня удивило, а что нет
Скачал DeepSeek V4 Flash вчера вечером. Запустил на одной карте, дал агенту задачу с парсингом — и он не сломался на 50-м шаге. Это было странно. Привык, что на 30-40 шагах модель начинает тупить и терять контекст. А тут — ничего такого. Рассказываю, что заметил.
«Самое необычное ощущение — когда агент работает уже 10 минут, а ты всё ждёшь, что он сломается. А он не ломается. Непривычно.»
Что сразу бросилось в глаза
Первое — KV-кеш. Я запускал агента, который последовательно парсит сайты, извлекает данные и пишет отчёт. Обычно к 30-му запросу модель начинает «забывать» первые шаги. V4 Flash держал контекст так, будто диалог только начался.
Второе — |DSML|-формат. Честно, сначала бесит. Привык к JSON tool calls, а тут XML. Но через час понимаешь: ошибок экранирования реально меньше. Модель не пытается засунуть JSON в JSON и не ломает кавычки.
Третье — скорость Flash-версии. 13B активных параметров на одной карте — и ответ приходит быстрее, чем я успеваю переключиться на другую вкладку.
Если пробуете V4 Flash — не начинайте с Think Max. Это режим для контекстов от 384K токенов. На обычных задачах он избыточен. Берите Non-think для начала, почувствуйте скорость.
Что не понравилось
Pro-версию локально не запустить без кластера. 1.6T параметров — это серьёзно, даже с 49B активных. Для домашней лаборатории — только Flash. Но Flash'а для большинства задач хватает с запасом.
Второй момент — экосистема. Пока не все агентные фреймворки поддерживают |DSML|. OpenClaw — да, а вот с LangChain пришлось повозиться. Думаю, через пару недель подтянутся.
V4 Flash — лучшая open-source модель для агентов, которую я пробовал в этом году. Не для чата, не для генерации стихов — именно для долгих автономных задач. Стоит времени на установку.