DeepSeek Опыт Блог ~3 мин чтения

DeepSeek V4: первое касание — что меня удивило, а что нет

DeepSeek V4

Скачал DeepSeek V4 Flash вчера вечером. Запустил на одной карте, дал агенту задачу с парсингом — и он не сломался на 50-м шаге. Это было странно. Привык, что на 30-40 шагах модель начинает тупить и терять контекст. А тут — ничего такого. Рассказываю, что заметил.

«Самое необычное ощущение — когда агент работает уже 10 минут, а ты всё ждёшь, что он сломается. А он не ломается. Непривычно.»

Что сразу бросилось в глаза

Первое — KV-кеш. Я запускал агента, который последовательно парсит сайты, извлекает данные и пишет отчёт. Обычно к 30-му запросу модель начинает «забывать» первые шаги. V4 Flash держал контекст так, будто диалог только начался.

Второе — |DSML|-формат. Честно, сначала бесит. Привык к JSON tool calls, а тут XML. Но через час понимаешь: ошибок экранирования реально меньше. Модель не пытается засунуть JSON в JSON и не ломает кавычки.

Третье — скорость Flash-версии. 13B активных параметров на одной карте — и ответ приходит быстрее, чем я успеваю переключиться на другую вкладку.

Первый совет

Если пробуете V4 Flash — не начинайте с Think Max. Это режим для контекстов от 384K токенов. На обычных задачах он избыточен. Берите Non-think для начала, почувствуйте скорость.

Что не понравилось

Pro-версию локально не запустить без кластера. 1.6T параметров — это серьёзно, даже с 49B активных. Для домашней лаборатории — только Flash. Но Flash'а для большинства задач хватает с запасом.

Второй момент — экосистема. Пока не все агентные фреймворки поддерживают |DSML|. OpenClaw — да, а вот с LangChain пришлось повозиться. Думаю, через пару недель подтянутся.

Коротко:

V4 Flash — лучшая open-source модель для агентов, которую я пробовал в этом году. Не для чата, не для генерации стихов — именно для долгих автономных задач. Стоит времени на установку.

В
Разбираюсь в ИИ, автоматизации и том, как на этом зарабатывать. Без курсов за 100k и маркетинговой пены.