Fine-tuning стал диалогом: Claude теперь обучает модели сам
Граница между «написать промт» и «обучить модель» продолжает стираться. Claude научили не просто генерировать код, а полностью запускать fine-tuning под ключ — от выбора GPU до публикации результата.
Ты пишешь одну фразу вроде:
*«Fine-tune Qwen3-0.6B на таком-то датасете»* —
а дальше агент всё делает сам.
Что он берёт на себя:
— проверяет и подготавливает данные
— выбирает железо и считает стоимость (иногда около $0.30)
— запускает обучение и следит за прогрессом
— публикует готовую модель в Hugging Face Hub
Поддержка на старте уже серьёзная:
— SFT, DPO и RL (GRPO)
— модели до 70B параметров
— конвертация в GGUF для локального запуска
По сути, fine-tuning перестал быть территорией ML-инженеров и пайплайнов. Теперь это обычный диалог с агентом — как будто ты объясняешь задачу коллеге, а не собираешь инфраструктуру.
Ещё один шаг к тому, чтобы ИИ занимался ИИ.





















