LLM начали писать GPU-ядра — и теперь это можно использовать
Институт AIRI выложил в открытый доступ фреймворк KernelEvo — систему, где LLM-агенты автоматически создают и оптимизируют GPU-ядра.
Ранее похожий подход показала Meta в проекте KernelEvolve, где модели генерировали и улучшали ядра под разные платформы. Однако тот код остался закрытым.
Как работает KernelEvo:
— LLM генерирует варианты CUDA и Triton-ядер
— автоматически запускаются тесты и профилирование
— система исправляет ошибки
— цикл повторяется до улучшения производительности
Фактически это автоматический перебор решений вместо ручного процесса «написал → протестировал → переписал». В одном запуске может генерироваться до миллиона токенов кода и комментариев.
Зачем это нужно:
— хорошо оптимизированное ядро ускоряет вычисления на десятки процентов
— на уровне больших кластеров это экономит тысячи GPU-часов
— специалисты по низкоуровневой оптимизации GPU остаются крайне дефицитными
Проект распространяется по MIT-лицензии, поэтому компании могут использовать его напрямую. Особенно полезно для команд, у которых нет собственных kernel-инженеров, но есть доступ к LLM API.



























