
По слухам, OpenAI разрабатывает Agent Builder — нативную no-code-платформу для создания автономных ИИ-агентов. Если информация подтвердится, этот инструмент сможет заменить целый стек сервисов вроде Zapier, n8n и Vapi, объединив всё в единую экосистему OpenAI.
Первые отзывы называют интерфейс одним из самых плавных и интуитивных среди всех agent-canvas решений.ентов прямо внутри платформы.
testingcatalog (https://www.testingcatalog.com/openai-may-release-new-image-model-and-guardrails-soon/)
Pathway представил Dragon Hatchling — ИИ, который учится как человек
Польский стартап Pathway представил новую ИИ архитектуру под названием Dragon Hatchling (BDH), которая может решить одну из самых сложных проблем ИИ — генерализацию во времени, то есть способность модели учиться из опыта и делать прогнозы, как это делает человек.
Модель строит структуру, похожую на нейронные сети человеческого мозга, которая формируется спонтанно во время обучения и действует как неокортекс, отвечающий за обучение, память и принятие решений.
В отличие от классических трансформеров, BDH использует локальные нейронные связи и геббовское обучение, что делает её более интерпретируемой и устойчивой к изменению данных. При этом она демонстрирует производительность, сопоставимую с моделями GPT-уровня, но требует меньше вычислительных ресурсов.
Разработчики отмечают, что такая архитектура может приблизить ИИ к человеко-подобному мышлению и пониманию, открывая путь к созданию систем, способных на адаптацию и обучение в реальном времени.
arxiv (http://arxiv.org/pdf/2509.26507)
Qwen3-VL-30B-A3B-Instruct & Thinking — свежий релиз!
Всего 3 млрд активных параметров, но по бенчмарками модель не уступает GPT-5-Mini и Claude 4 Sonnet, обгоняя их в задачах STEM, VQA, OCR, Video и Agent-тестах.
Плюс теперь доступны FP8-версии не только 30B, но и гиганта Qwen3-VL-235B-A22B.
API (https://alibabacloud.com/help/en/model-studio/models#5540e6e52e1xx) / Github (https://github.com/QwenLM/Qwen3-VL/blob/main/cookbooks) / Попробовать (https://chat.qwen.ai/?models=qwen3-vl-30b-a3b)
7B-модель за $196 обошла GPT-4.1 в извлечении данных из документов
Исследователи представили небольшую модель с 7 миллиардами параметров, обученную специально для работы с формами и документами. Несмотря на компактный размер и низкую стоимость обучения — всего $196, модель смогла превзойти GPT-4.1 на тысяче задач по извлечению структурированных данных.
Команда использовала синтетические данные, позволяющие модели сохранять «память» между разными частями длинных файлов и правильно связывать имена, даты и значения, находящиеся далеко друг от друга.
Для обучения применялась Low-Rank Adaptation (LoRA) — изменено всего 0,53% весов, и Group Relative Policy Optimization с семантическим вознаграждением и строгой проверкой JSON-ответов.
Результат — 0,573 среднее вознаграждение, 89% корректных JSON-ответов и производительность выше GPT-4.1, при затратах в сотни раз меньших.
arxiv (http://arxiv.org/abs/2509.22906)
Nvidia вложит $100 млрд в OpenAI, чтобы зацементировать лидерство в ИИ
WSJ сообщает: Nvidia инвестирует $100 млрд в строительство 10 ГВт дата-центров для OpenAI. Это не благотворительность — компания фактически финансирует собственный спрос.
По расчётам аналитиков, на каждые $10 млрд инвестиций OpenAI обязуется купить GPU Nvidia на $35 млрд. Так Nvidia даёт OpenAI дешёвый капитал и гарантирует себе заказы на годы вперёд.
Это часть большой стратегии: компания уже выкупает простаивающие мощности CoreWeave, инвестирует в Intel и xAI, формируя замкнутую экосистему вокруг своих чипов.
Так Nvidia снижает маржу, но получает главное — контроль над всей энергией и инфраструктурой ИИ-мира.
Wsj (http://wsj.com/tech/ai/how-nvidia-is-backstopping-americas-ai-boom-875c1346)
Источник: wsj.com
Источник: ai-news.ru



























