• Главная
  • Архив рубрики ~Лента новостей~
  • Новая открытая модель искусственного интеллекта Trinity-Large-Thinking от Arcee — это редкая и мощная модель, разработанная в США, которую предприятия могут загрузить и настроить под свои нужды.
Image

Новая открытая модель искусственного интеллекта Trinity-Large-Thinking от Arcee — это редкая и мощная модель, разработанная в США, которую предприятия могут загрузить и настроить под свои нужды.

Карл Франзен

Здание церкви Тринити-Лардж возвышается над городом.

Источник: VentureBeat, создано с помощью Google Gemini 3.1 Pro.

За годы существования ChatGPT в конце 2022 года эстафета в разработке моделей искусственного интеллекта с открытым исходным кодом переходила от одной компании к другой: от Meta со своим семейством Llama до китайских лабораторий, таких как Qwen и z.ai. Однако в последнее время китайские компании начали возвращаться к проприетарным моделям, даже несмотря на то, что некоторые американские лаборатории, такие как Cursor и Nvidia, выпускают собственные варианты китайских моделей, что оставляет открытым вопрос о том, кто станет родоначальником этого направления технологий в будущем.

Один из ответов: Arcee, лаборатория из Сан-Франциско, которая на этой неделе выпустила AI Trinity-Large-Thinking — модель логического мышления с 399 миллиардами параметров, работающую исключительно с текстом и распространяемую под бескомпромиссно открытой лицензией Apache 2.0, что позволяет полностью настраивать и использовать ее в коммерческих целях кому угодно, от независимых разработчиков до крупных предприятий.

Этот релиз представляет собой нечто большее, чем просто новый набор весов в сообществе обмена кодом ИИ Hugging Face; это стратегическая ставка на то, что «американские открытые веса» могут стать суверенной альтернативой все более закрытым или ограниченным моделям освоения новых технологий в 2025 году.

Этот шаг предпринят именно в тот момент, когда предприятия выражают растущее недовольство зависимостью от китайских архитектур для критически важной инфраструктуры, что создает спрос на отечественного лидера, который Arcee намерена удовлетворить.

Как заявил Клеман Деланг, соучредитель и генеральный директор Hugging Face, в личном сообщении VentureBeat на X: «Сила США всегда заключалась в их стартапах, поэтому, возможно, именно на них нам следует рассчитывать в качестве лидеров в области искусственного интеллекта с открытым исходным кодом. Arcee показывает, что это возможно!»

Зарождение передовой лаборатории, состоящей из 30 человек.

Чтобы понять всю значимость релиза Trinity, необходимо понять, какая лаборатория его создала. Компания Arcee AI, базирующаяся в Сан-Франциско, — это небольшая команда всего из 30 человек.

В то время как конкуренты, такие как OpenAI и Google, работают с тысячами инженеров и располагают многомиллиардными вычислительными бюджетами, Arcee позиционирует себя через то, что технический директор Лукас Аткинс называет «инженерным подходом, основанным на ограничениях».

Компания впервые заявила о себе в 2024 году, получив 24 миллиона долларов в рамках раунда финансирования серии А под руководством Emergence Capital, в результате чего общий объем привлеченных средств составил чуть менее 50 миллионов долларов. В начале 2026 года команда пошла на огромный риск: они вложили 20 миллионов долларов — почти половину всего привлеченного финансирования — в один 33-дневный тренировочный забег для Trinity Large.

Используя кластер из 2048 графических процессоров NVIDIA B300 Blackwell, обеспечивших вдвое большую скорость по сравнению с предыдущим поколением Hopper, компания Arcee сделала ставку на будущее, полагая, что разработчикам нужна передовая модель, которой они действительно смогут владеть.

Эта инвестиция в поддержку компании стала мастер-классом по эффективному использованию капитала, доказав, что небольшая, целеустремленная команда может создать полноценную систему обучения и стабилизировать процесс подготовки кадров без бесконечных резервов.

Инженерное проектирование с учетом экстремальных архитектурных ограничений.

Модель Trinity-Large-Thinking примечательна крайней разреженностью своего механизма внимания. Хотя модель содержит в общей сложности 400 миллиардов параметров, её архитектура Mixture-of-Experts означает, что для любого заданного токена активны только 1,56%, или 13 миллиардов параметров.

Это позволяет модели обладать глубокими знаниями, характерными для масштабной системы, сохраняя при этом скорость вывода и операционную эффективность гораздо меньшей системы — работая примерно в 2–3 раза быстрее, чем аналогичные модели на том же оборудовании. Обучение такой разреженной модели представляло собой значительные проблемы со стабильностью.

Чтобы предотвратить ситуацию, когда одни эксперты становятся «победителями», а другие остаются неподготовленными «балластом», компания Arcee разработала SMEBU, или Soft-clamped Momentum Expert Bias Updates (обновления экспертной предвзятости с учетом мягкого прижима импульса).

Этот механизм обеспечивает специализацию экспертов и равномерное распределение их знаний по всему веб-корпусу. Архитектура также включает гибридный подход, чередуя локальные и глобальные слои внимания со скользящим окном в соотношении 3:1 для поддержания производительности в сценариях с длинным контекстом.

Учебная программа по работе с данными и синтетическое мышление

Партнерство Arcee с другим стартапом, DatologyAI, предоставило обучающий корпус, содержащий более 10 триллионов тщательно отобранных токенов. Однако обучающий корпус для полномасштабной модели был расширен до 20 триллионов токенов, равномерно распределенных между тщательно отобранными веб-данными и высококачественными синтетическими данными.

В отличие от типичных синтетических данных, основанных на имитации, где меньшая модель просто учится имитировать большую, DatologyAI использовала методы синтетической переработки необработанного веб-текста — например, статей Википедии или блогов — для сжатия информации.

Этот процесс помог модели научиться рассуждать на основе концепций и информации, а не просто запоминать точные последовательности символов.

Для обеспечения соответствия нормативным требованиям были приложены огромные усилия для исключения из программы книг и материалов, защищенных авторским правом, с неясными условиями лицензирования, что привлекло корпоративных клиентов, опасающихся рисков, связанных с нарушением прав интеллектуальной собственности при обучении по программам магистратуры в области права.

Такой подход, ориентированный на данные, позволил модели масштабироваться без существенных изменений, одновременно значительно улучшив производительность в сложных задачах, таких как математические вычисления и многоэтапное использование инструментов агента.

Переход от болтливых чат-ботов к логически мыслящим агентам.

Отличительной особенностью этого официального релиза является переход от стандартной модели «инструкций» к модели «рассуждений».

Внедрив фазу «размышления» перед генерацией ответа — подобную внутренним циклам, которые использовались в более ранней Trinity-Mini, — Arcee устранила основную критику своего январского «предварительного» релиза.

Первые пользователи предварительной версии модели отмечали, что она иногда испытывала трудности с многошаговыми инструкциями в сложных условиях и могла быть «неудовлетворительной» для задач, связанных с управлением агентами.

Обновление «Thinking» эффективно устраняет этот пробел, позволяя использовать то, что Arcee называет «агентами с долгосрочным горизонтом», способными поддерживать согласованность между многоэтапными вызовами инструментов, не допуская «небрежности».

Этот процесс рассуждений обеспечивает лучшую согласованность контекста и более четкое следование инструкциям в условиях ограничений. Это имеет прямое значение для Maestro Reasoning, 32-параметрической модификации Trinity, уже используемой в отраслях, ориентированных на аудит, для обеспечения прозрачного отслеживания процесса от мысли до ответа.

Цель заключалась в том, чтобы отказаться от «болтливых» или неэффективных чат-ботов и перейти к надежным, недорогим и высококачественным агентам, которые сохраняют стабильность в течение длительных циклов работы.

Геополитика и аргументы в пользу открытого чемпионата США по гэльскому футболу.

Значимость обязательств Arcee по внедрению Apache 2.0 усиливается уходом ее основных конкурентов с рынка программного обеспечения с открытым исходным кодом.

В течение 2025 года китайские исследовательские лаборатории, такие как Qwen (принадлежащая Alibaba) и z.ai (также известная как Zhupai), задавали темп в разработке высокоэффективных архитектур MoE.

Однако, с наступлением 2026 года эти лаборатории начали переходить к использованию собственных корпоративных платформ и специализированных подписок, что свидетельствует об отходе от чистого развития сообщества.

Распад этих некогда плодотворных команд, например, уход ключевых технических специалистов из лаборатории Qwen компании Alibaba, оставил пустоту в верхнем сегменте рынка ценных бумаг. В Соединенных Штатах это движение столкнулось со своим собственным кризисом.

Подразделение Llama компании Meta заметно отошло от освоения новых рынков после неоднозначной реакции на Llama 4 в апреле 2025 года, когда появились сообщения о проблемах с качеством и манипуляциях с бенчмарками.

Для разработчиков, которые полагались на доминирование эпохи Llama 3, отсутствие современной открытой модели с объемом памяти более 400 млрд байт создало острую необходимость в альтернативе, которую и заполнила компания Arcee.

Сравнительные тесты и сравнение модели Trinity-Large-Thinking от Arcee с другими передовыми американскими моделями искусственного интеллекта с открытым исходным кодом.

Результаты Trinity-Large-Thinking в тестах, ориентированных на конкретных агентов, подтверждают ее статус перспективного разработчика. В тесте PinchBench , критически важном показателе для оценки возможностей модели в задачах автономного управления агентами, Trinity получила оценку 91,9, уступив лишь лидеру рынка, Claude Opus 4.6 (93,3).

Сравнительная таблица показателей Arcee Trinity-Large-Thinking

Сравнительная таблица показателей Arcee Trinity-Large-Thinking. Источник: Arcee

Эта конкурентоспособность отражена и в IFBench, где результат Trinity в 52,3 балла практически совпадает с результатом Opus 4.6 в 53,1 балла, что указывает на то, что обновление модели «Thinking», ориентированное на логическое мышление, успешно решило проблемы с отслеживанием инструкций, которые были актуальны на более ранней стадии предварительного тестирования модели.

Более широкие возможности модели в области технического анализа также ставят ее в число лучших на современном рынке открытого программного обеспечения. Она показала результат 96,3 на AIME25, сравнявшись с высококлассной Kimi-K2.5 и превзойдя других основных конкурентов, таких как GLM-5 (93,3) и MiniMax-M2.7 (80,0).

Хотя такие высокопроизводительные тесты программирования, как SWE-bench Verified, по-прежнему демонстрируют преимущество лучших моделей с закрытым исходным кодом — Trinity набрала 63,2 балла против 75,6 у Opus 4.6 — огромная разница в стоимости за токен делает Trinity более жизнеспособным суверенным инфраструктурным уровнем для предприятий, стремящихся развернуть эти возможности в производственном масштабе.

Что касается других перспективных моделей с открытым исходным кодом, предлагаемых США, то gpt-oss от OpenAI достигает максимального значения в 120 миллиардов параметров, но есть также Google с Gemma (Gemma 4 была выпущена на этой неделе), и семейство Granite от IBM также заслуживает упоминания, несмотря на более низкие показатели в бенчмарках. Семейство Nemotron от Nvidia также заслуживает внимания, но это тонко настроенные и постобученные варианты Qwen.

Бенчмарк

Арси Тринити-Лардж

gpt-oss-120B (High)

IBM Granite 4.0

Google Gemma 4

GPQA-D

76,3%

80,1%

74,8%

84,3%

Tau2-Авиакомпания

88,0%

65,8%*

68,3%

76,9%

PinchBench

91,9%

69,0% (IFBench)

89,1%

93,3%

AIME25

96,3%

97,9%

88,5%

89,2%

MMLU-Pro

83,4%

90,0% (ММЛУ)

81,2%

85,2%

Как же предприятию сделать выбор между всеми этими вариантами?

Arcee Trinity-Large-Thinking — это лучший выбор для организаций, разрабатывающих автономных агентов; его разреженная 400-битная архитектура превосходно справляется с «мышлением» посредством многошаговой логики, сложных математических вычислений и использования инструментов в долгосрочной перспективе. Активируя лишь часть параметров, он предоставляет высокоскоростной механизм рассуждений для разработчиков, которым необходимы возможности планирования уровня GPT-40 в рамках экономичной платформы с открытым исходным кодом.

Напротив, gpt-oss-120B представляет собой оптимальный компромисс для предприятий, которым требуется высокая производительность, но при этом приоритетными являются снижение эксплуатационных расходов и гибкость развертывания.

Благодаря тому, что за один прямой проход активируется всего 5,1 млрд параметров, этот метод идеально подходит для таких сложных задач, как генерация кода для соревнований и продвинутое математическое моделирование, которые должны выполняться на оборудовании с ограниченными ресурсами, например, на одном графическом процессоре H100.

Благодаря настраиваемой системе логического вывода, предлагающей режимы «Низкий», «Средний» и «Высокий», она идеально подходит для производственных сред, где необходимо динамически балансировать задержку и точность при выполнении различных задач.

Для более масштабных и высокопроизводительных приложений в качестве основных платформ используются Google Gemma 4 и IBM Granite 4.0 . Gemma 4 обеспечивает самую высокую «плотность интеллекта» для общих знаний и научной точности, что делает её наиболее универсальным вариантом для исследований и разработок, а также для высокоскоростных интерфейсов чата.

Между тем, IBM Granite 4.0 разработан для корпоративных задач, выполняемых в течение всего дня, и использует гибридную архитектуру, которая устраняет узкие места, связанные с контекстом, при обработке больших объемов документов. Для предприятий, обеспокоенных соблюдением законодательства и эффективностью оборудования, Granite остается наиболее надежной основой для крупномасштабного анализа RAG и документов.

Право собственности как характеристика регулируемых отраслей

В нынешних условиях выбор компанией Arcee лицензии Apache 2.0 является преднамеренным шагом, направленным на выделение своего бренда. В отличие от ограничительных лицензий сообщества, используемых некоторыми конкурентами, Apache 2.0 позволяет предприятиям по-настоящему контролировать свой интеллектуальный стек без предвзятости «черного ящика», присущей моделям чатов общего назначения.

«Разработчикам и предприятиям нужны модели, которые они могут проверять, обучать после запуска, размещать, анализировать и владеть ими», — отметил Лукас Аткинс в анонсе запуска.

Это понимание ответственности имеет решающее значение для «горького урока» обучения небольших моделей: обычно сначала необходимо обучить масштабную модель, чтобы сгенерировать высококачественные синтетические данные и логиты, необходимые для построения эффективных моделей-учеников.

Кроме того, компания Arcee выпустила Trinity-Large-TrueBase, контрольную точку объемом 10 триллионов токенов. TrueBase предоставляет редкую, «неиспорченную» возможность взглянуть на базовый интеллект до применения методов настройки инструкций и обучения с подкреплением. Для исследователей в высокорегулируемых отраслях, таких как финансы и оборона, TrueBase позволяет проводить подлинные аудиты и настраивать параметры, начиная с чистого листа.

Мнение общественности и будущее дистилляции

Реакция сообщества разработчиков в основном положительная, что отражает желание видеть больше моделей с открытым набором весов, разработанных в США.

На платформе X исследователи подчеркнули наличие сбоев, отметив, что «невероятно низкие» цены на модель такого размера станут большим преимуществом для сообщества разработчиков агентных систем.

На веб-сайте OpenRouter, посвященном открытым моделям искусственного интеллекта, Trinity-Large-Preview зарекомендовала себя как самая используемая открытая модель в США, обработав более 80,6 миллиардов токенов в пиковые дни, такие как 1 марта 2026 года.

Близость Trinity-Large-Thinking к Claude Opus 4.6 на PinchBench — 91,9 против 93,3 — особенно поразительна, если сравнивать её стоимость. При цене 0,90 доллара за миллион токенов Trinity примерно на 96% дешевле, чем Opus 4.6, стоимость которого составляет 25 долларов за миллион токенов.

Стратегия Arcee теперь сосредоточена на возвращении этих уроков, полученных до и после обучения, на более низкий уровень. Большая часть работы, вложенной в Trinity Large, теперь будет использована в моделях Mini и Nano, обновляя компактную линейку компании за счет применения передовых методов анализа.

В условиях, когда глобальные лаборатории все чаще привязываются к собственным разработкам, Arcee позиционирует Trinity как суверенный инфраструктурный слой, который разработчики наконец-то могут контролировать и адаптировать для долгосрочных агентных рабочих процессов.

Подпишитесь, чтобы получать самые свежие новости!

Подробные аналитические данные для руководителей предприятий в области искусственного интеллекта, данных и безопасности.

VB Daily AI Weekly Еженедельник AGI Еженедельник по безопасности Еженедельник по инфраструктуре данных Мероприятия VB Все они

Отправляя свой адрес электронной почты, вы соглашаетесь с нашими Условиями использования и Политикой конфиденциальности.

Получайте обновления ! Вы подписаны! Наши последние новости скоро поступят на вашу электронную почту.

Источник: venturebeat.com

✅ Найденные теги: Arcee, Trinity-Large-Thinking, искусственный интеллект, Модель, Новая, новости, США

ОСТАВЬТЕ СВОЙ КОММЕНТАРИЙ

Каталог бесплатных опенсорс-решений, которые можно развернуть локально и забыть о подписках

галерея

Остров из ракушек в чистом море под ясным небом. Натуральная красота природы.
Пожилой мужчина улыбается и взаимодействует с домашним роботом-помощником в гостиной.
Современная гостиная с неоновыми голограммами на стенах и видом на ночной город.
Затмение на фоне звездного неба, лунный диск закрывает свет в центре изображения.
Ученые говорят: Технофоссиль
Две рыбы с пятнистой чешуей, вид с боку, сравнение размеров, метка шкалы 1 см.
Стерилизатор зубных щеток для гигиены, современный дизайн, отображение на экране.
Красная стела с логотипом Tesla на фоне ясного неба и гор.
10 основных концепций магистерской программы по инженерным специальностям, объясненных за 10 минут.
Image Not Found
Затмение на фоне звездного неба, лунный диск закрывает свет в центре изображения.

Первые фотографии солнечного затмения, сделанные экипажем миссии Artemis II, выглядят настолько хорошо, что кажутся нереальными.

Изнутри капсулы «Орион» полное солнечное затмение создавало впечатление, что Луна — это чёрный шар, окружённый солнечным гало. Эмма Рот, журналистка. Публикации этого автора будут добавляться в вашу ежедневную рассылку по электронной почте и в ленту новостей на…

Апр 8, 2026
Две рыбы с пятнистой чешуей, вид с боку, сравнение размеров, метка шкалы 1 см.

Ученые составили библиотеку ДНК-штрихкодов для рыб бассейна Волги и обнаружили новые виды

. Редкие виды рыб Волги, нуждающиеся в охране — (А) форель (резидентная форма) балтийской кумжи (Salmo trutta) и (B) форель каспийской кумжи (Salmo caspius), изученные в ходе исследования. Источник: Boris A. Levin et al. / Metabarcoding and…

Апр 8, 2026
Стерилизатор зубных щеток для гигиены, современный дизайн, отображение на экране.

Насколько эффективно уничтожает бактерии стерилизатор зубных щёток

Вы задумывались о том, кто живёт на вашей зубной щётке? Там куча бактерий, и их надо убить — настаивает производитель такого стерилизатора. Он стоит меньше 2 000 рублей — при том, что выполняет ещё и функции держателя.…

Апр 8, 2026
Красная стела с логотипом Tesla на фоне ясного неба и гор.

Почему регулирующие органы по безопасности закрыли расследование в отношении функции дистанционной парковки Tesla

Вкратце Источник изображения: Дэвид Пол Моррис/Bloomberg / Getty Images Американские органы по контролю за безопасностью автомобилей закрыли расследование в отношении функции дистанционной парковки Tesla, известной как «Actually Smart Summon», после того, как установили, что аварии происходили редко,…

Апр 8, 2026

Впишите свой почтовый адрес и мы будем присылать вам на почту самые свежие новости в числе самых первых