Американские крупные модели оказались зажаты с юга и севера Китая, отечественный ИИ стремительно захватывает новогодний сезон, пытаясь повторить чудо DeepSeek
Помнится, в год Дракона на празднике Весны взорвалась DeepSeek, однажды полностью «заглушив» другие крупные модели внутри страны. В этом году крупные интернет-компании и отечественные разработчики крупных моделей надеются повторить успех DeepSeek, активно анонсируя новинки перед праздником, используя его как отличную тренировочную площадку.
12 февраля компания MiniMax из Шанхая запустила новую генерацию текстовых моделей MiniMax M2.5 (далее — «M2.5») в рамках проекта MiniMax Agent, а 13 февраля модель стала доступна для глобального открытого исходного кода с возможностью локальной установки. Вскоре пользователи по всему миру начали быстро создавать на платформе MiniMax Agent более 10 000 «экспертов», и их число продолжает расти.
M2.5 называют «королевским ударом», поскольку его производительность почти сравнима с моделью Claude Opus 4.6, разработанной американской компанией Anthropic, при этом цена поражает — даже основатель популярного проекта открытых AI-агентов OpenClaw Питер Стэнберг не смог остаться равнодушным.
Питер Стэнберг, создатель OpenClaw, перепостил и оценил M2.5, отметив, что его производительность сопоставима с Claude Opus 4.6, а цена в 20 раз ниже.
M2.5 позиционируется как «нативная модель для производства агентов», способная автоматически писать код, вызывать инструменты, анализировать данные и генерировать отчёты.
В самом сложном рейтинге программирования SWE-Bench Verified модель набрала 80,2%, что лишь немного уступает Claude Opus 4.6. В многоязычных задачах Multi-SWE-Bench M2.5 превзошла Claude Opus 4.6, заняв первое место.
Для офисных сценариев M2.5 показывает отличные результаты в Word, PowerPoint, Excel, финансовом моделировании и других сложных задачах. В сравнении с основными моделями в рамках тестовой системы GDPval-MM, он достиг средней победы в 59%. Таблицы, созданные M2.5, чётко разделяют обложку, источник данных и подробные сведения, формат аккуратен, словно создан сотрудником с навязчивым синдромом.
M2.5 ничуть не уступает ведущим моделям США.
Главное — несмотря на то, что для «тяжёлых» задач модель использует всего 10 миллиардов параметров, она занимает минимальный размер среди топовых моделей в мире.
«Мозги у неё хорошие», — отмечают, — «а её секрет в том, что она решает две главные проблемы — дороговизну и медлительность моделей».
M2.5 достигает скорости рассуждения 100 транзакций в секунду (TPS), что примерно вдвое быстрее большинства современных моделей; цена за ввод — около 0,3 доллара за миллион токенов (основная единица входных и выходных данных), а за вывод — около 2,4 доллара за миллион токенов. При скорости вывода 100 токенов в секунду, один доллар позволяет модели работать непрерывно в течение часа, что считается «дешёвым ценником».
В эпоху дефицита вычислительных ресурсов возможность добиться высокой производительности, не снижая интеллектуальности и не тормозя работу, — ключевое преимущество MiniMax, позволяющее ей оставаться в числе лидеров в соревновании крупных моделей.
Интересно, что компания Zhipu AI, которая вышла на биржу Гонконга на день раньше MiniMax, недавно представила модель Zhipu GLM-5, также ориентированную на Claude Opus 4.6. Эти две модели — одна на юге, другая на севере — фактически «загнали» Claude Opus 4.6 в угол.
Zhipu GLM-5 добилась хороших результатов в программировании и создании интеллектуальных агентов. Некоторые разработчики отметили, что опыт использования GLM-5 в реальных сценариях программирования уже приближается к сильнейшей модели Claude, а сама способность Claude к программированию считается одной из лучших в отрасли. В авторитетном глобальном рейтинге Artificial Analysis GLM-5 занимает четвёртое место в мире и первое среди открытых моделей.
Zhipu описывает GLM-5 как «системного архитектора», что означает, что в будущем крупные AI-модели перестанут ограничиваться написанием кода или выполнением отдельных задач, а начнут строить системы, распределяя функции между разными агентами.
В тестах на агентское программирование GLM-5 немного превосходит Claude.
Кроме того, 10 февраля Qiwen представила новую модель для генерации изображений Qwen-Image 2.0, поддерживающую сверхдлинные команды из 1000 токенов, а также обладающую более мощными возможностями рассуждения.
Почти одновременно ByteDance выпустила аналогичную модель Seedream 5.0, которая снова продвинула возможности генерации изображений по тексту. «Раньше при использовании AI для создания изображений возникала проблема с китайскими иероглифами — они часто были «не в тему» или превращались в мусор», — рассказала команда разработчиков Qiwen. — «Теперь, благодаря улучшенной пониманию команд и рассуждению, проблема с китайскими иероглифами в AI-генерации изображений уйдёт в прошлое».
Помимо мультимодальных моделей для текста и изображений, большие языковые модели тоже делают большие шаги вперёд. Недавно DeepSeek тихо запустила новую модель, которая, хотя и не является ожидаемой V4, всё равно вызывает удивление.
Эта обновлённая модель не обладает мультимодальными возможностями, но увеличила контекстное понимание до 1 миллиона токенов, что позволяет ей одновременно читать и осмысливать весь «Три тела» — примерно 90 тысяч слов. Разработчик AI-агентов отметил: «Моделей, поддерживающих понимание миллиона токенов, сейчас немного, например, Gemini от Google и Claude от Anthropic. Обновление DeepSeek — это тоже шаг вперёд».
По информации, эта волна новых моделей ещё не завершена: в ближайшее время ожидаются релизы таких флагманов, как Doubao 2.0 и Qianwen 3.5.
(Источник: Shangguan News)
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Американские крупные модели оказались зажаты с юга и севера Китая, отечественный ИИ стремительно захватывает новогодний сезон, пытаясь повторить чудо DeepSeek
Помнится, в год Дракона на празднике Весны взорвалась DeepSeek, однажды полностью «заглушив» другие крупные модели внутри страны. В этом году крупные интернет-компании и отечественные разработчики крупных моделей надеются повторить успех DeepSeek, активно анонсируя новинки перед праздником, используя его как отличную тренировочную площадку.
12 февраля компания MiniMax из Шанхая запустила новую генерацию текстовых моделей MiniMax M2.5 (далее — «M2.5») в рамках проекта MiniMax Agent, а 13 февраля модель стала доступна для глобального открытого исходного кода с возможностью локальной установки. Вскоре пользователи по всему миру начали быстро создавать на платформе MiniMax Agent более 10 000 «экспертов», и их число продолжает расти.
M2.5 называют «королевским ударом», поскольку его производительность почти сравнима с моделью Claude Opus 4.6, разработанной американской компанией Anthropic, при этом цена поражает — даже основатель популярного проекта открытых AI-агентов OpenClaw Питер Стэнберг не смог остаться равнодушным.
Питер Стэнберг, создатель OpenClaw, перепостил и оценил M2.5, отметив, что его производительность сопоставима с Claude Opus 4.6, а цена в 20 раз ниже.
M2.5 позиционируется как «нативная модель для производства агентов», способная автоматически писать код, вызывать инструменты, анализировать данные и генерировать отчёты.
В самом сложном рейтинге программирования SWE-Bench Verified модель набрала 80,2%, что лишь немного уступает Claude Opus 4.6. В многоязычных задачах Multi-SWE-Bench M2.5 превзошла Claude Opus 4.6, заняв первое место.
Для офисных сценариев M2.5 показывает отличные результаты в Word, PowerPoint, Excel, финансовом моделировании и других сложных задачах. В сравнении с основными моделями в рамках тестовой системы GDPval-MM, он достиг средней победы в 59%. Таблицы, созданные M2.5, чётко разделяют обложку, источник данных и подробные сведения, формат аккуратен, словно создан сотрудником с навязчивым синдромом.
M2.5 ничуть не уступает ведущим моделям США.
Главное — несмотря на то, что для «тяжёлых» задач модель использует всего 10 миллиардов параметров, она занимает минимальный размер среди топовых моделей в мире.
«Мозги у неё хорошие», — отмечают, — «а её секрет в том, что она решает две главные проблемы — дороговизну и медлительность моделей».
M2.5 достигает скорости рассуждения 100 транзакций в секунду (TPS), что примерно вдвое быстрее большинства современных моделей; цена за ввод — около 0,3 доллара за миллион токенов (основная единица входных и выходных данных), а за вывод — около 2,4 доллара за миллион токенов. При скорости вывода 100 токенов в секунду, один доллар позволяет модели работать непрерывно в течение часа, что считается «дешёвым ценником».
В эпоху дефицита вычислительных ресурсов возможность добиться высокой производительности, не снижая интеллектуальности и не тормозя работу, — ключевое преимущество MiniMax, позволяющее ей оставаться в числе лидеров в соревновании крупных моделей.
Интересно, что компания Zhipu AI, которая вышла на биржу Гонконга на день раньше MiniMax, недавно представила модель Zhipu GLM-5, также ориентированную на Claude Opus 4.6. Эти две модели — одна на юге, другая на севере — фактически «загнали» Claude Opus 4.6 в угол.
Zhipu GLM-5 добилась хороших результатов в программировании и создании интеллектуальных агентов. Некоторые разработчики отметили, что опыт использования GLM-5 в реальных сценариях программирования уже приближается к сильнейшей модели Claude, а сама способность Claude к программированию считается одной из лучших в отрасли. В авторитетном глобальном рейтинге Artificial Analysis GLM-5 занимает четвёртое место в мире и первое среди открытых моделей.
Zhipu описывает GLM-5 как «системного архитектора», что означает, что в будущем крупные AI-модели перестанут ограничиваться написанием кода или выполнением отдельных задач, а начнут строить системы, распределяя функции между разными агентами.
В тестах на агентское программирование GLM-5 немного превосходит Claude.
Кроме того, 10 февраля Qiwen представила новую модель для генерации изображений Qwen-Image 2.0, поддерживающую сверхдлинные команды из 1000 токенов, а также обладающую более мощными возможностями рассуждения.
Почти одновременно ByteDance выпустила аналогичную модель Seedream 5.0, которая снова продвинула возможности генерации изображений по тексту. «Раньше при использовании AI для создания изображений возникала проблема с китайскими иероглифами — они часто были «не в тему» или превращались в мусор», — рассказала команда разработчиков Qiwen. — «Теперь, благодаря улучшенной пониманию команд и рассуждению, проблема с китайскими иероглифами в AI-генерации изображений уйдёт в прошлое».
Помимо мультимодальных моделей для текста и изображений, большие языковые модели тоже делают большие шаги вперёд. Недавно DeepSeek тихо запустила новую модель, которая, хотя и не является ожидаемой V4, всё равно вызывает удивление.
Эта обновлённая модель не обладает мультимодальными возможностями, но увеличила контекстное понимание до 1 миллиона токенов, что позволяет ей одновременно читать и осмысливать весь «Три тела» — примерно 90 тысяч слов. Разработчик AI-агентов отметил: «Моделей, поддерживающих понимание миллиона токенов, сейчас немного, например, Gemini от Google и Claude от Anthropic. Обновление DeepSeek — это тоже шаг вперёд».
По информации, эта волна новых моделей ещё не завершена: в ближайшее время ожидаются релизы таких флагманов, как Doubao 2.0 и Qianwen 3.5.
(Источник: Shangguan News)