Сообщение Gate News от 29 апреля — веса модели Ling-2.6-flash от Ant Group теперь открыты для свободного распространения: ранее они были доступны только через API. Модель включает 104 миллиарда общих параметров, 7,4 миллиарда активируемых параметров на один вывод, окно контекста 256K и лицензию MIT. Доступны версии с точностью BF16, FP8 и INT4 на HuggingFace и ModelScope.
Ling-2.6-flash вносит улучшения гибридного линейного внимания по сравнению с Ling 2.0: она обновляет исходную GQA до архитектуры 1:7 MLA plus Lightning Linear hybrid в сочетании с высокоспряжённой MoE. Эффективность вывода существенно превосходит аналогичные модели: пиковая скорость генерации достигает 340 токенов/с на 4x GPU H20, при этом пропускная способность prefill и decode примерно в 4 раза выше, чем у сопоставимых открытых моделей. Агентно-ориентированные бенчмарки демонстрируют сильные результаты: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval и PinchBench достигают уровня SOTA или приближаются к нему. Во всём комплекте бенчмарков Artificial Analysis общее потребление токенов составляет лишь 15 миллионов. На AIME 2026 модель набрала 73,85%.
Официальный сайт Ant Group также указывает флагманскую версию Ling-2.6-1T (триллион-параметров) и версию Ling-2.6-mini (облегчённого формата), однако на момент публикации их веса остаются не выпущенными на HuggingFace: для скачивания доступна только серия flash.
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
Модели OpenAI будут постепенно мигрировать на настраиваемый чип Trainium от Amazon, — говорит Альтман, что он «с нетерпением ждет этого»
Сообщение Gate News, 29 апреля — Модели OpenAI, работающие на облачной платформе Amazon Web Services Bedrock, будут постепенно мигрировать в Trainium — настраиваемый чип искусственного интеллекта, разработанный Amazon, — согласно недавним заявлениям генерального директора OpenAI Сэма Альтмана и руководителей AWS. В настоящее время модели работают в смешанной среде, используя как GPU, так и Tr
GateNews49м назад
Альтман: Токен-ориентированное ценообразование становится устаревшим, поскольку GPT-5.5 переносит акцент на завершение задач, а не на количество токенов
Сообщение Gate News, 29 апреля — генеральный директор OpenAI Сэм Альтман заявил в интервью Бену Томпсону на Stratechery, что токен-ориентированное ценообразование не является жизнеспособной в долгосрочной перспективе моделью для AI-услуг. В качестве примера Альтман привел GPT-5.5: при том, что цена за один токен значительно выше, чем у GPT-5.4, модель использует гораздо меньше токенов, чтобы выполнить ту же задачу, то есть клиентам не важно количество токенов — их волнует только, будет ли выполнена задача, и общая стоимость.
"Мы не фабрика токенов; мы больше похожи на фабрику интеллекта", — сказал Альтман. "Клиенты хотят купить максимум интеллекта за наименьшие деньги. Им не важно, выполняется ли базовая работа с помощью большой модели, которая использует немного токенов, или с помощью маленькой модели, которая использует много токенов". Он добавил, что текущая клиентская база OpenAI все чаще требует больше вычислительных мощностей, а не торгуется о ценах: гораздо больше клиентов говорят "дайте нам больше мощностей, независимо от стоимости", чем тех, кто просит скидки.
Проведя параллель с коммунальными услугами, Альтман объяснил, что в отличие от воды или электричества — где снижение цен не приводит к заметному росту потребления — спрос на AI масштабируется иначе. "Пока цена достаточно низкая, я буду продолжать использовать больше. Ни у одной другой публичной коммунальной службы нет такого механизма", — сказал он. Генеральный директор AWS Мэтт Гарман добавил, что цены на вычислительную мощность снизились на несколько порядков за последние 30 лет, однако сегодня продается еще больше вычислительных ресурсов, чем когда-либо раньше.
Альтман также охарактеризовал ChatGPT как "первый по-настоящему массовый потребительский продукт со времен Facebook", отметив, что хотя ожидалось, что AI нарушит работу поисковой сферы, реальные успехи пришли благодаря самому ChatGPT и API Codex. Он отметил, что "Google по-прежнему недооценен во многих отношениях".
GateNews53м назад
Сэм Альтман опубликовал скриншоты Codex в двух режимах: офисные и программистские функции официально разделены
Генеральный директор OpenAI Сэм Альтман опубликовал 29 апреля на платформе X скриншот и заявление о том, что Codex запускает новую версию интерфейса подсказок: при первом входе пользователи должны выбрать один из двух режимов — Excelmogging и Codemaxxing. Активные еженедельные пользователи Codex уже превысили 4 млн, а сфера применения расширилась с генерации кода до нетехнических задач.
MarketWhisper1ч назад
Codex от OpenAI выходит с двухрежимным интерфейсом: Excelmogging для офисной работы, Codemaxxing для программирования
Сообщение Gate News, 29 апреля — генеральный директор OpenAI Сэм Альтман сегодня объявил в X о переработанном интерфейсе Codex, представив два отдельных режима для пользователей. «Excelmogging» ориентирован на повседневные офисные задачи с упрощённым интерфейсом и слоганом «Same tools, simpler interface,» с примерами задач вроде создания таблиц. «Codemaxxing» предназначен для профессиональных разработчиков с описанием «For coding and development,» а примеры задач включают отладку запросов к базам данных.
Codex, изначально сосредоточенный на генерации кода и инженерных задачах, значительно расширился за рамки первоначального замысла. Сейчас продукт может похвастаться более чем 4 миллионами еженедельных активных пользователей и используется для исследовательского анализа, обобщения документов и создания слайдов. Новый интерфейс закрепляет эту тенденцию, направляя пользователей без навыков программирования на более упорядоченный и упрощённый опыт. Этот сдвиг отражает более широкую отраслевую закономерность: Claude от Anthropic разделился на Claude Code for programming и Co Work for general office use, в то время как TRAE Solo от ByteDance также аналогично разделяет режимы программирования и повседневной офисной работы.
Двухрежимная стратегия подчёркивает растущий консенсус в отрасли — программирующие агенты всё чаще расширяются до универсальных офисных инструментов повышения продуктивности.
GateNews2ч назад
СМИ США: проект административного указа Белого дома разрешает модели Anthropic Mythos войти в государственные структуры
Согласно сообщению информированных источников, которое Axios приводит 28 апреля, Белый дом разрабатывает руководящие указания, разрешающие всем федеральным ведомствам обходить определение рисков в цепочке поставок (SCRD) компании Anthropic, и вводить новые модели для использования правительством, включая модель Mythos, принадлежащую Anthropic. В связи с этим Белый дом опубликовал официальное заявление, в котором говорится, что любые заявления о политике будут напрямую публиковаться президентом, а любые другие утверждения — не более чем предположения.
MarketWhisper2ч назад
Тейлор Свифт подает заявку на регистрацию товарного знака голоса и изображения, чтобы предотвратить распространение контента, имитируемого с помощью ИИ
Согласно сообщению BBC от 28 апреля, американская поп-звезда Тейлор Свифт (Taylor Swift) подала в США три заявки на товарные знаки, которые охватывают аудиофрагменты звука и сценические изображения, с целью защитить ее голос и внешний вид от подделок со стороны ИИ; юрист по товарным знакам Джош Гербен сначала раскрыл детали этих заявок в своем блоге.
MarketWhisper2ч назад