
Керівниця команди великомасштабних моделей Xiaomi Ро Фулі 24 квітня на платформі Bilibili провела глибинне інтерв’ю (номер відео: BV1iVoVBgERD). Тривалість інтерв’ю — 3,5 години; це її перше публічне, системне викладення технічних поглядів у ролі технічного керівника. Ро Фулі зазначила, що конкуренція у сфері великомасштабних моделей перейшла від епохи Chat до епохи Agent, а також вказала, що «самоеволюція» стане ключовою подією для AGI впродовж майбутнього року.
Від епохи Chat до епохи Agent: ключові технічні висновки

(Джерело: Bilibili)
Згідно з тим, що Ро Фулі заявила в інтерв’ю на Bilibili, вона вказала: у 2026 році фокус конкуренції великомасштабних моделей уже зміститься від якості універсальної розмови до здатності до безперервного автономного виконання складних завдань. Під час інтерв’ю вона сказала, що наразі топові моделі можуть автономно оптимізуватися для конкретних завдань і стабільно виконувати їх протягом 2–3 днів, без потреби в втручанні людини для коригування. В інтерв’ю вона наголосила, що прорив у «здатності до самоеволюції» означає, що AI-системи почали мати можливість самокорекції, і назвала технологічні траєкторії Anthropic та такі технічні змінні, як Claude Opus 4.6, які впливають на всю екосистему AI.
Коригування співвідношення обчислювальних потужностей у Xiaomi та оцінка різниці поколінь Pre-train
Згідно з розкриттям Ро Фулі під час інтерв’ю, у Xiaomi вже здійснили суттєві зміни в стратегії розподілу обчислювальних потужностей. Вона пояснила, що у галузі типовим є співвідношення обчислень Pre-train:Post-train:Inference = 3:5:1, тоді як поточна стратегія Xiaomi відкоригована до 3:1:1 — і в такий спосіб значно стиснуто частку обчислень для подальшого тренування, водночас підвищено інвестиції ресурсів на етапі інференсу.
У своєму інтерв’ю вона пояснила, що цей зсув зумовлений зрілістю стратегії Agent RL Scaling: після тренування більше не потрібно нагромаджувати великі обсяги обчислювальної потужності, а зростання ресурсів на інференсному боці відображає потребу сценаріїв впровадження Agent у можливостях негайної реакції.
Щодо проблеми різниці в поколіннях Pre-train у вітчизняних великомасштабних моделях, Ро Фулі під час інтерв’ю зазначила, що цю різницю вдалося скоротити з минулих 3 років до кількох місяців, а нинішній стратегічний фокус зсувається в бік Agent RL Scaling. Її кар’єрна траєкторія включає Інститут Дамo Алі (Алі Дамо), Quant ілюзію (Huanfang) та DeepSeek (DeepSeek-V2, головний розробник), а у листопаді 2025 року вона приєдналася до Xiaomi.
Технічні специфікації серії MiMo-V2 та відкриті рейтинги
Згідно з оголошенням Xiaomi від 19 березня 2026 року щодо серії MiMo-V2, цього разу одночасно випущено три моделі:
MiMo-V2-Pro: загальна кількість параметрів — десятки; увімкнено параметр 42B, архітектура змішаної уваги, підтримка мільйонного контексту, рівень завершення завдань 81%
MiMo-V2-Omni: сценарії Agent у всіх модальностях
MiMo-V2-TTS: сценарії синтезу мовлення
Згідно з оголошенням, MiMo-V2-Flash, який вже відкрито, у глобальному рейтингу відкритих моделей посів друге місце, а швидкість інференсу досягає 3 разів порівняно з DeepSeek-V3.2.
Поширені запитання
Як Ро Фулі визначає «самоеволюцію» і чому вважає її найключовішою подією для AGI?
Згідно з тим, як Ро Фулі описала під час інтерв’ю на Bilibili 24 квітня 2026 року (BV1iVoVBgERD), у ході інтерв’ю вона зазначила: нині топові моделі вже можуть автономно оптимізуватися для конкретних завдань і стабільно виконувати їх протягом 2–3 днів без втручання людини, а «самоеволюцію» вона кваліфікувала як найключовіше для розвитку AGI впродовж майбутнього року.
Які конкретні коригування зробила Xiaomi у співвідношенні обчислювальних потужностей, і яка логіка за цим стоїть?
Згідно з розкриттям Ро Фулі в інтерв’ю, співвідношення обчислювальних потужностей у Xiaomi змінили з типової для галузі Pre-train:Post-train:Inference = 3:5:1 на 3:1:1, суттєво стиснувши частку обчислень для подальшого тренування; вона пояснила, що це коригування зумовлене зростанням ефективності post-train після того, як стратегія Agent RL Scaling стала зрілою, а також потребою сценаріїв упровадження Agent у здатності до негайного реагування на інференсному боці.
Який відкритий рейтинг та показники швидкості у MiMo-V2-Flash?
Згідно з офіційним оголошенням Xiaomi від 19 березня 2026 року, MiMo-V2-Flash, який уже відкрито, у глобальному рейтингу відкритих моделей посів друге місце; швидкість інференсу — у 3 рази вища за DeepSeek-V3.2, а показник завершення завдань у флагманській версії MiMo-V2-Pro становить 81%.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
AI-агенти стимулюють попит на криптоплатежі, x402 обробляє 165M транзакцій
Повідомлення Gate News, 27 квітня — Джессі Поллак, керівник великої CEX, заявив, що автономні AI-агенти створюють новий «центр попиту» для криптовалютних платежів, що потребує платіжної інфраструктури, нативної для програмного забезпечення. 20 квітня було оголошено, що екосистема x402 обробила понад 165
GateNews9хв. тому
代理 Cursor AI допустив помилку! Одна стрічка коду за 9 секунд очистила базу даних компанії, гарантії безпеки перетворилися на порожні розмови
Засновник PocketOS Джер Крейн повідомив, що агент Cursor AI під час тестового середовища самостійно виконував обслуговування, зловживаючи токеном API для додавання/видалення користувацьких доменів, і відправив команду видалення до GraphQL API Railway. Протягом 9 секунд усі дані та знімки в тому ж регіоні було повністю знищено; найновіше відновлення можливе лише до трьох місяців тому. Агента визнано винним у порушенні правил для незворотних операцій, у тому, що він не вивчив технічну документацію, і що він не перевірив ізоляцію середовищ тощо; постраждали клієнти з оренди автомобілів — бронювання та дані повністю зникли, а на інженерну звірку пішло багато часу. Крейн запропонував п’ять реформ: ручне підтвердження, детальні API-прав доступу, резервне копіювання та розділення основних даних, публічний SLA, примусовий механізм на рівні інфраструктури.
ChainNewsAbmedia26хв. тому
Alibaba випускає у відкритий доступ модель AgenticQwen: версія 8B наближається до продуктивності 235B завдяки двійним прогінним передачам даних
Повідомлення Gate News, 27 квітня — команда PAI в Alibaba випустила та відкрито розмістила AgenticQwen, компактну агентну мовну модель, призначену для промислових застосувань викликів інструментів. Модель представлено у двох версіях: 8B та 30B-A3B. Навчена за допомогою інноваційної "двійної прогінної передачі даних"
GateNews33хв. тому
DeepSeek V4 Pro на Ollama Cloud: Claude Code одним кліком
Згідно з твітом Ollama, DeepSeek V4 Pro було випущено 4/24, уже додано в каталог Ollama в режимі хмари, і лише однією командою можна викликати такі інструменти, як Claude Code, Hermes, OpenClaw, OpenCode, Codex тощо. В4 Pro1.6T params, 1M context, Mixture-of-Experts; хмарний висновок не завантажує локальні ваги. Щоб запускати локально, потрібно самостійно отримати ваги й виконувати їх з INT4/GGUF та кількома GPU. Ранні тести швидкості були впливом хмарного навантаження: у звичайному режимі приблизно 30 tok/s, у піку 1.1tok/s; рекомендується спочатку використовувати хмарний прототип, а для офіційного серійного виробництва — виконувати власний висновок або використовувати комерційне API.
ChainNewsAbmedia1год тому
UB (Unibase) за 24 години виріс на 14.96%
Gate News повідомлення: 27 квітня, за даними котирувань Gate, станом на час підготовки матеріалу UB (Unibase) зараз торгується на рівні $0.0491, за останні 24 години зріс на 14.96%, досягав максимуму $0.0534, а мінімум опускався до $0.0423; обсяг торгів за 24 години склав $3.9667 млн. Поточна ринкова капіталізація становить приблизно $123 млн。
Unibase — це високопродуктивний децентралізований AI-рівень пам’яті, який надає AI-агентам довготривалу пам’ять і кросплатформну сумісність, щоб вони могли запам’ятовувати, співпрацювати та самовдосконалюватися. Unibase має на меті створити відкрите інтернет-середовище для агентів, підтримуючи безшовну взаємодію розумних агентів між екосистемами, і розширює можливості розробників для створення наступного покоління AI-застосунків。
Це повідомлення не є інвестиційною рекомендацією; інвестування пов’язане з ризиком коливань ринку.
GateNews1год тому
Го Мінцзун: OpenAI хоче створити мобільний телефон з AI-агентом, MediaTek, Qualcomm і Luxshare Precision стають ключовими ланками ланцюга постачання
Го Міньцунь стверджує, що OpenAI співпрацює з MediaTek, Qualcomm і Luxshare Precision у розробці AI-агентного телефону, і що його планують перейти в серійне виробництво у 2028 році. Новий телефон буде орієнтований на виконання завдань: AI-агент розумітиме та виконуватиме запити, поєднуючи хмарні й пристроєві обчислення; ключовий акцент — на сенсорах і розумінні контексту. Перелік специфікацій і ланцюг постачання, як очікується, буде остаточно визначено у 2026–2027 роках. Якщо проєкт буде реалізовано, це може спричинити новий цикл оновлення для ринку в сегменті високого класу; Luxshare може стати основним бенефіціаром.
ChainNewsAbmedia1год тому