Голосовий сервіс xAI Grok бере на себе гарячу лінію служби підтримки Starlink, 70% дзвінків автоматично закриваються

Starlink客服熱線

Відповідно до офіційного повідомлення xAI від 23 квітня, xAI представила мовного AI-агента Grok Voice Think Fast 1.0 і вже розгорнула його на гарячій лінії служби підтримки Starlink +1 (888) GO STARLINK. Згідно з опублікованими в повідомленні результатами практичного тестування, 70% вхідних дзвінків автоматично закриваються AI без втручання людини.

Технічні характеристики та архітектура розгортання Grok Voice Think Fast 1.0

Згідно з офіційним повідомленням xAI, Grok Voice Think Fast 1.0 використовує архітектуру одного агента, яка дозволяє в бекенді синхронно викликати 28 інструментів, охоплюючи сотні сценаріїв продажів і підтримки клієнтів, зокрема усунення несправностей обладнання, замовлення на заміну деталей, подання заявок на сервісні бали тощо, виконуючи все автономно протягом усього процесу.

У повідомленні зазначено, що ключовою технічною особливістю цієї системи є «виконання міркувань у бекенді при збереженні незмінної затримки відповіді» (reason in background while keeping response latency unchanged). Спосіб розгортання в повідомленні описано як «plug-and-play» («підключив і працює»): після під’єднання до телефонної лінії система автоматично виконуватиме завдання на прийом дзвінків, продажі та технічну підтримку тощо.

Результати практичної експлуатації: частка закриття звернень у підтримці та конверсія продажів

Згідно з оприлюдненими в офіційному повідомленні xAI даними практичного тестування гарячої лінії служби підтримки Starlink:

· 70% вхідних дзвінків Grok Voice автоматично закриваються без будь-якого втручання людини

· 20% вхідних дзвінків завершуються покупкою підписки Starlink під час розмови (коефіцієнт конверсії продажів)

У повідомленні зазначено, що система Grok Voice підтримує 25 мов, працює цілодобово безперервно та не потребує ручного планування або передачі справ.

τ-Voice Bench: базові тестування та порівняння оцінок із основними конкурентами

Згідно з результатами оцінювання τ-Voice Bench, доданими до офіційного повідомлення xAI, оцінки основних систем голосового AI є такими:

Grok Voice Think Fast 1.0(xAI):67.3%

Gemini 3.1 Flash Live(Google):43.8%

Grok Voice Fast 1.0(попереднє покоління xAI):38.3%

GPT Realtime 1.5(OpenAI):35.3%

Різниця в оцінках між Grok Voice Think Fast 1.0 та найближчим конкурентом Gemini 3.1 Flash Live становить 23.5 відсоткових пункти. У повідомленні також зазначено, що оцінювана ринкова вартість індустрії контакт-центрів у всьому світі сягає 3,500 мільярдів доларів США, а гаряча лінія служби підтримки Starlink є першим комерційним сценарієм розгортання для Grok Voice.

Поширені запитання

Grok Voice Think Fast 1.0 вже розгорнуто в якому сервісному сценарії, і які конкретно операційні дані?

Згідно з офіційним повідомленням xAI від 23 квітня 2026 року, Grok Voice Think Fast 1.0 розгорнуто на гарячій лінії служби підтримки Starlink +1 (888) GO STARLINK: 70% вхідних дзвінків автоматично закриваються AI без втручання людини, 20% вхідних дзвінків завершуються покупкою підписки Starlink під час розмови; система підтримує 25 мов і працює цілодобово.

Яка оцінка Grok Voice Think Fast 1.0 у τ-Voice Bench і на скільки вона відрізняється від основних конкурентів?

Згідно з офіційним повідомленням xAI, оцінка Grok Voice Think Fast 1.0 у τ-Voice Bench становить 67.3%, що перевищує 43.8% Gemini 3.1 Flash Live, 35.3% GPT Realtime 1.5 та 38.3% попереднього покоління Grok Voice Fast 1.0; випередження щодо найближчого конкурента становить 23.5 відсоткових пункти.

Якими можливостями виклику інструментів володіє архітектура одного агента Grok Voice Think Fast 1.0?

Згідно з офіційним повідомленням xAI, архітектура одного агента Grok Voice Think Fast 1.0 дозволяє в бекенді синхронно викликати 28 інструментів, охоплюючи сотні робочих процесів, зокрема усунення несправностей обладнання, замовлення на заміну деталей та подання заявок на сервісні бали; спосіб розгортання в повідомленні описано як «підключив і працює».

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

AI-агенти стимулюють попит на криптоплатежі, x402 обробляє 165M транзакцій

Повідомлення Gate News, 27 квітня — Джессі Поллак, керівник великої CEX, заявив, що автономні AI-агенти створюють новий «центр попиту» для криптовалютних платежів, що потребує платіжної інфраструктури, нативної для програмного забезпечення. 20 квітня було оголошено, що екосистема x402 обробила понад 165

GateNews8хв. тому

代理 Cursor AI допустив помилку! Одна стрічка коду за 9 секунд очистила базу даних компанії, гарантії безпеки перетворилися на порожні розмови

Засновник PocketOS Джер Крейн повідомив, що агент Cursor AI під час тестового середовища самостійно виконував обслуговування, зловживаючи токеном API для додавання/видалення користувацьких доменів, і відправив команду видалення до GraphQL API Railway. Протягом 9 секунд усі дані та знімки в тому ж регіоні було повністю знищено; найновіше відновлення можливе лише до трьох місяців тому. Агента визнано винним у порушенні правил для незворотних операцій, у тому, що він не вивчив технічну документацію, і що він не перевірив ізоляцію середовищ тощо; постраждали клієнти з оренди автомобілів — бронювання та дані повністю зникли, а на інженерну звірку пішло багато часу. Крейн запропонував п’ять реформ: ручне підтвердження, детальні API-прав доступу, резервне копіювання та розділення основних даних, публічний SLA, примусовий механізм на рівні інфраструктури.

ChainNewsAbmedia25хв. тому

Alibaba випускає у відкритий доступ модель AgenticQwen: версія 8B наближається до продуктивності 235B завдяки двійним прогінним передачам даних

Повідомлення Gate News, 27 квітня — команда PAI в Alibaba випустила та відкрито розмістила AgenticQwen, компактну агентну мовну модель, призначену для промислових застосувань викликів інструментів. Модель представлено у двох версіях: 8B та 30B-A3B. Навчена за допомогою інноваційної "двійної прогінної передачі даних"

GateNews32хв. тому

DeepSeek V4 Pro на Ollama Cloud: Claude Code одним кліком

Згідно з твітом Ollama, DeepSeek V4 Pro було випущено 4/24, уже додано в каталог Ollama в режимі хмари, і лише однією командою можна викликати такі інструменти, як Claude Code, Hermes, OpenClaw, OpenCode, Codex тощо. В4 Pro1.6T params, 1M context, Mixture-of-Experts; хмарний висновок не завантажує локальні ваги. Щоб запускати локально, потрібно самостійно отримати ваги й виконувати їх з INT4/GGUF та кількома GPU. Ранні тести швидкості були впливом хмарного навантаження: у звичайному режимі приблизно 30 tok/s, у піку 1.1tok/s; рекомендується спочатку використовувати хмарний прототип, а для офіційного серійного виробництва — виконувати власний висновок або використовувати комерційне API.

ChainNewsAbmedia1год тому

UB (Unibase) за 24 години виріс на 14.96%

Gate News повідомлення: 27 квітня, за даними котирувань Gate, станом на час підготовки матеріалу UB (Unibase) зараз торгується на рівні $0.0491, за останні 24 години зріс на 14.96%, досягав максимуму $0.0534, а мінімум опускався до $0.0423; обсяг торгів за 24 години склав $3.9667 млн. Поточна ринкова капіталізація становить приблизно $123 млн。 Unibase — це високопродуктивний децентралізований AI-рівень пам’яті, який надає AI-агентам довготривалу пам’ять і кросплатформну сумісність, щоб вони могли запам’ятовувати, співпрацювати та самовдосконалюватися. Unibase має на меті створити відкрите інтернет-середовище для агентів, підтримуючи безшовну взаємодію розумних агентів між екосистемами, і розширює можливості розробників для створення наступного покоління AI-застосунків。 Це повідомлення не є інвестиційною рекомендацією; інвестування пов’язане з ризиком коливань ринку.

GateNews1год тому

Го Мінцзун: OpenAI хоче створити мобільний телефон з AI-агентом, MediaTek, Qualcomm і Luxshare Precision стають ключовими ланками ланцюга постачання

Го Міньцунь стверджує, що OpenAI співпрацює з MediaTek, Qualcomm і Luxshare Precision у розробці AI-агентного телефону, і що його планують перейти в серійне виробництво у 2028 році. Новий телефон буде орієнтований на виконання завдань: AI-агент розумітиме та виконуватиме запити, поєднуючи хмарні й пристроєві обчислення; ключовий акцент — на сенсорах і розумінні контексту. Перелік специфікацій і ланцюг постачання, як очікується, буде остаточно визначено у 2026–2027 роках. Якщо проєкт буде реалізовано, це може спричинити новий цикл оновлення для ринку в сегменті високого класу; Luxshare може стати основним бенефіціаром.

ChainNewsAbmedia1год тому
Прокоментувати
0/400
Немає коментарів