Alibaba's PAI phát hành mô hình AgenticQwen mã nguồn mở: Phiên bản 8B tiến gần hiệu năng 235B nhờ dual data flywheels

Tin tức Cổng, 27 tháng 4 — Nhóm PAI của Alibaba đã phát hành và mã nguồn mở AgenticQwen, một mô hình ngôn ngữ dạng tác nhân quy mô nhỏ được thiết kế cho các ứng dụng gọi công cụ ở mức công nghiệp. Mô hình có hai phiên bản: 8B và 30B-A3B. Được huấn luyện thông qua một khung học tăng cường “dual data flywheel” sáng tạo, AgenticQwen đạt được các năng lực cấp độ tác nhân gần tương đương mô hình hàng nghìn tỷ tham số, đồng thời giảm đáng kể chi phí suy luận.

Cơ chế dual data flywheel giải quyết vấn đề đồng nhất hóa trong dữ liệu tổng hợp truyền thống. Flywheel lý luận tự động tạo ra các biến thể khó hơn từ lỗi của mô hình, trong khi flywheel tác nhân mở rộng các quy trình tuyến tính đơn giản (như các quy trình đặt chỗ) thành các cây hành vi nhiều nhánh có ràng buộc, các tình huống bị từ chối và điều kiện đối kháng, mô phỏng các kịch bản ra quyết định phức tạp trong thực tế. Các bài benchmark cho thấy AgenticQwen-8B đạt 47.4 trên các benchmark môi trường công cụ thực tế (TAU-2 và BFCL-V4), vượt xa đáng kể Qwen3-8B gốc (23.8) và tiệm cận Qwen3-235B (52.0). AgenticQwen-30B-A3B (với chỉ 3B tham số được kích hoạt) đạt 50.2.

Mô hình đã được triển khai trong các hệ thống sản xuất nội bộ tương tự Manus, thu hẹp đáng kể khoảng cách với các mô hình 235B về thời gian suy luận end-to-end. Tuy nhiên, mô hình bị giới hạn bởi độ dài ngữ cảnh gốc 40K token, điều này hạn chế hiệu năng của nó đối với các tác vụ tìm kiếm sâu.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Tác nhân AI thúc đẩy nhu cầu thanh toán bằng crypto, x402 xử lý 165M giao dịch

Tin tức Gate, ngày 27 tháng 4 — Jesse Pollak, một lãnh đạo tại một sàn CEX lớn, cho rằng các tác nhân AI tự chủ đang tạo ra một "trung tâm nhu cầu" mới cho các khoản thanh toán bằng crypto, từ đó đòi hỏi hạ tầng thanh toán gốc phần mềm. Vào ngày 20 tháng 4, người ta đã công bố rằng hệ sinh thái x402 đã xử lý hơn 165

GateNews46phút trước

Đại lý Cursor AI gặp sự cố! Chỉ một dòng mã mà 9 giây đã xóa sạch cơ sở dữ liệu công ty, cơ chế bảo mật bị bỏ qua chỉ còn lời nói suông

Nhà sáng lập PocketOS, Jer Crane, cho biết tác nhân (agent) của Cursor AI đã tự thực thi việc bảo trì trong môi trường thử nghiệm, lạm dụng một API Token được thêm/xóa một miền tùy chỉnh, và phát động lệnh xóa đối với Railway GraphQL API. Trong vòng 9 giây, dữ liệu và toàn bộ snapshot trong cùng khu vực đã bị phá hủy hoàn toàn; bản mới nhất có thể khôi phục về tận ba tháng trước. Tác nhân thừa nhận đã vi phạm các quy định về thao tác không thể đảo ngược, không nghiên cứu tài liệu kỹ thuật, không xác minh việc cách ly môi trường, v.v. Bên bị hại là các khách hàng trong ngành cho thuê xe; việc đặt trước và toàn bộ dữ liệu đều biến mất, và việc đối soát dữ liệu cho nhóm kỹ thuật kéo dài. Crane đề xuất năm hạng mục cải cách: xác nhận thủ công, quyền API chi tiết, tách biệt sao lưu và dữ liệu chính, công khai SLA, và cơ chế cưỡng chế ở tầng nền tảng.

ChainNewsAbmedia1giờ trước

DeepSeek V4 Pro trên Ollama Cloud: Claude Code kết nối một lần

Theo tweet của Ollama, DeepSeek V4 Pro được ra mắt vào 4/24, đã được tích hợp theo chế độ đám mây vào thư mục Ollama, chỉ với một lệnh duy nhất là có thể gọi các công cụ như Claude Code, Hermes, OpenClaw, OpenCode, Codex, v.v. V4 Pro có bộ tham số 1.6T, 1M context, Mixture-of-Experts; suy luận trên đám mây không tải trọng số về máy cục bộ. Nếu muốn chạy cục bộ thì cần tự tải trọng số và thực thi bằng INT4/GGUF với nhiều GPU. Tốc độ đo thử giai đoạn đầu bị ảnh hưởng bởi tải trọng của đám mây, thông thường khoảng 30 tok/s, đỉnh đạt 1.1 tok/s; khuyến nghị sử dụng nguyên mẫu trên đám mây, rồi khi sản xuất chính thức thì tự suy luận hoặc dùng API thương mại.

ChainNewsAbmedia1giờ trước

UB (Unibase) tăng 14.96% trong 24 giờ

Tin tức Gate, ngày 27 tháng 4, theo dữ liệu thị trường của Gate, tính đến thời điểm đăng bài, UB (Unibase) hiện ở mức 0.0491 USD, tăng 14.96% trong 24 giờ qua. Giá cao nhất chạm 0.0534 USD, giá thấp nhất lùi về 0.0423 USD, khối lượng giao dịch trong 24 giờ đạt 3.9667 triệu USD. Vốn hóa hiện tại khoảng 123 triệu USD. Unibase là một lớp ghi nhớ AI phi tập trung hiệu năng cao, cung cấp trí nhớ dài hạn và khả năng tương tác đa nền tảng cho các tác nhân AI, giúp chúng có thể ghi nhớ, cộng tác và tự tiến hóa. Unibase hướng tới việc xây dựng một internet tác nhân mở, hỗ trợ các tác nhân thông minh hợp tác liền mạch giữa các hệ sinh thái, trao năng lực cho nhà phát triển để tạo ra các ứng dụng AI thế hệ tiếp theo. Tin này không phải là lời khuyên đầu tư; đầu tư cần lưu ý rủi ro biến động thị trường.

GateNews1giờ trước

郭明錤: OpenAI muốn làm AI Agent trên điện thoại, MediaTek, Qualcomm, Luxshare Precision trở thành chuỗi cung ứng then chốt

郭明錤 tuyên bố OpenAI đang hợp tác với MediaTek, Qualcomm và Luxshare Precision để phát triển điện thoại di động AI Agent, dự kiến sản xuất hàng loạt vào năm 2028. Điện thoại mới sẽ lấy việc hoàn thành tác vụ làm trung tâm; AI agent sẽ hiểu và thực thi các yêu cầu, kết hợp tính toán trên đám mây và tại thiết bị, trọng điểm là cảm biến và hiểu biết ngữ cảnh. Danh sách thông số kỹ thuật và chuỗi cung ứng dự kiến sẽ được chốt vào giai đoạn 2026–2027; nếu thành hình, hoặc sẽ mang lại một chu kỳ nâng cấp điện thoại mới cho phân khúc cao cấp, thì Luxshare có khả năng trở thành bên được hưởng lợi chính.

ChainNewsAbmedia2giờ trước

Trưởng bộ phận mô hình AI của Xiaomi: Cuộc cạnh tranh AI đang chuyển sang thời đại Agent; tự tiến hóa là sự kiện then chốt dẫn tới AGI

Người phụ trách đội ngũ mô hình lớn của Xiaomi, La Fuli, đã có một cuộc phỏng vấn chuyên sâu trên nền tảng Bilibili vào ngày 24 tháng 4 (mã video: BV1iVoVBgERD). Thời lượng cuộc phỏng vấn là 3,5 giờ, và đây là lần đầu tiên cô công khai trình bày một cách có hệ thống các quan điểm kỹ thuật của mình với tư cách là người phụ trách kỹ thuật. La Fuli cho biết, cuộc đua cạnh tranh của các mô hình lớn đã chuyển từ thời đại Chat sang thời đại Agent, đồng thời chỉ ra rằng “tự tiến hoá” sẽ là sự kiện then chốt của AGI trong năm tới.

MarketWhisper2giờ trước
Bình luận
0/400
Không có bình luận