Nvidia dẫn đầu trong lĩnh vực phần cứng AI với các chip Rubin mới hơn khi tập đoàn chuẩn bị thử nghiệm với khách hàng vào cuối năm nay
Nội dungRubin tiến gần hơn đến thử nghiệm khách hàngHiệu quả và cải thiện hiệu suấtCác nhà cung cấp đám mây chuẩn bị triển khaiGiới thiệu này là một dấu hiệu cho thấy Nvidia đang cố gắng mở rộng hơn nữa sự thống trị của mình trong lĩnh vực tính toán AI trung tâm dữ liệu. Theo công ty, phần cứng mới không chỉ nhanh hơn mà còn rẻ hơn để vận hành và đã sẵn sàng đúng hạn.
Nvidia cũng đảm bảo rằng tất cả sáu chip Rubin đã trở lại tay các đối tác sản xuất. Các chip đã trải qua một số bài kiểm tra nội bộ. Công ty cho biết các thử nghiệm với khách hàng sẽ bắt đầu sớm.
Cập nhật này được Giám đốc điều hành Jensen Huang công bố trong bài phát biểu chính tại Hội chợ Điện tử Tiêu dùng ở Las Vegas. Ông tuyên bố rằng cuộc đua dẫn đầu về AI đang tăng tốc hơn trên toàn thế giới. Nvidia dự đoán nhu cầu cao liên tục đối với các bộ tăng tốc tiên tiến.
Rubin tiến gần hơn đến thử nghiệm khách hàng
Rubin là thế hệ mới nhất của các bộ tăng tốc AI từ Nvidia. Nó ra mắt sau Blackwell, vốn nổi tiếng trong các trung tâm dữ liệu. Nvidia khẳng định rằng Rubin có thể tạo ra bước nhảy lớn về hiệu suất.
Theo công ty, Rubin cung cấp đào tạo trí tuệ nhân tạo nhanh gấp ba rưỡi lần so với Blackwell. Nó cũng nhanh hơn gấp năm lần về hiệu suất với các tác vụ AI. Đào tạo liên quan đến việc tạo ra các mô hình với sự hỗ trợ của các tập dữ liệu lớn. Phân tích dự đoán liên quan đến việc sử dụng mô hình đã được huấn luyện trong thời gian thực.
Mỗi chip Rubin đã trải qua xác nhận ban đầu. Nvidia nhấn mạnh rằng việc chuẩn bị kịp thời là điều cần thiết cho các khách hàng đang vội vàng triển khai hệ thống AI. Các doanh nghiệp và nhà cung cấp đám mây cần phần cứng nhanh hơn và hiệu quả hơn.
Cải thiện hiệu quả và hiệu suất
Rubin giới thiệu một bộ xử lý trung tâm mới có 88 lõi. Theo Nvidia, CPU này có hiệu suất gấp đôi so với phiên bản trước. Công suất bổ sung giúp xử lý các hoạt động AI phức tạp hơn.
Các hệ thống AI hiện tại dựa trên nhiều mô hình tương tác với nhau. Đây là các hệ thống xử lý lập kế hoạch, lý luận cũng như ra quyết định. Theo Nvidia, Rubin hướng tới các tải trọng phức tạp như vậy.
Chi phí vận hành thấp hơn cũng là một phần trọng tâm của công ty. Hệ thống dựa trên Rubin có thể đạt được cùng một kết quả với số lượng thành phần nhỏ hơn. Điều này giúp tiết kiệm năng lượng tiêu thụ và chi phí trung tâm dữ liệu.
Tại sự kiện GTC mùa xuân của mình, tổ chức tại California, Nvidia sẽ trình bày toàn bộ thông tin kỹ thuật. Công ty đang giữ lại ít thông tin hơn cho đến thời điểm đó. Kế hoạch vẫn tập trung vào lộ trình phần cứng.
Các nhà cung cấp đám mây chuẩn bị triển khai
Rubin sẽ được các công ty đám mây lớn sử dụng trong nửa cuối năm nay. Đó là Microsoft, Google Cloud và Amazon Web Services. Họ đóng góp một phần đáng kể vào doanh thu hệ thống AI của Nvidia.
Nvidia sẽ vận hành các siêu máy tính của mình, DGX SuperPod, trên các chip Rubin. Các chip này cũng sẽ được bán riêng lẻ cho khách hàng. Điều này giúp tăng tính linh hoạt trong thiết kế hệ thống.
Cuộc cạnh tranh cho các chip AI vẫn đang gia tăng. Các đối thủ như Advanced Micro Devices đang quảng cáo các sản phẩm của riêng họ. Một số công ty công nghệ cũng đang tự tạo ra các chip nội bộ.
Nhu cầu dài hạn không phải là điều Nvidia lo lắng. Công ty nghĩ rằng chi tiêu cho AI có thể chạm tới hàng nghìn tỷ đô la. Nhu cầu này đang tăng trong các dịch vụ đám mây, doanh nghiệp và các ngành công nghiệp mới.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Nvidia dẫn đầu trong AI với các chip Rubin mới sắp ra mắt
Nvidia dẫn đầu trong lĩnh vực phần cứng AI với các chip Rubin mới hơn khi tập đoàn chuẩn bị thử nghiệm với khách hàng vào cuối năm nay
Nội dungRubin tiến gần hơn đến thử nghiệm khách hàngHiệu quả và cải thiện hiệu suấtCác nhà cung cấp đám mây chuẩn bị triển khaiGiới thiệu này là một dấu hiệu cho thấy Nvidia đang cố gắng mở rộng hơn nữa sự thống trị của mình trong lĩnh vực tính toán AI trung tâm dữ liệu. Theo công ty, phần cứng mới không chỉ nhanh hơn mà còn rẻ hơn để vận hành và đã sẵn sàng đúng hạn.
Nvidia cũng đảm bảo rằng tất cả sáu chip Rubin đã trở lại tay các đối tác sản xuất. Các chip đã trải qua một số bài kiểm tra nội bộ. Công ty cho biết các thử nghiệm với khách hàng sẽ bắt đầu sớm.
Cập nhật này được Giám đốc điều hành Jensen Huang công bố trong bài phát biểu chính tại Hội chợ Điện tử Tiêu dùng ở Las Vegas. Ông tuyên bố rằng cuộc đua dẫn đầu về AI đang tăng tốc hơn trên toàn thế giới. Nvidia dự đoán nhu cầu cao liên tục đối với các bộ tăng tốc tiên tiến.
Rubin tiến gần hơn đến thử nghiệm khách hàng
Rubin là thế hệ mới nhất của các bộ tăng tốc AI từ Nvidia. Nó ra mắt sau Blackwell, vốn nổi tiếng trong các trung tâm dữ liệu. Nvidia khẳng định rằng Rubin có thể tạo ra bước nhảy lớn về hiệu suất.
Theo công ty, Rubin cung cấp đào tạo trí tuệ nhân tạo nhanh gấp ba rưỡi lần so với Blackwell. Nó cũng nhanh hơn gấp năm lần về hiệu suất với các tác vụ AI. Đào tạo liên quan đến việc tạo ra các mô hình với sự hỗ trợ của các tập dữ liệu lớn. Phân tích dự đoán liên quan đến việc sử dụng mô hình đã được huấn luyện trong thời gian thực.
Mỗi chip Rubin đã trải qua xác nhận ban đầu. Nvidia nhấn mạnh rằng việc chuẩn bị kịp thời là điều cần thiết cho các khách hàng đang vội vàng triển khai hệ thống AI. Các doanh nghiệp và nhà cung cấp đám mây cần phần cứng nhanh hơn và hiệu quả hơn.
Cải thiện hiệu quả và hiệu suất
Rubin giới thiệu một bộ xử lý trung tâm mới có 88 lõi. Theo Nvidia, CPU này có hiệu suất gấp đôi so với phiên bản trước. Công suất bổ sung giúp xử lý các hoạt động AI phức tạp hơn.
Các hệ thống AI hiện tại dựa trên nhiều mô hình tương tác với nhau. Đây là các hệ thống xử lý lập kế hoạch, lý luận cũng như ra quyết định. Theo Nvidia, Rubin hướng tới các tải trọng phức tạp như vậy.
Chi phí vận hành thấp hơn cũng là một phần trọng tâm của công ty. Hệ thống dựa trên Rubin có thể đạt được cùng một kết quả với số lượng thành phần nhỏ hơn. Điều này giúp tiết kiệm năng lượng tiêu thụ và chi phí trung tâm dữ liệu.
Tại sự kiện GTC mùa xuân của mình, tổ chức tại California, Nvidia sẽ trình bày toàn bộ thông tin kỹ thuật. Công ty đang giữ lại ít thông tin hơn cho đến thời điểm đó. Kế hoạch vẫn tập trung vào lộ trình phần cứng.
Các nhà cung cấp đám mây chuẩn bị triển khai
Rubin sẽ được các công ty đám mây lớn sử dụng trong nửa cuối năm nay. Đó là Microsoft, Google Cloud và Amazon Web Services. Họ đóng góp một phần đáng kể vào doanh thu hệ thống AI của Nvidia.
Nvidia sẽ vận hành các siêu máy tính của mình, DGX SuperPod, trên các chip Rubin. Các chip này cũng sẽ được bán riêng lẻ cho khách hàng. Điều này giúp tăng tính linh hoạt trong thiết kế hệ thống.
Cuộc cạnh tranh cho các chip AI vẫn đang gia tăng. Các đối thủ như Advanced Micro Devices đang quảng cáo các sản phẩm của riêng họ. Một số công ty công nghệ cũng đang tự tạo ra các chip nội bộ.
Nhu cầu dài hạn không phải là điều Nvidia lo lắng. Công ty nghĩ rằng chi tiêu cho AI có thể chạm tới hàng nghìn tỷ đô la. Nhu cầu này đang tăng trong các dịch vụ đám mây, doanh nghiệp và các ngành công nghiệp mới.