Mini GPU Nvidia sẽ đưa trí tuệ nhân tạo vào các trung tâm dữ liệu

Các mini GPU Nvidia mới sẽ có thể cắm vào khe PCIe để tăng hiệu suất tức thì. Trong nỗ lực giảm bớt các rào cản khi gia nhập lĩnh vực máy tính hiệu suất cao, Nvidia đã công bố hai GPU mini mới có thể cắm vào cả máy chủ doanh nghiệp và máy trạm đang có hiện nay.

GPU A10 và A30 đều dựa trên kiến ​​trúc Ampere và sẽ có thể cắm tương ứng với một hoặc hai cổng PCIe có chiều dài đầy đủ.

Phát biểu với The Register, Manuvir Das, người đứng đầu mảng điện toán doanh nghiệp của Nvidia, lý giải rằng các card mới này là sự thể hiện những nỗ lực của Nvidia nhằm cung cấp cho người dùng phương tiện để giải quyết khối lượng công việc của Trí tuệ nhân tạo (AI) trên phần cứng trung tâm dữ liệu và các tủ rack máy chủ thông thường.

Tính toán với chi phí rẻ

Das đảm bảo thêm rằng nền tảng EGX dựa trên Kubernetes của Nvidia dành cho máy học ở “biên network” (the edge of the network) sẽ hoạt động khá tốt với các GPU mới này.

Được biết, Nvidia đã có thể liên kết với nhiều nhà sản xuất máy chủ lớn bao gồm Dell, Lenovo, H3C, Inspur, QCT và Supermicro để đóng gói A10 và A30 bên trong các dịch vụ trung tâm dữ liệu và doanh nghiệp của họ.

Các mini GPU mới A10 và A30 có giá tương ứng khoảng $ 2000 và $ 3000. A10 được đánh giá tiêu thụ điện năng ở mức  DP 150W, và nhờ bộ nhớ GDDR6 24GB có thể tạo ra 31,2 teraFLOPS “chính xác đơn”. Mặt khác, A30 được tiêu thụ điện ở mức 165W và với sự trợ giúp của bộ nhớ băng thông cao 24GB v2 mang lại 10,3 teraFLOPS “chính xác đơn”.

Trong khi A10 sẽ được bán vào cuối tháng này, A30 được dự kiến ​​sẽ ra mắt vào cuối năm nay.

* These new Nvidia mini GPUs will help bring AI to the datacenter | TechRadar

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *

Back to top button