Google Cloud hợp tác NVIDIA đánh chiếm thị trường điện toán AI

Google Cloud và NVIDIA vừa chính thức tuyên bố một thỏa thuận hợp tác chung đầy hứa hẹn, với mục tiêu cung cấp cơ sở hạ tầng chất lượng cao cho thị trường điện toán AI thế hệ tiếp theo, bao gồm hai khía cạnh đang phát triển nóng là khoa học dữ liệu và AI sáng tạo.

Nói theo cách dễ hiểu, Google Cloud và NVIDIA sẽ cùng bắt tay phát triển cơ sở hạ tầng và phần mềm AI mới, phục vụ nhu cầu của khách hàng trong việc xây dựng và triển khai các mô hình lớn cho khối lượng công việc liên quan khoa học dữ liệu và AI tổng hợp.

Trong khuôn khổ sự kiện Google Cloud Next diễn ra mới đây, Giám đốc điều hành Google Cloud Thomas Kurian và nhà sáng lập kiêm Giám đốc điều hành NVIDIA Jensen Huang đã cùng thảo luận về cách thức hai công ty có thể cùng tác để mang lại các dịch vụ máy học toàn diện cho những khách hàng AI lớn nhất trên thế giới - bao gồm cả việc tạo ra nó siêu máy tính AI để chạy với các dịch vụ Google Cloud được xây dựng trên công nghệ NVIDIA. Việc tích hợp phần cứng và phần mềm mới sử dụng cùng các công nghệ NVIDIA được Google DeepMind và nhóm nghiên cứu của Google sử dụng trong hai năm qua.

Google Cloud hợp tác NVIDIA

Phần mềm Google Cloud kết hợp phần cứng NVIDIA

Framework xây dựng mô hình ngôn ngữ lớn (LLM) PaxML của Google hiện đã được tối ưu hóa cho điện toán tăng tốc của NVIDIA. B

Trên thực tế, PaxML ban đầu được xây dựng nhằm mang đến khả năng hỗ trợ tốt hơn chi Google TPU, nhưng hiện đã cho phép các nhà phát triển sử dụng GPU Tensor Core H100 và A100 để thử nghiệm cũng như mở rộng quy mô nâng cao và có thể định cấu hình đầy đủ. Bộ chứa PaxML được tối ưu hóa cho GPU hiện khả dụng ngay trong danh mục phần mềm NVIDIA NGC. Ngoài ra, PaxML chạy trên JAX, đã được tối ưu hóa cho các GPU tận dụng trình biên dịch OpenXLA.

Các thông báo về phần cứng và phần mềm đang chú ý khác giữa hai công ty bao gồm:

  • Google Cloud trên các máy ảo A3 được cung cấp sức mạnh bởi GPU NVIDIA H100: Các máy ảo Google Cloud A3 được phát triển dựa trên nền tảng phần cứng GPU H100 sẽ ra mắt rộng rãi vào tháng 9. Điều này hứa hẹn sẽ giúp nền tảng AI của NVIDIA trở nên linh hoạt hơn cho nhiều khối lượng công việc khác nhau. So với thế hệ trước, máy ảo A3 cung cấp khả năng đào tạo nhanh hơn gấp 3 lần và băng thông mạng được cải thiện đáng kể.
  • GPU H100 hỗ trợ nền tảng Vertex AI của Google Cloud: GPU H100 dự kiến sẽ có mặt rộng rãi trên VertexAI trong những tuần tới, cho phép khách hàng nhanh chóng phát triển các LLM AI tổng hợp.
  • Google Cloud có quyền truy cập vào DGX GH200: Google Cloud sẽ là một trong những công ty đầu tiên trên thế giới có quyền truy cập vào siêu máy tính NVIDIA DGX GH200 AI nhằm khám phá khả năng của NVIDIA Grace Hopper Superchip đối với các khối lượng công việc AI tổng hợp.
  • DGX Cloud sắp có mặt trên Google Cloud: Siêu máy tính và phần mềm DGX Cloud AI sẽ khả dụng cho khách hàng ngay từ trình duyệt web, hứa hẹn cung cấp tốc độ và quy mô đủ để đáp ứng khối lượng công việc đào tạo nâng cao.
  • NVIDIA AI Enterprise trên Google Cloud Marketplace: Người dùng có thể truy cập AI Enterprise, một nền tảng phần mềm gốc đám mây an toàn giúp đơn giản hóa việc phát triển và triển khai các ứng dụng sẵn sàng cho doanh nghiệp bao gồm AI tổng hợp, AI giọng nói, thị giác máy tính (computer vision), v.v.
  • Google Cloud lần đầu tiên cung cấp GPU NVIDIA L4: Đầu năm nay, Google Cloud đã trở thành nền tảng đám mây đầu tiên cung cấp GPU L4 Tensor Core với sự ra mắt của G2 VM. Khách hàng của NVIDIA chuyển sang GPU L4 từ CPU cho khối lượng công việc video AI có thể nhận thấy hiệu năng cao hơn tới 120 lần với hiệu suất tốt hơn 99%. GPU L4 được sử dụng rộng rãi để tạo hình ảnh và văn bản, cũng như chuyển mã âm thanh/video được tăng tốc VDI và AI.
Thứ Tư, 30/08/2023 19:50
51 👨 181
0 Bình luận
Sắp xếp theo
    ❖ Chuyện công nghệ