Trong 15 năm qua, Amazon Web Services đã trở thành nhà thầu đáng tin cậy cho bất kỳ ai muốn xây dựng thứ gì đó trực tuyến, từ một trang web, một ứng dụng đến một dịch vụ phần mềm kinh doanh. AWS đã trở thành một doanh nghiệp trị giá 80 tỷ USD với tỷ suất lợi nhuận cao và lượng khách hàng khổng lồ, gắn bó.
Sự trỗi dậy của AI thế hệ mới đã tạo ra cái mà một số nhà công nghệ gọi là Đám mây 2.0. Một loạt phần cứng, phần mềm, công cụ và dịch vụ mới sẽ hỗ trợ các ứng dụng AI trong nhiều năm tới.
Hiện tại, AWS có vẻ không phải là người dẫn đầu, trong khi Nvidia lại có khởi đầu thuận lợi.
Nvidia thiết kế và bán GPU là loại chip được hầu hết những công ty tạo ra các mô hình ngôn ngữ lớn và các mô hình AI lớn khác sử dụng. Những thành phần này đã được các nhà nghiên cứu AI sử dụng hơn một thập kỷ trước khi Andrew Ng và những người khác phát hiện ra GPU có thể xử lý song song nhiều tính toán. Ngược lại, AWS đã ra mắt GPU Trainium để đào tạo mô hình AI vào tháng 12/2020, gần một thập kỷ sau.
Trong thập kỷ đó, Nvidia cũng đã xây dựng nền tảng xung quanh GPU của mình để giúp các nhà phát triển AI thực hiện công việc của họ. Công ty đã tạo ra các trình biên dịch, trình điều khiển, hệ điều hành, công cụ, thư viện mã, ghi chú và video đào tạo, v.v. Cốt lõi của nền tảng này là ngôn ngữ lập trình có tên CUDA.
Hiện có hơn 4 triệu nhà phát triển Nvidia đã đăng ký sử dụng CUDA. Con số này tăng từ 2 triệu vào tháng 8/2020. Thứ mới nhất mà AWS có hiện nay là Neuron, phát hành vào năm 2019, còn CUDA đã ra mắt vào năm 2007.
ĐÁM MÂY 2.0
Một điểm quan trọng khác ở đây: Hầu hết các nhà phát triển AI đều đã biết cách sử dụng CUDA và GPU Nvidia. Tất cả các thủ thuật, lối tắt đều được nhúng vào cộng đồng.
Có thể cho rằng, Nvidia đã tạo ra một nền tảng đám mây AI – như AWS đã từng làm trong kỷ nguyên Đám mây 1.0.
Luis Ceze, CEO và đồng sáng lập của công ty khởi nghiệp AI OctoML cho biết: “Nvidia đã đặt cược vào AI trong một thời gian dài. Họ có mức độ trưởng thành về phần mềm mà không nhà cung cấp nào có thể sánh được”.
Cuộc đua Cloud 2.0 thực sự bắt đầu vào cuối tháng 9 khi Amazon công bố khoản đầu tư lên tới 4 tỷ USD vào startup AI mang tên Anthropic. Công ty tương đối nhỏ có trụ sở tại San Francisco này có rất nhiều nhà nghiên cứu đã giúp tạo ra công nghệ GPT cốt lõi, trung tâm của sự bùng nổ AI hiện nay. Anthropic có một trong những mô hình AI lớn có khả năng nhất hiện nay, được gọi là Claude.
Anthropic hiện sẽ sử dụng chip Trainium và Inferentia nội bộ của AWS để xây dựng, đào tạo và triển khai các mô hình AI trong tương lai của mình, đồng thời hai công ty sẽ hợp tác phát triển công nghệ Trainium và Inferentia trong tương lai.
Để bắt kịp Nvidia, AWS thực sự cần một nhà phát triển nổi tiếng như thế này. Họ cần các công ty xây dựng mô hình AI tự tin rằng silicon tốt và phần mềm đã hoàn thiện."
TRÁNH “THUẾ NVIDIA”
Việc tự tạo ra chip AI là một lợi thế thực sự quan trọng để giành chiến thắng trong cuộc đua Cloud 2.0. Nếu AWS phải tiếp tục mua GPU Nvidia, họ sẽ phải trả một khoản lãi cho Nvidia. Một số chuyên gia AI gọi đây là “thuế Nvidia”. Điều đó sẽ khiến cho việc vận hành các dịch vụ đám mây Trainium và Inferentia của AWS trở nên đắt đỏ hơn.
Thay vào đó, nếu AWS có thể tự sản xuất chip AI thì họ sẽ không phải chia tỷ suất lợi nhuận cho Nvidia. Điều đó có nghĩa là họ có thể cung cấp các dịch vụ đám mây suy luận và đào tạo AI với chi phí hiệu quả hơn.
Tại một sự kiện AWS gần đây ở Seattle, Selipsky, Giám đốc điều hành của AWS, đã đưa ra thông điệp: Các dịch vụ đám mây AI của AWS sẽ có khả năng cạnh tranh dựa trên "hiệu suất giá". Điều này có nghĩa là việc xây dựng các mô hình AI trên AWS sẽ hiệu quả hơn.
Trong kỷ nguyên Đám mây 1.0, AWS đã thực hiện được điều này một phần thông qua việc mua lại Annapurna Labs vào năm 2015. Công ty khởi nghiệp này đã giúp Amazon thiết kế CPU Gravitron của riêng mình cho các trung tâm dữ liệu đám mây. Đột nhiên, AWS không còn cần mua nhiều chip Xeon đắt tiền từ Intel nữa. Đây là yếu tố quan trọng giúp AWS trở thành nhà cung cấp đám mây có tính cạnh tranh và thành công như vậy.
Tuy nhiên, vấn đề là dù AWS có thể có chip AI tuyệt vời với mức giá hấp dẫn, nhưng liệu có ai rời bỏ GPU Nvidia và nền tảng CUDA không? Nếu không, AWS có thể không giành được vị trí thống trị Cloud 2.0 như cách đã làm với Cloud 1.0.
Hiện tại, Nvidia có lẽ đang mang lại một sự kết hợp tốt nhất cho các nhà phát triển trí tuệ nhân tạo. Bởi thế, rời khỏi Nvidia là điều không dễ dàng.
Các công ty cho biết Nvidia vẫn còn 2 lợi ích chính với các nhà phát triển AI. Đầu tiên là PyTorch, một khung AI phổ biến, được tối ưu hóa thực sự tốt cho CUDA và do đó là GPU Nvidia. Thứ hai, một khi đã kết nối hiệu quả với một ngăn xếp phần mềm AI khác, thì nền tảng thay thế đó ít nhất phải tốt bằng CUDA. Trong trường hợp này, các lựa chọn thay thế vẫn chưa có.
Theo một chuyên gia, AMD có thể là đối thủ gần nhất của Nvidia vào thời điểm hiện tại. Nhà sản xuất chip AMD có ROCm, một nền tảng phần mềm cho phép các nhà phát triển AI truy cập vào các ngôn ngữ, thư viện và công cụ phổ biến. Chuyên gia không hề đề cập đến AWS.