Cho khách truy cập tại Electronica 2024

Đặt thời gian của bạn ngay bây giờ!

Tất cả chỉ cần một vài cú nhấp chuột để đặt chỗ của bạn và nhận vé gian hàng

Hội trường C5 Gian hàng 220

Đăng ký trước

Cho khách truy cập tại Electronica 2024
Bạn có thể đăng ký tất cả! Cảm ơn bạn đã đặt một cuộc hẹn!
Chúng tôi sẽ gửi cho bạn vé gian hàng qua email sau khi chúng tôi đã xác minh đặt chỗ của bạn.
Nhà > Tin tức > Amazon tăng nỗ lực tạo ra chip AI tùy chỉnh, giảm sự phụ thuộc vào NVIDIA
RFQs/đơn đặt hàng (0)
Tiếng Việt
Tiếng Việt

Amazon tăng nỗ lực tạo ra chip AI tùy chỉnh, giảm sự phụ thuộc vào NVIDIA


Amazon đang chuẩn bị ra mắt chip Trí tuệ nhân tạo mới nhất (AI) khi tập đoàn công nghệ lớn tìm cách gặt hái lợi nhuận từ hàng tỷ đô la đầu tư bán dẫn và giảm sự phụ thuộc vào công ty dẫn đầu thị trường NVIDIA.

Các giám đốc điều hành của bộ phận điện toán đám mây của Amazon đang đầu tư rất nhiều vào các chip tùy chỉnh, hy vọng sẽ cải thiện hiệu quả của hàng tá trung tâm dữ liệu và cuối cùng giảm chi phí cho khách hàng của chính nó và Amazon AWS.

Công trình này được dẫn dắt bởi Annapurna Labs, một công ty khởi nghiệp chip có trụ sở tại Austin, mà Amazon đã mua được 350 triệu đô la vào đầu năm 2015. Thành tích mới nhất của Annapurna dự kiến ​​sẽ được giới thiệu vào tháng 12, khi Amazon sẽ công bố sự sẵn có rộng rãi của "Surecium 2"là một phần của loạt AI Chip được thiết kế để đào tạo các mô hình lớn nhất.

Trainium 2 đã được thử nghiệm bởi Anthropic (đối thủ cạnh tranh của Openai, đã nhận được 4 tỷ đô la hỗ trợ từ Amazon), cũng như VNET, Deutsche Telekom, Ricoh Nhật Bản và Stockmark.

Amazon AWS và Annapurna nhằm mục đích cạnh tranh với NVIDIA, nơi đã trở thành một trong những công ty có giá trị nhất thế giới do vị trí thống trị của nó trong thị trường Chip AI.

Chúng tôi hy vọng sẽ là nơi tốt nhất để điều hành các chip Nvidia, "Dave Brown, phó chủ tịch dịch vụ máy tính và mạng tại Amazon AWS. Nhưng đồng thời, chúng tôi tin rằng việc áp dụng các giải pháp thay thế có lợi", Amazon nói, nói rằng nóCác "tiêu hóa AI chuyên nghiệp khác đã giảm 40% chi phí vận hành và có thể được sử dụng cho các mô hình AI tổng quát đáp ứng.

Amazon hiện mong đợi chi tiêu vốn khoảng 75 tỷ đô la vào năm 2024, với đa số hướng tới cơ sở hạ tầng công nghệ.Trong cuộc gọi hội nghị thu nhập mới nhất của công ty, CEO Andy Jassy tuyên bố rằng ông hy vọng công ty sẽ có nhiều chi phí hơn vào năm 2025.

Đây là một sự gia tăng so với chi tiêu cả năm là 48,4 tỷ đô la Mỹ vào năm 2023. Các nhà cung cấp đám mây lớn nhất, bao gồm Microsoft và Google, đang đầu tư rất nhiều vào trí tuệ nhân tạo và xu hướng này cho thấy rất ít dấu hiệu suy yếu.

Amazon, Microsoft và Meta đều là những khách hàng lớn của NVIDIA, nhưng họ cũng đang thiết kế chip trung tâm dữ liệu của riêng họ để đặt nền tảng cho làn sóng tăng trưởng AI mà họ đang dự đoán.

Daniel Newman từ Futurum Group cho biết, "Mọi nhà cung cấp đám mây lớn đều nhiệt thành chuyển sang theo chiều dọc hơn, và nếu có thể, hãy tiến tới một ngăn xếp 'công nghệ chip' đồng nhất và tích hợp

Newman chỉ ra rằng "từ Openai đến Apple, mọi người đang tìm cách xây dựng chip của riêng họ" vì họ đang tìm kiếm "chi phí sản xuất thấp hơn, tỷ suất lợi nhuận cao hơn, tính khả dụng cao hơn và kiểm soát nhiều hơn".

Sau khi bắt đầu xây dựng chip bảo mật "Nitro" cho AWS, Annapurna đã phát triển nhiều thế hệ Graviton, một đơn vị xử lý trung tâm dựa trên ARM (CPU) cung cấp một sự thay thế công suất thấp cho các khung máy tính máy chủ truyền thống do Intel hoặc AMD cung cấp.

Nhà phân tích của TechInsights G Dan Hutcheson cho biết, 'Một lợi thế lớn của AWS là chip của họ có thể sử dụng ít năng lượng hơn và các trung tâm dữ liệu của họ có thể hiệu quả hơn', do đó giảm chi phí.Ông nói rằng nếu Đơn vị xử lý đồ họa (GPU) của NVIDIA là một công cụ đa năng mạnh mẽ (đối với những chiếc xe như xe ngựa), thì Amazon có thể tối ưu hóa chip của mình cho các nhiệm vụ và dịch vụ cụ thể (như xe hơi nhỏ gọn hoặc xe hatchback).

Tuy nhiên, cho đến nay, AWS và Annapurna hầu như không làm suy yếu vị trí thống trị của Nvidia trong cơ sở hạ tầng AI.

Doanh thu bán hàng chip của Trung tâm dữ liệu AI của NVIDIA đạt 26,3 tỷ đô la trong quý thứ hai của năm tài chính năm 2024. Con số này giống như doanh thu của toàn bộ bộ phận AWS do Amazon công bố trong quý thứ hai.Nó được báo cáo rằng chỉ có một phần nhỏ trong số đó có thể được quy cho khách hàng chạy khối lượng công việc AI trên cơ sở hạ tầng Annapurna.

Đối với hiệu suất thô của chip AWS và chip NVIDIA, Amazon tránh các so sánh trực tiếp và không gửi chip của họ đến điểm chuẩn hiệu suất độc lập.

Nhà tư vấn chip của Moor Insights & Strateg Patrick Moorhead tin rằng yêu cầu cải thiện hiệu suất 4 lần của Amazon giữa Trainium 1 và Trainium 2 là chính xác, vì ông đã xem xét công ty trong nhiều năm.Nhưng dữ liệu hiệu suất có thể không quan trọng như chỉ đơn giản là cung cấp cho khách hàng nhiều lựa chọn hơn.

Mọi người đánh giá cao tất cả những đổi mới do Nvidia mang lại, nhưng không ai muốn thấy Nvidia chiếm 90% thị phần, "ông nói thêm."Tình huống này sẽ không tồn tại quá lâu

Chọn ngôn ngữ

Nhấp vào không gian để thoát