Dla odwiedzających w Electronica 2024

Zarezerwuj swój czas teraz!

Wystarczy kilka kliknięć, aby zarezerwować twoje miejsce i zdobyć bilet na stoisko

Hall C5 Booth 220

Rejestracja z wyprzedzeniem

Dla odwiedzających w Electronica 2024
WSZYSTKO WSZYSTKO ZAREJESTRUJĄ! Dziękujemy za umówienie się na spotkanie!
Wyślemy Ci bilety Booth przez e -mail po zweryfikowaniu Twojej rezerwacji.
Dom > Aktualności > Amazon zwiększa wysiłki na rzecz tworzenia niestandardowych układów AI, zmniejszając zależność od Nvidia
RFQs/ZAMÓWIENIE (0)
polski
polski

Amazon zwiększa wysiłki na rzecz tworzenia niestandardowych układów AI, zmniejszając zależność od Nvidia


Amazon przygotowuje się do uruchomienia najnowszego układu sztucznej inteligencji (AI), ponieważ duży konglomerat technologiczny dąży do czerpania zwrotów z miliardów dolarów w inwestycjach półprzewodników i zmniejszenie jego zależności od lidera rynku Nvidia.

Kierownictwo Amazon Cloud Computing Division intensywnie inwestuje w niestandardowe układy, mając nadzieję na poprawę wydajności swoich dziesiątek centrów danych i ostatecznie obniżają koszty dla siebie i klientów Amazon AWS.

Prace te prowadzone są przez Annapurna Labs, startup chipowy z siedzibą w Austin, który Amazon nabył za 350 milionów dolarów na początku 2015 r. Oczekiwane osiągnięcia Annapurna zostaną zaprezentowane w grudniu, kiedy Amazon ogłosi powszechną dostępność „Trainium 2”, którajest częścią serii AI CHIP zaprojektowaną do szkolenia największych modeli.

Trainium 2 przechodzi już testowanie przez Anthropic (konkurent Openai, który otrzymał 4 miliardy dolarów wsparcia od Amazon), a także VNET, Deutsche Telekom, Ricoh Japan i Stockmark.

Amazon AWS i Annapurna starają się konkurować z NVIDIA, która stała się jedną z najcenniejszych firm na świecie ze względu na dominującą pozycję na rynku chipów AI.

Mamy nadzieję, że będzie najlepszym miejscem do prowadzenia układów NVIDIA - powiedział Dave Brown, wiceprezes ds. Usług komputerowych i sieciowych w Amazon AWS. Ale jednocześnie uważamy, że przyjęcie alternatywnych rozwiązań jest korzystne ” - powiedział Amazon, stwierdzając, że to jegoInne profesjonalne układy AI „Inceluction” obniżyły koszty operacyjne o 40% i mogą być używane do responsywnych generatywnych modeli AI.

Amazon spodziewa się teraz nakładów inwestycyjnych w wysokości około 75 miliardów dolarów w 2024 r., Przy czym większość jest przeznaczona na infrastrukturę technologiczną.Podczas ostatniej konferencji konferencyjnej firmy Andy Jassy stwierdził, że spodziewa się, że firma będzie miała więcej wydatków w 2025 r.

Jest to wzrost w stosunku do pełnego roku wydatków w wysokości 48,4 miliarda dolarów amerykańskich w 2023 r. Największych dostawców chmury, w tym Microsoft i Google, inwestują mocno w sztuczną inteligencję, a ten trend wykazuje niewielkie oznaki osłabienia.

Amazon, Microsoft i Meta są głównymi klientami NVIDIA, ale projektują również własne układy centrów danych, aby położyć podwaliny pod fali wzrostu, którą przewidują.

Daniel Newman z Futurum Group powiedział: „Każdy duży dostawca chmur żartuje w kierunku większej pionowej, a jeśli to możliwe, zmierza w kierunku jednorodnego i zintegrowanego stosu technologii„ chip ”

Newman zauważył, że „od Openai do Apple wszyscy starają się zbudować własne żetony”, ponieważ szukają „niższych kosztów produkcji, wyższych marży zysku, wyższej dostępności i większej kontroli”.

Po rozpoczęciu budowy układu bezpieczeństwa „NITRO” dla AWS, Annapurna opracowała kilka pokoleń Graviton, środkowej jednostki przetwarzania (CPU), która zapewnia alternatywę dla tradycyjnych komputerów mainframe serwerów dostarczanych przez Intel lub AMD.

Analityk Techinsights G Dan Hutcheson powiedział: „Jedną z głównych zalet AWS jest to, że ich układy mogą wykorzystywać mniejszą moc, a ich centra danych mogą być bardziej wydajne”, zmniejszając w ten sposób koszty.Powiedział, że jeśli jednostka przetwarzania grafiki NVIDIA (GPU) jest potężnym narzędziem ogólnego zastosowania (dla samochodów takich jak wagony stacji), wówczas Amazon może zoptymalizować swoje układy pod kątem określonych zadań i usług (takich jak samochody kompaktowe lub hatchback).

Jednak jak dotąd AWS i Annapurna prawie nie osłabiły dominującej pozycji Nvidii w infrastrukturze AI.

Przychody ze sprzedaży chipów Centrum danych AI NVIDIA osiągnęły 26,3 miliarda dolarów w drugim kwartale roku podatkowego 2024. Liczba ta jest taka sama jak przychody całego działu AWS ogłoszonego przez Amazon w drugim kwartale.Doniesiono, że tylko niewielką część można przypisać klientom pracującym obciążeniem AI w infrastrukturze Annapurn.

Jeśli chodzi o surową wydajność układów AWS i układów NVIDIA, Amazon unika bezpośrednich porównań i nie przesyła swoich układów do niezależnych testów porównawczych wydajności.

Patrick Moorhead, konsultant Chip Moor Insights & Strategy Chip, uważa, że ​​twierdzenie Amazon o 4-krotnej poprawie wydajności między Trainium 1 a Trainium 2 jest dokładne, ponieważ od lat dokonuje przeglądu firmy.Ale dane dotyczące wydajności mogą nie być tak ważne, jak po prostu dostarczanie klientom większych wyborów.

Ludzie doceniają wszystkie innowacje wniesione przez NVIDIA, ale nikt nie chce, aby Nvidia zajmowała 90% udziału w rynku - dodał.Ta sytuacja nie potrwa zbyt długo

Wybierz język

Kliknij przestrzeń, aby wyjść