Według Businesskorea, SK Hynix ogłosił, że wydajność Piątej Generacji Wysokiej pamięci (HBM) - HBM3E zbliżył się do 80%.
„Z powodzeniem skróciliśmy czas wymagany do masowej produkcji układów HBM3E o 50%, osiągając docelowy wskaźnik wydajności wynoszący około 80%”, powiedział Kwon Jae, kierownik produkcji w SK Hynix
Oznacza to pierwsze publiczne ujawnienie informacji o produkcji HBM3E autorstwa SK Hynix.Wcześniej branża spodziewała się, że wydajność HBM3E SK Hynix wynosiła od 60% do 70%.
Kwon Jae wkrótce podkreślił: „Naszym celem w tym roku jest skupienie się na produkcji 8-warstwowych HBM3E. W erze sztucznej inteligencji (AI) zwiększenie produkcji stało się ważniejsze dla utrzymania wiodącej pozycji”.
Produkcja HBM wymaga pionowego układania wielu DRAM, co powoduje większą złożoność procesu w porównaniu ze standardowymi DRAM.Zwłaszcza w przypadku kluczowego elementu HBM3E, wydajność krzemu przez otwory (TSV) była zawsze niska, w zakresie od 40% do 60%, co czyni jego ulepszenie poważnym wyzwaniem.
Po prawie wyłącznym dostarczeniu HBM3 liderowi półprzewodników AI Nvidia, SK Hynix zaczął dostarczać 8-warstwowe produkty HBM3E w marcu tego roku i planuje dostarczyć 12 produktów HBM3E w trzecim kwartale tego roku.Produkt 12 -warstwowy HBM4 (szósta generacji HBM) ma zostać uruchomiony w 2025 r., A oczekuje się, że wersja 16 -warstwowa zostanie wprowadzona do produkcji w 2026 r.
Szybko rozwijający się rynek sztucznej inteligencji napędza szybki rozwój DRAM SK Hynix nowej generacji.Do 2023 r. HBM i moduły DRAM o dużej pojemności wykorzystywane przede wszystkim do zastosowań sztucznej inteligencji będą stanowić około 5% całego rynku pamięci masowej według wartości.SK Hynix przewiduje, że do 2028 r. Te produkty magazynowe AI zajmą 61% udziału w rynku.