|
17.03.2026, 08:17
By
Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store
Cererea globala pentru memorie de tip High Bandwidth Memory (HBM) utilizata in acceleratoarele dedicate serverelor de inteligenta artificiala ar putea creste de aproximativ 35 de ori in perioada 2024-2028.
Estimarea provine dintr-un nou raport publicat de Counterpoint Research, care analizeaza evolutia infrastructurii hardware necesare pentru dezvoltarea si rularea modelelor AI.
Cresterea este alimentata in principal de extinderea acceleratoarelor personalizate dezvoltate de marii operatori de cloud si de adoptarea unor arhitecturi de memorie cu densitate tot mai mare.

Un factor esential pentru aceasta evolutie este extinderea infrastructurii bazate pe cipuri dezvoltate intern de companiile de tehnologie. Printre acestea se numara acceleratoarele utilizate de Google pentru ecosistemul Gemini, dar si platformele dezvoltate de Amazon, Meta si Microsoft.
Pe masura ce aceste companii isi extind portofoliul de acceleratoare AI, memoria HBM devine o componenta esentiala pentru performanta sistemelor, oferind latime de banda ridicata si latenta redusa pentru procesarea datelor.
Densitatea memoriei creste odata cu dimensiunea modelelor AIModelele de inteligenta artificiala devin tot mai complexe, iar unele dintre ele ajung la sute de miliarde sau chiar trilioane de parametri. Pentru a sustine astfel de sarcini, producatorii de cipuri integreaza cantitati tot mai mari de memorie direct in jurul nucleelor de calcul.
Aceasta evolutie permite pastrarea unor volume mari de date cat mai aproape de procesor, reducand intarzierile si maximizand viteza de procesare in timpul operatiunilor de inferenta sau antrenare a modelelor.
HBM3E, standardul dominant al urmatorilor aniPotrivit estimarilor, standardul HBM3E va deveni dominant in ecosistemul acceleratoarelor AI. Pana in 2028, acesta ar putea reprezenta aproximativ 56% din cererea totala de HBM pentru cipurile ASIC utilizate in centrele de date.
Succesul HBM3E este atribuit echilibrului dintre capacitatea mare de memorie si latimea de banda necesara pentru modelele AI moderne. Stabilizarea proceselor de productie si imbunatatirea randamentului au contribuit la accelerarea adoptarii acestei tehnologii de catre furnizorii de cloud.
Trecerea catre memorie personalizataPe termen mai lung, industria ar putea trece catre solutii de memorie personalizate, odata cu aparitia generatiilor HBM4 si HBM4E. Acestea vor integra componente logice direct in structura memoriei, permitand optimizarea performantei pentru anumite tipuri de acceleratoare.
Aceasta schimbare ar putea crea noi oportunitati pentru producatorii de memorie, care vor putea dezvolta produse adaptate cerintelor specifice ale clientilor si ale arhitecturilor hardware.
Producatorii dominanti ai pieteiPiata HBM ramane puternic concentrata, fiind dominata in principal de SK Hynix si Samsung Electronics. In acelasi timp, Micron Technology incearca sa castige teren prin noi contracte si extinderea capacitatilor de productie.
O alta componenta esentiala a acestei evolutii este tehnologia de ambalare avansata a semiconductorilor, domeniu in care TSMC joaca un rol central prin solutiile sale CoWoS.
Totusi, pe fondul limitarilor de capacitate ale TSMC, unele companii exploreaza alternative. Printre acestea se numara tehnologia EMIB-T dezvoltata de Intel, care ar putea deveni o optiune viabila pentru integrarea acceleratoarelor AI de generatie viitoare.
Google, principalul motor al cereriiIn prezent, una dintre companiile care stimuleaza cel mai puternic cererea pentru memorie HBM este Google, datorita extinderii infrastructurii bazate pe procesoare Tensor Processing Unit. Potrivit estimarilor analistilor, dezvoltarea acceleratoarelor TPU din urmatorii ani va continua sa creasca semnificativ necesarul de memorie avansata.
In ansamblu, evolutia pietei indica faptul ca memoria HBM va deveni una dintre cele mai importante componente ale infrastructurii hardware pentru inteligenta artificiala, pe masura ce companiile tehnologice isi extind investitiile in centre de date si acceleratoare specializate.

Articolul Cererea pentru memorie HBM destinata serverelor AI ar putea creste de 35 de ori pana in 2028 apare prima data in Go4IT.
Legal disclaimer:
Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.