|
19.03.2026, 08:18
By
Aplicatia Orange Sport este gratuita si poate fi descarcata din Google Play si App Store
NVIDIA isi ajusteaza directia strategica in domeniul inteligentei artificiale, si isi extinde portofoliul de produse si pune accentul de pe antrenarea modelelor AI catre zona de inferenta. Schimbarea vine intr-un moment in care marii furnizori de servicii cloud isi dezvolta propriile cipuri, intensificand competitia.
Potrivit TrendForce, aceasta evolutie reflecta transformarile rapide din ecosistemul infrastructurii AI.
Presiunea cipurilor dezvoltate internGiganti din zona cloud, precum Google si Amazon, investesc tot mai mult in dezvoltarea de cipuri proprii, bazate pe arhitecturi ASIC. Aceste solutii sunt optimizate pentru sarcini specifice si devin o alternativa tot mai atractiva la procesoarele grafice traditionale.
Estimarile indica faptul ca serverele AI bazate pe ASIC vor reprezenta aproape 28% din livrarile totale in 2026, cu o crestere semnificativa pana la aproximativ 40% pana la finalul deceniului.
De la training la inferentaIn acest context, NVIDIA isi muta atentia catre aplicatiile de inferenta - adica utilizarea modelelor AI in scenarii reale, dincolo de etapa de antrenare.
Aceasta schimbare a fost evidenta si in cadrul evenimentului NVIDIA GTC 2026, unde compania a pus accent pe implementarea AI in diverse industrii, nu doar in infrastructura cloud.
Sisteme integrate la scara largaO componenta centrala a noii strategii o reprezinta dezvoltarea sistemelor integrate la nivel de rack, care combina procesoare grafice si unitati de procesare centrala. Platforme precum GB300 sau VR200 sunt concepute pentru a sustine sarcini complexe de inferenta la scara mare.
De asemenea, compania a prezentat sistemul Vera Rubin, o arhitectura integrata care combina mai multe tipuri de cipuri si configuratii hardware pentru a sustine aplicatii AI avansate.
O noua abordare a inferenteiPe masura ce modelele AI devin mai complexe, o provocare majora o reprezinta latenta si cerintele de memorie. Pentru a raspunde acestor limitari, NVIDIA propune o arhitectura de tip "inferenta disociata", care separa etapele de procesare.
Astfel, sarcinile intensive din punct de vedere computational sunt gestionate de sisteme precum Vera Rubin, in timp ce etapele sensibile la latenta sunt preluate de unitati specializate.
Rolul noilor cipuri dedicateIn acest context, compania introduce si noi tipuri de procesoare dedicate inferentei, precum unitatile LPU dezvoltate pe baza tehnologiei Groq. Acestea sunt concepute pentru a reduce latenta si pentru a optimiza generarea de raspunsuri in timp real.
Totusi, capacitatea acestora este limitata in raport cu dimensiunea modelelor AI moderne, ceea ce explica necesitatea unei arhitecturi hibride.
O piata in transformareStrategia adoptata de NVIDIA reflecta o schimbare mai ampla in industrie: trecerea de la dezvoltarea modelelor AI la implementarea lor in aplicatii concrete.
In acelasi timp, competitia din partea furnizorilor de cloud si a solutiilor personalizate bazate pe ASIC sugereaza ca piata infrastructurii AI va deveni tot mai fragmentata.
In acest peisaj, capacitatea de a oferi solutii integrate si adaptabile ar putea deveni un factor decisiv pentru mentinerea avantajului competitiv.

Articolul NVIDIA isi diversifica strategia AI, pe fondul competitiei tot mai puternice din partea marilor platforme cloud apare prima data in Go4IT.
Legal disclaimer:
Acesta este un articol informativ. Produsele descrise pot sa nu faca parte din oferta comerciala curenta Orange. Continutul acestui articol nu reprezinta pozitia Orange cu privire la produsul descris, ci a autorilor, conform sursei indicate.