9 Minute
OpenAI se apropie de producerea propriilor procesoare AI personalizate. Compania a semnat un acord major, de mai multe miliarde de dolari, cu Broadcom pentru a proiecta cipuri la comandă pe care OpenAI intenționează să le implementeze în centrele sale de date pe măsură ce cererea sa pentru capacitate de calcul crește exponențial. Această mișcare marchează o tranziție strategică de la achiziția exclusivă de GPU-uri comerciale către un portofoliu hibrid în care siliciul personalizat (ASIC-uri și acceleratoare) este optimizat pentru sarcini specifice de inteligență artificială, cum ar fi antrenarea de modele de limbaj mari și inferența la scară largă. Impactul așteptat include îmbunătățiri ale performanței pe watt, latență redusă pentru sarcini critice, precum și o mai bună integrare hardware‑software care poate reduce costurile operaționale pe termen lung. Din perspectiva infrastructurii, proiectarea de cipuri la comandă necesită coordonare strânsă între echipele de arhitectură hardware, design de circuite, integrare cu memorie HBM, validare firmware și adaptarea stack‑ului software (compilatoare, biblioteci și optimizări pentru rețele neurale).
Un pariu major pe siliciul personalizat
Conform relatărilor, OpenAI și Broadcom au început colaborarea în urmă cu aproximativ 18 luni și au formalizat acum un acord menit să furnizeze aproximativ 10 gigawați de capacitate de cipuri. Acordul — descris de Wall Street Journal ca având o valoare de mai multe miliarde de dolari — ar finanța proiectarea hardware personalizate și asigurarea unui lanț lung‑termen de aprovizionare pentru infrastructura în creștere a OpenAI. Un astfel de pariu pe siliciu personalizat implică nu doar costuri de proiectare, ci și investiții în prototipare, testare în laborator, validare la scară și optimizare pentru consum energetic și răcire. În termeni tehnici, proiectele de siliciu personalizat pot include optimizări la nivel de arhitectură cum ar fi interfețe de memorie HBM de înaltă bandă, interconectori de tip NVLink sau alternativă, unități specializate pentru operațiuni matriceale (tensor cores) și blocuri dedicate pentru compresie sau calcul cu presiune numerică redusă (FP8/FP16). Pe lângă acestea, parteneriatele cu fabrici de cipuri (foundries) precum TSMC pentru noduri avansate și cu furnizori de pachete 2.5D/3D pentru integrarea memoriei și a interconectării sunt esențiale pentru atingerea randamentului și fiabilității necesare la scară industrială.
Cronologie, scară și ce urmează în centrele de date
Se estimează că Broadcom va începe instalarea de rackuri hardware în a doua jumătate a anului 2026, iar proiectarea și producția cipurilor ar putea continua până la sfârșitul anului 2029. Această desfășurare etapizată reflectă modul în care proiectele de infrastructură cloud și AI sunt de obicei implementate: lansări inițiale pentru testare și optimizare, urmate de extinderea capacității pe măsură ce maturizează furnizarea și se reduc riscurile tehnice. În practică, primele rackuri ar putea conține variante inițiale ale acceleratoarelor, echipamente de rețea cu latență foarte scăzută și soluții avansate de răcire (cum ar fi răcirea lichidă sau camere de condensare), iar pe parcursul anilor 2027–2029 iterările de siliciu și optimizările la nivel de sistem vor îmbunătăți densitatea de calcul și eficiența energetică. Implementarea la scară implică, de asemenea, coordonare cu operatorii de centre de date pentru upgrade‑uri ale alimentării (substații, transformatoare), infrastructură de răcire centralizată, management termic la nivel de rack și procese de monitorizare a consumului electric și a telemetriei hardware. Pentru operatorii de cloud și pentru echipele interne de operațiuni, planificarea pentru 10 GW înseamnă anticiparea nevoilor de spațiu, logistică, certificate de conformitate și prevederi pentru redundanță și securitate fizică.
- Domeniul acordului: contract raportat de mai multe miliarde de dolari pentru aproximativ 10 GW de cipuri.
- Implementare: instalări de rackuri încep în a doua jumătate a anului 2026.
- Proiectare/producție: probabil să se extindă până în jurul anului 2029.

Cum se potrivește asta cu parteneriatele Nvidia și AMD
OpenAI a asigurat capacitate de la mai mulți furnizori, adoptând o strategie diversificată. Rapoartele indică faptul că Nvidia s‑a angajat la infrastructură — cifrele citate în presă sugerează o investiție la scară largă legată de aproximativ 10 GW de capacitate de calcul — în timp ce AMD ar fi acceptat să furnizeze circa 6 GW. S‑a relatat că OpenAI a plătit zeci de miliarde de dolari către AMD și chiar există scenarii în care OpenAI ar putea obține o participație semnificativă în companie. Diferența fundamentală între oferta unui furnizor precum Nvidia (GPU generaliste, optimizate pentru multe sarcini) și cipurile personalizate dezvoltate cu Broadcom consta în trade‑off‑uri între flexibilitate și eficiență: GPU‑urile oferă un ecosistem software matur (CUDA, biblioteci optimizate), în timp ce ASIC‑urile pot atinge eficiențe energetice și performanțe pe watt superioare pentru operațiuni specifice de inferență sau antrenare. Integrarea acestor elemente în arhitectura OpenAI necesită adaptări software (compilatoare, runtime, orchestrare de joburi) pentru a profita de capabilitățile fiecarei platforme.
De ce parteneri multipli? Sprijinirea mai multor furnizori reduce riscurile de aprovizionare, diversifică opțiunile de arhitectură și ajută OpenAI să scaleze mai rapid decât ar putea un singur furnizor. În plus, o strategie multi‑vendor oferă flexibilitate comercială — posibilitatea de a compara costuri, termene de livrare și performanțe reale — și protejează compania împotriva blocajelor de producție la un anumit foundry sau a restricțiilor geopolitice. Din punct de vedere tehnic, aceasta permite optimizarea fiecărui tip de sarcină (antrenare, inferență, preprocesare de date) pe cea mai potrivită arhitectură, reducând astfel costurile totale de proprietate (TCO) pe termen lung și permițând modelelor la scară mare să ruleze mai eficient.
Cerere ambițioasă: 250 GW în opt ani
CEO‑ul Sam Altman le‑a spus angajaților că OpenAI se așteaptă să aibă nevoie, aproximativ, de 250 gigawați de capacitate de calcul în următorii opt ani. Pentru a pune asta în perspectivă, 250 GW reprezintă aproximativ o cincime din capacitatea totală de generare electrică a Statelor Unite (~1.200 GW). O cerere de această magnitudine are implicații profunde: nu este vorba doar de a construi servere, ci de a remodela fluxurile de energie, de a negocia contracte pe termen lung cu utilități, de a proiecta centre de date cu eficiență energetică extremă și de a gestiona impactul asupra rețelelor electrice locale și naționale. Costul construirii unei astfel de infrastructuri AI la scară ar putea ajunge la ordinea de mărime a bilioanelor de dolari (estimările publice menționează zeci de trilioane în funcție de factori economici), incluzând cheltuieli de capital pentru siliciu, producție, spații, răcire, rețele de fibră, transformatoare și sisteme UPS. Mai mult, achiziția și montarea de memorii HBM, unități de stocare NVMe rapide, echipamente de rețea cu latență scăzută și soluții avansate de securitate fizică și cibernetică contribuie semnificativ la bugetul total.
Chiar și cu angajamente semnificative din partea furnizorilor și cu creșterea veniturilor — venitul OpenAI pentru anul curent este estimat în rapoarte media la circa 13 miliarde de dolari — compania va avea nevoie de mecanisme financiare inovatoare și modele noi de monetizare pentru a susține o expansiune atât de vastă. Acestea pot include vânzarea de servicii de calcul ca serviciu (compute‑as‑a‑service), parteneriate strategice cu operatori de cloud, contracte de tip pay‑per‑use pentru modele generative, emisiuni de obligațiuni pentru proiecte verzi, leasing financiar pentru centre de date și oportunități de finanțare prin infrastructură comună cu guverne sau consorții industriale. De asemenea, optimizările operaționale în eficiența energetică și îmbunătățirile continue ale performanței per watt vor juca un rol critic în reducerea costurilor pe termen lung.
Ce trebuie urmărit în continuare
Urmați cu atenție jaloanele de implementare anunțate de Broadcom (instalările de rackuri în 2026) și orice divulgări suplimentare privind livrările de capacitate de la Nvidia și AMD. Anii următori vor demonstra dacă siliciul AI personalizat și strategiile multi‑vendor pot ține pasul cu cererea în creștere pentru servicii generative AI, dacă lanțurile de aprovizionare vor rezista la volum și dacă optimizările hardware‑software vor livra eficiența promisă. Pe termen scurt, semnalele de urmărit includ: date de performanță reală obținute în primele rackuri, termene reale de livrare ale loturilor de cipuri, detalii despre parteneriatele cu foundries (de ex. TSMC), precum și acorduri de finanțare și furnizare de energie pe termen lung. Pe termen lung, merită monitorizate evoluțiile în materie de standarde de interoperabilitate, evoluția memoriilor HBM, progresul în pachetele 2.5D/3D și adoptarea pe scară largă a tehnologiilor de răcire eficiente din punct de vedere energetic. În plus, reglementările comerciale și geopolitice pot influența accesul la anumite noduri de fabricație și componente critice, astfel încât riscurile geopolitice rămân o variabilă importantă de urmărit pentru scalarea globală a infrastructurii AI.
Sursa: smarti
Lasă un Comentariu