Google dezvoltă o rețea de cipuri pentru a concura cu Nvidia
Google lansează o rețea extinsă de cipuri pentru a concura cu Nvidia în domeniul inteligenței artificiale. Această inițiativă vizează reducerea costurilor de inferență și creșterea eficienței procesării datelor.

Pe scurt
- Google dezvoltă o rețea de cipuri ASIC cu patru parteneri.
- Cipul Ironwood oferă performanțe de 10 ori mai mari decât predecesorul său.
- Compania vizează producția a 4.3 milioane TPU în 2026 și 35 milioane în 2028.
- Partenerii includ Broadcom, MediaTek, Marvell și Intel.
Google își propune să îmbunătățească procesarea inteligenței artificiale prin dezvoltarea unei rețele de cipuri ASIC, colaborând cu patru parteneri strategici. Această inițiativă vine ca răspuns la costurile tot mai mari de inferență generate de utilizarea AI în aplicații precum motoarele de căutare și chatbots. În contextul în care milioane de interacțiuni au loc zilnic, Google caută să reducă dependența de GPU-urile generale, optând pentru cipuri specializate care să optimizeze costurile și performanțele.
Cipul Ironwood, cea de-a șaptea generație TPU, este vârful de lance al acestei strategii. Acest cip este conceput special pentru inferență și oferă specificații impresionante:
- Performanță de aproximativ 10 ori mai mare decât TPU v5p.
- Memorie HBM3E de 192 GB pe cip.
- Lățime de bandă de 7.2 TB/s.
- Arhitectură „superpod” cu 9.216 cipuri răcite cu lichid.
- Putere de procesare de 42.5 FP8 exaflops.
Google nu doar că își propune să atingă performanțe ridicate cu Ironwood, dar intenționează și să producă milioane de unități, având deja comenzi din partea unor companii mari de AI, cum ar fi Anthropic.
Ce rol au partenerii în dezvoltarea rețelei de cipuri?
Pentru a-și atinge obiectivele ambițioase, Google a împărțit responsabilitățile între patru parteneri cheie:
-
Broadcom: Se ocupă de cipurile TPU de înaltă performanță și de componentele de rețea, inclusiv de dezvoltarea TPU-ului v8, care va fi produs folosind tehnologia TSMC de 2nm.
-
MediaTek: Se concentrează pe partea mai economică, dezvoltând TPU-ul v8 „Zebrafish”, care promite o reducere a costurilor de 20-30% în procesul de inferență.
-
Marvell Technology: Lucrează la două componente critice, inclusiv unități de procesare a memoriei, cu un plan de producție de aproximativ două milioane de MPU pentru a soluționa problemele de memorie din centrele de date.
-
Intel: Se ocupă de suportul infrastructurii generale de calcul în centrele de date, folosind procesoare Xeon și unități de suport.
Care este impactul acestei strategii asupra industriei AI?
Strategia Google reflectă evoluția rapidă a economiei AI, în care costurile de inferență devin din ce în ce mai relevante. Compania estimează că va produce 4.3 milioane de TPU în 2026, cu o creștere la 35 milioane până în 2028, consolidându-și astfel poziția ca furnizor global de infrastructură pentru calculul AI. Această orientare către cipuri specializate va permite Google să își optimizeze costurile și să ofere soluții mai eficiente pentru utilizatorii săi.
Se așteaptă ca Google să ofere detalii suplimentare despre această nouă arhitectură de cipuri în cadrul evenimentului Google Cloud Next, unde vor fi prezentate progresele și inovațiile în domeniul AI.
Întrebări frecvente
Ce este cipul Ironwood?
Ironwood este cea de-a șaptea generație TPU dezvoltată de Google, special concepută pentru inferență.
Cât de multe TPU-uri intenționează Google să producă?
Google preconizează că va produce 4.3 milioane TPU în 2026 și 35 milioane în 2028.
Cine sunt partenerii Google în acest proiect?
Partenerii includ Broadcom, MediaTek, Marvell și Intel.
Ce avantaje oferă cipurile ASIC față de GPU-uri?
Cipurile ASIC sunt optimizate pentru sarcini specifice, reducând costurile de inferență și îmbunătățind performanța.
AI Sesli Okuma
Citire naturală cu voce AI Google WaveNet