A Goggle AI modellek betanítására és futtatására is mutatott be új chipet
IT Business
2026-04-22T17:33
A Google szerdán közölte, hogy a változtatást a Tensor Processing Unit (TPU) nyolcadik generációjánál vezeti be. Mindkét új chip még idén elérhető lesz. „Az AI-ügynökök térnyerésével arra jutottunk, hogy a közösség számára előnyös lesz, ha külön chipek készülnek a betanítás és a kiszolgálás (inference) igényeire optimalizálva” – írtaAmin Vahdat,a Google AI- és infrastruktúráért felelős vezető alelnöke és technológiai igazgatója.
Márciusban az Nvidia olyan új chipeket jelentett be, amelyek rövid válaszidőt tesznek lehetővé AI-modellek számára – részben a Groq startup20 milliárd dolláros felvásárlásábólszármazó technológiának köszönhetően. A Google ugyan nagy Nvidia-ügyfél, de saját TPU-it alternatívaként kínálja a felhőszolgáltatásait használó vállalatoknak.
A világ vezető technológiai cégeinek többsége egyedi AI-chipek fejlesztésébe kezdett a hatékonyság növelésére és a speciális felhasználási igények kielégítésére. Az Apple évek óta integrál neurális motorokat iPhone- és M-sorozatú chipjeibe. A Microsoft januárban jelentette be második generációs AI-chipjét. A Meta pedig a Broadcommal együttműködve többféle AI-processzort fejleszt.
A Google korán kezdte ezt az irányt: már 2015-ben saját fejlesztésű processzorokat használt AI-modellek futtatására, és 2018-tól bérbe is adta őket felhőügyfeleknek. Az Amazon Web Services 2018-ban mutatta be az Inferentia chipet AI-feladatokra, majd 2020-ban a Trainium processzort a modellek betanítására.
A DA Davidson elemzői szerint a TPU-üzletág – a Google DeepMind AI-csoporttal együtt – akár 900 milliárd dollárt is érhet.
Egyelőre egyik technológiai óriás sem tudta kiszorítani az Nvidiát, és a Google sem hasonlította közvetlenül az új chipjei teljesítményét a piacvezető megoldásokhoz. A vállalat ugyanakkor közölte, hogy az új tréningchip 2,8-szoros teljesítményt nyújt az előző generációs (Ironwood) TPU-hoz képest azonos áron, míg az inference chip teljesítménye 80%-kal jobb.
Az Nvidia jelezte, hogy közelgő Groq 3 LPU hardvere nagy mennyiségű SRAM memóriát használ majd. A Google új inference chipje, a TPU 8i szintén SRAM-ra épít: egy-egy chip 384 MB SRAM-ot tartalmaz, ami háromszorosa az Ironwood kapacitásának.
A Google szerint az architektúrát úgy tervezték, hogy „nagy áteresztőképességet és alacsony késleltetést biztosítson, lehetővé téve milliónyi AI-ügynök egyidejű, költséghatékony futtatását” – írtaSundar Pichai,az Alphabet vezérigazgatója.
A Google AI-chipjeinek használata gyorsan terjed: a Citadel Securities kvantitatív kutatószoftvert épített rájuk, az amerikai Energiaügyi Minisztérium mind a 17 nemzeti laboratóriuma ilyen chipeken futó AI-rendszereket használ, az Anthropic pedig több gigawattnyi Google TPU kapacitás igénybevételét vállalta.
Forrás:https://www.cnbc.com
Feliratkozom a hírlevélre!
Elfogadom azAdatkezelési tájékoztatót.
Sikeresen feliratkozott az ITB TODAY hírlevelünkre.