← Vissza

news.bsdnet.hu

A Goggle AI modellek betanítására és futtatására is mutatott be új chipet

IT Business 2026-04-22T17:33
A Google szerdán közölte, hogy a változtatást a Tensor Processing Unit (TPU) nyolcadik generációjánál vezeti be. Mindkét új chip még idén elérhető lesz. „Az AI-ügynökök térnyerésével arra jutottunk, hogy a közösség számára előnyös lesz, ha külön chipek készülnek a betanítás és a kiszolgálás (inference) igényeire optimalizálva” – írtaAmin Vahdat,a Google AI- és infrastruktúráért felelős vezető alelnöke és technológiai igazgatója. Márciusban az Nvidia olyan új chipeket jelentett be, amelyek rövid válaszidőt tesznek lehetővé AI-modellek számára – részben a Groq startup20 milliárd dolláros felvásárlásábólszármazó technológiának köszönhetően. A Google ugyan nagy Nvidia-ügyfél, de saját TPU-it alternatívaként kínálja a felhőszolgáltatásait használó vállalatoknak. A világ vezető technológiai cégeinek többsége egyedi AI-chipek fejlesztésébe kezdett a hatékonyság növelésére és a speciális felhasználási igények kielégítésére. Az Apple évek óta integrál neurális motorokat iPhone- és M-sorozatú chipjeibe. A Microsoft januárban jelentette be második generációs AI-chipjét. A Meta pedig a Broadcommal együttműködve többféle AI-processzort fejleszt. A Google korán kezdte ezt az irányt: már 2015-ben saját fejlesztésű processzorokat használt AI-modellek futtatására, és 2018-tól bérbe is adta őket felhőügyfeleknek. Az Amazon Web Services 2018-ban mutatta be az Inferentia chipet AI-feladatokra, majd 2020-ban a Trainium processzort a modellek betanítására. A DA Davidson elemzői szerint a TPU-üzletág – a Google DeepMind AI-csoporttal együtt – akár 900 milliárd dollárt is érhet. Egyelőre egyik technológiai óriás sem tudta kiszorítani az Nvidiát, és a Google sem hasonlította közvetlenül az új chipjei teljesítményét a piacvezető megoldásokhoz. A vállalat ugyanakkor közölte, hogy az új tréningchip 2,8-szoros teljesítményt nyújt az előző generációs (Ironwood) TPU-hoz képest azonos áron, míg az inference chip teljesítménye 80%-kal jobb. Az Nvidia jelezte, hogy közelgő Groq 3 LPU hardvere nagy mennyiségű SRAM memóriát használ majd. A Google új inference chipje, a TPU 8i szintén SRAM-ra épít: egy-egy chip 384 MB SRAM-ot tartalmaz, ami háromszorosa az Ironwood kapacitásának. A Google szerint az architektúrát úgy tervezték, hogy „nagy áteresztőképességet és alacsony késleltetést biztosítson, lehetővé téve milliónyi AI-ügynök egyidejű, költséghatékony futtatását” – írtaSundar Pichai,az Alphabet vezérigazgatója. A Google AI-chipjeinek használata gyorsan terjed: a Citadel Securities kvantitatív kutatószoftvert épített rájuk, az amerikai Energiaügyi Minisztérium mind a 17 nemzeti laboratóriuma ilyen chipeken futó AI-rendszereket használ, az Anthropic pedig több gigawattnyi Google TPU kapacitás igénybevételét vállalta. Forrás:https://www.cnbc.com Feliratkozom a hírlevélre! Elfogadom azAdatkezelési tájékoztatót. Sikeresen feliratkozott az ITB TODAY hírlevelünkre.
Eredeti cikk megtekintése →