Ming-Chi Kuo: Az OpenAI AI agent telefonjának gyártása akár 2027 első felében elindulhat
HUP
2026-05-05T11:29
Ming-Chi Kuo iparági forrásokra hivatkozva azt írja, hogy az OpenAI felgyorsíthatta első AI agent telefonjának fejlesztését: a tömeggyártás a korábban emlegetett 2028 helyett akár 2027 első felében elindulhat.
A készülék koncepciója nem egy "ChatGPT-gombos" hagyományos okostelefon lenne, hanem egy agent-központú eszköz, ahol a felhasználó nem alkalmazások között ugrál, hanem feladatokat ad ki, amelyeket a rendszer az operációs rendszer, a hardver és a cloud AI szoros együttműködésével próbál végrehajtani.
Kuo szerint az OpenAI számára ezért lehet stratégiai kérdés a saját telefon: a teljes agent-élményhez nem elég egy app az iOS-en vagy Androidon, mert az AI-nak valós idejű kontextusra, szenzoradatokra, lokális feldolgozásra és mély rendszerintegrációra lenne szüksége.
A beszállítói oldalon a friss állítás szerint a MediaTek jelenleg jobb helyzetben lehet az egyedüli processzorbeszállítói szerephez, a chip pedig a Dimensity 9600 testreszabott változatára épülhet, TSMC N2P gyártástechnológiával. A korábbi értesülések még MediaTek-Qualcomm együttműködést és Luxshare gyártási szerepet említettek.
A kiemelt specifikáció az Image Signal Processor(ISP) lehet, továbbfejlesztett HDR pipeline-nal a valós környezet érzékeléséhez. Emellett dual-NPU architektúra, LPDDR6, UFS 5.0, pKVM és inline hashing is szerepel a pletykált műszaki irányok között. Ezek alapján az OpenAI nem egyszerűen telefont, hanem egy AI agent futtatására optimalizált klienseszközt próbálhat építeni.
A számok ambiciózusak: ha a projekt menetrend szerint halad, Kuo szerint a 2027-2028-as összesített szállítás akár 30 millió darab körül is lehet. Ez egyelőre iparági elemzői értesülés, nem OpenAI-bejelentés, vagyis kezelendő a helyén.
(A cikk nyomokbanMesterséges Intelligenciaáltal szolgáltatott adatokattartalmaz, így a tartalmát érdemes duplán ellenőrizni!)
Már csak azt nem látom, hogy hol van az igény erre.
Ahogy legutóbb trey rámutatott: Amíg lószar van, veréb is van.
Blokkolnám!
trey @ gépház
Értettem. De azért ez egy általánosan használt mondás. Hogy írnád le szebben az állati trágya használata nélkül?
Csak hang legyen és fény... :-)
Form follows function.
En lehet, hogy fogok egyet venni.
Hasznalni nem fogom, de nagyon erdekel, hogy mi ez.
Ja. Ebben a nagy "bukkanó" az, hogy áttervezik az egész grafikus felhasználói interfészt - elrendezésben, inputban és funkciókban is teljesen más, mint amit eddig használtunk.
Én egyelőre egy olyan "sikertörténetnek" érzem ezt, mint ami a szemüvegekkel történt.
pár éven belül le lesznek darálva a hagyományos smart phone-ok?
mindenkinek intelligens asszisztense lesz a telefonjában?
ráerőltetik az emberiségre? (ezt is)
HER
másfél évtized sem kellett és valósággá válik:)
Valahogy nem vagyok ettől elájulva. Kirakják a calendart a home screenre, bele raknak egy senkinek sem kellő hangfelismerő izét, ami gombnyomkodás helyett bemondásra tud hívást indítani, meg eseményeket létrehozni, meg Google-ben keresni. Az egész sokkal nehézkesebben kezelhető, cserébe éjáj.
Az egész sokkal nehézkesebben kezelhető, cserébe éjáj.
Én már az MCP-k használatával is ezt érzem.
Marpedig az MCP nem akkora hulyeseg. Jar a pirospont erte, hogy azelott lett valamifele standardizacio, mielott a mindenfele AI provider a sajat szarjait kezdte volna eroltetni. Kulon respekt az Anthropicnak, hogy egybol nyiltta tettek.
Érdekes, mert én pl. kurva sokat gyalogolok és egyre többször érzem a hiányát a rendszer hangvezérlésének. Főleg, amióta van AI a telefonomon. Előttem van, hogy fülemben a füles és munkába menet, vagy kutyasétáltatás közben hangvezérléssel intézem a banki ügyeim, vagy íratok cikket a HUP-ra az AI-vel.
trey @ gépház
Egyrészt ez, amit Trey írt, másrészt pedig nézzetek körbe, hogy mások, főleg az olyan fiatalok akiknek még nem is kéne, hogy telefon legyen a kezében, na azok hogyan és mire használják a telefont.
Közműként használják oda sem figyelve arra, hogy mit tesznek valójában. Nekik az egyszerűség kell, és aki ezt először eléjük teszi, az nyer, mert az AI használatával a mostaninál is durvább vendor lock-in építhető ki, hiszen az évek óta téged tanuló AI ügynökről/adatbázisról nem fogsz lemondani egy kicsit fényesebb telefon miatt, hiszen az nem tud téged olyan pontosan kiszolgálni, mint az aktuális.
Emellett pedig olyan szintű társadalmi kontrollt ad a cégek/országok kezébe ez az irány, amitől még Gibson is elpityeredik, pedig ő már 40 éve megírta a Neuromancert. Ez az AI telefon annyira hatékony tud lenni az emberek irányításában, hogy nem az a kérdés, hogy be lesz-e vezetve, hogy el fog-e terjedni, hanem hogy mikor és mely vállalatok lesznek emiatt megkerülhetetlenek a politikában.
Form follows function.
+1000
Vezetek napi 1-2 orat, ha lenne egy rendes* hang alapu AI, amivel tudnek bizonyos dolgokat megcsinalni, akkor joval kevesbe lenne elvesztegetett ido.
* ChatGPT es Claude jo, de harmatgyenge a modell a live voice mogott (GPT-4o es Haiku 4.5), a Grok es a Gemini meg nagyon fasza mar, viszont ezekhez meg nincsenek ertelmes connectorok.
Igen, jelenleg is beszélgetek az AI-vel séta közben, de egyrészt jelenleg undormány a magyar hangja (olyan szintetikus szar) és butábbnak tűnik, mint az írt verziója. Ha kijavítanák és ezt egy telefonban kapnám, ami még az appjaimat is 100%-ban vezérli vagy egyenesen leváltja, azért még fizetnék is!
trey @ gépház
butábbnak tűnik
Nem csak annak tunik. :)
A ChatGPT "advanced" voice mode-ot konkretan egy lebutitott GPT-4o hajtja. Komplexebb temaknal sokszor bediktalom inkabb a promptot, megfuttatom 5.5-tel, es osszefoglaltatom a voice mode-ban. Otvar egy UX ez igy.
Komplexebb temaknal sokszor bediktalom inkabb a promptot, megfuttatom 5.5-tel
Én is így szoktam. Bár, a diktálás funkció is elég fos még, de ha működne!
trey @ gépház
lehet még direkt nem csinálják meg jóra, meet várnak a következő nagy dobásra
Na jó, de mint main interface? Mármint az igényt értem, hogy van amikor jól jönne -- bár én személy szerint zsigeri émelygést kapok a hangvezérlés gondolatától is, de tudom, hogy ez egyszocprob -- de nem látom, hogy alapvetően hogy lenne ez hatékonyabb. Mire megfogalmazom, hogy mit is akarok mondjuk elindítani, már az izommemória rég előhozta tap-tap-tap. És azért többnyire az infót is inkább a screenen nézném, és tapicskolnám, mint hogy magyarázzak, nem hiszem, hogy megközelítené a hatékonyságát...
amikor az Apple fogja megcsinálni ez akkor lesz hatalmas innováció :))