Az Amazon felhőszolgáltatója, az Amazon Web Services (AWS) Las Vegasban, éves re:Invent konferenciáján jelentette be, hogy jövőbeli AI-chipjeiben a Nvidia NVLink Fusion technológiáját használja majd, egy Trainium4 nevű következő generációs processzorban.
A NVLink a Nvidia egyik kulcstechnológiája: rendkívül gyors összeköttetést teremt a különböző chipek között, így nagy AI klaszterekben a gépek gyorsabban tudnak „összebeszélni” – ez létfontosságú a nagy nyelvi modellek és egyéb generatív AI rendszerek betanításánál.
Nvidia-vezérigazgató Jensen Huang szerint az AWS-szel közös munka lényegében egy új „compute fabric”, vagyis egy olyan számítási szövet kiépítését jelenti, amely az AI „ipari forradalmának” alapja lehet – cél, hogy minden cég, minden ország hozzáférjen fejlett AI-infrastruktúrához.
Új Trainium3 szerverek: négyszeres teljesítmény, kevesebb energia
Az AWS nem csak a jövőbeli Trainium4-et villantotta meg, hanem konkrét, azonnal használható vasat is:
-
új Trainium3-alapú szervereket jelentettek be,
-
egy szerverben 144 darab Trainium3 chip dolgozik,
-
több mint négyszeres számítási teljesítményt ígérnek az előző generációhoz képest,
-
mindezt kb. 40%-kal alacsonyabb energiafelhasználás mellett.
Az AWS célja, hogy ne csak teljesítményben, hanem ár–érték arányban is versenyképes legyen a riválisokkal szemben. A Trainium3-ra épülő szerverekkel olyan ügyfeleket céloznak, akik nagy AI-modelleket szeretnének tréningezni, de figyelnek a villanyszámlára és a teljes birtoklási költségre is.
AI Factories: saját „mini-gyár” nagyvállalatoknak
Az együttműködés részeként az AWS AI Factories néven új koncepciót is bevezet. Ezek olyan dedikált AI-infrastruktúra csomagok, amelyeket nagyvállalati ügyfelek saját adatközpontjukban futtathatnak.
A lényeg:
-
a cégek nem csak a publikus AWS-felhőben,
-
hanem saját, on-premise környezetben is kaphatnak Nvidia–AWS kombóra épülő AI-szervereket,
-
így gyorsabb válaszidő, szigorúbb adatvédelem és rugalmasabb compliance érhető el.
Ez különösen vonzó lehet bankok, egészségügyi szolgáltatók, állami szervek számára, ahol kulcskérdés, hol és hogyan tárolják a kritikus adatokat.
Nova 2 és Sonic: az Amazon AI-modelljei szintet lépnek
Az AWS ezzel párhuzamosan frissítette Nova nevű modellcsaládját is:
-
a Nova 2 gyorsabb, reszponzívabb,
-
elérhető olyan Nova-változat, amely szöveget, képet, beszédet és videót is tud fogadni,
-
a Sonic nevű modell pedig kifejezetten beszédalapú interakciókra optimalizált, beszédre beszéddel válaszol, természetes, emberközeli hangzással.
Az Amazon ezzel egyértelműen a ChatGPT, a Claude és a Gemini mellé szeretne felzárkózni, miközben kihasználja az AWS óriási vállalati ügyfélkörét és meglévő felhőinfrastruktúráját.
Nova Forge: vállalati AI modell, ami a saját adatokra épít
A bejelentés másik fontos eleme a Nova Forge szolgáltatás.
Ennek lényege, hogy a vállalatok:
-
saját adataikra építve tudnak testreszabott AI-modellt készíteni,
-
a modell mélyen érti a cég belső dokumentumait, folyamatait,
-
miközben megtartja az alapmodell általános tudását, és nem „felejti el” a nyelvi, világról szóló ismereteket.
Ez az AWS válasza az „enterprise AI” trendjére: a cégek nem egy generikus chatbotot akarnak, hanem olyan rendszert, ami úgy beszél, mintha ismerné a belső szabályzatokat, szerződésmintákat, folyamatokat.