Nvidia po rrit fuqinë në linjën e saj të çipave të inteligjencës artificiale me njoftimin të hënën për arkitekturën e saj GPU Blackwell në Konferencën e saj të parë të Teknologjisë GPU (GTC) në pesë vjet.
Sipas Nvidia, çipi, i krijuar për t’u përdorur në qendra të mëdha të të dhënave – lloji që fuqizon si AWS, Azure dhe Google – ofron 20 PetaFLOPS të performancës së AI që është 4 herë më i shpejtë në ngarkesat e trajnimit të AI, 30 herë më i shpejtë në AI- duke konkluduar ngarkesat e punës dhe deri në 25 herë më efikas në energji sesa paraardhësi i tij.
Krahasuar me paraardhësin e tij, H100 “Hopper”, B200 Blackwell është edhe më i fuqishëm dhe efikas në energji, pohon Nvidia. Për të trajnuar një model AI me madhësinë e GPT-4, për shembull, do të duheshin 8,000 çipa H100 dhe 15 megavat fuqi. E njëjta detyrë do të merrte vetëm 2000 çipa B200 dhe katër megavat fuqi.
“Ky është përparimi i parë i madh i kompanisë në dizajnimin e çipave që nga debutimi i arkitekturës Hopper dy vjet më parë,” shkroi Bob O’Donnell, themeluesi dhe analisti kryesor i Technalysis Research, në buletinin e tij javor të LinkedIn.
Ushtrimi i ripaketimit
Megjithatë, Sebastien Jean, CTO i Phison Electronics, një kompani elektronike tajvaneze, e quajti çipin “një ushtrim ripaketimi”.
“Është mirë, por nuk është novatore,” tha ai për TechNewsWorld. “Do të funksionojë më shpejt, do të përdorë më pak energji dhe do të lejojë më shumë llogaritje në një zonë më të vogël, por nga këndvështrimi i teknologëve, ata thjesht e kanë shtypur atë më të vogël pa ndryshuar asgjë thelbësore.”
“Kjo do të thotë se rezultatet e tyre përsëriten lehtësisht nga konkurrentët e tyre,” tha ai. “Megjithëse ka vlerë të jesh i pari, sepse ndërsa konkurrenca jote arrin, ju kaloni në gjënë tjetër.”
“Kur e detyroni konkurrencën tuaj në një lojë të përhershme të rimëkëmbjes, përveç nëse ata kanë udhëheqje shumë të fortë, ata do të bien në një mentalitet ‘ndjekës të shpejtë’ pa e kuptuar këtë,” tha ai.
“Duke qenë agresive dhe duke qenë e para,” vazhdoi ai, “Nvidia mund të çimentojë idenë se ata janë të vetmit novatorë të vërtetë, gjë që nxit kërkesën e mëtejshme për produktet e tyre.”
Megjithëse Blackwell mund të jetë një ushtrim ripaketimi, shtoi ai, ai ka një përfitim të vërtetë neto. “Në terma praktikë, njerëzit që përdorin Blackwell do të jenë në gjendje të bëjnë më shumë llogaritje më shpejt për të njëjtën fuqi dhe buxhet hapësinor,” vuri në dukje ai. “Kjo do të lejojë zgjidhjet e bazuara në Blackwell të kalojnë dhe të tejkalojnë konkurrencën e tyre.”
Plug-përputhshëm me të kaluarën
O’Donnell pohoi se motori i transformatorit të gjeneratës së dytë të arkitekturës Blackwell është një përparim i rëndësishëm sepse redukton llogaritjet e pikës lundruese të AI në katër bit nga tetë bit. “Praktikisht, duke reduktuar këto llogaritje nga 8-bit në gjeneratat e mëparshme, ata mund të dyfishojnë performancën llogaritëse dhe madhësitë e modeleve që mund të mbështesin në Blackwell me këtë ndryshim të vetëm,” tha ai.
Çipat e rinj janë gjithashtu të pajtueshëm me paraardhësit e tyre. “Nëse tashmë keni sistemet e Nvidia me H100, Blackwell është i pajtueshëm me priza,” vuri në dukje Jack E. Gold, themelues dhe analist kryesor me J.Gold Associates, një kompani këshilluese IT në Northborough, Mass.
“Në teori, thjesht mund të shkëputësh H100 dhe të futësh Blackwells”, tha ai për TechNewsWorld. “Megjithëse mund ta bëni këtë teorikisht, mund të mos jeni në gjendje ta bëni atë financiarisht.” Për shembull, çipi H100 i Nvidia kushton 30,000 deri në 40,000 dollarë secili. Megjithëse Nvidia nuk zbuloi çmimin e linjës së saj të re të çipave AI, çmimi me siguri do të jetë në ato linja.
Gold shtoi se çipat Blackwell mund të ndihmojnë zhvilluesit të prodhojnë aplikacione më të mira të AI. “Sa më shumë pika të të dhënave që mund të analizoni, aq më mirë bëhet AI”, shpjegoi ai. “Ajo për të cilën Nvidia po flet me Blackwell është se në vend që të jetë në gjendje të analizojë miliarda pika të dhënash, ju mund të analizoni triliona.”
Gjithashtu në GTC u njoftuan edhe Nvidia Inference Microservices (NIM). “Mjetet NIM janë ndërtuar në krye të platformës CUDA të Nvidia dhe do t’u mundësojnë bizneseve të sjellin aplikacione të personalizuara dhe modele të para-trajnuara të AI në mjediset e prodhimit, të cilat duhet t’i ndihmojnë këto firma në sjelljen e produkteve të reja të AI në treg,” Brian Colello, një strateg i kapitalit me Morningstar Research. Shërbimet, në Çikago, shkruan në shënimin e një analisti të martën.
Ndihma në vendosjen e AI
“Kompanitë e mëdha me qendra të dhënash mund të adoptojnë shpejt teknologjitë e reja dhe t’i vendosin ato më shpejt, por shumica e qenieve njerëzore janë në biznese të vogla dhe të mesme që nuk kanë burime për të blerë, përshtatur dhe vendosur teknologji të reja. Çdo gjë si NIM që mund t’i ndihmojë ata të adoptojnë teknologji të re dhe ta vendosin atë më lehtë do të jetë një përfitim për ta, “shpjegoi Shane Rau, një analist gjysmëpërçues me IDC, një kompani globale e kërkimit të tregut.
“Me NIM, ju do të gjeni modele specifike për atë që dëshironi të bëni,” tha ai për TechNewsWorld. “Jo të gjithë duan të bëjnë AI në përgjithësi. Ata duan të bëjnë AI që është veçanërisht e rëndësishme për kompaninë ose ndërmarrjen e tyre.”
Ndërsa NIM nuk është aq emocionues sa modelet më të fundit të harduerit, O’Donnell vuri në dukje se është dukshëm më i rëndësishëm në planin afatgjatë për disa arsye.
“Së pari,” shkroi ai, “supozohet ta bëjë më të shpejtë dhe më efikase që kompanitë të kalojnë nga eksperimentet GenAI dhe POC (prova e koncepteve) në prodhimin e botës reale. Thjesht nuk ka mjaft shkencëtarë të të dhënave dhe ekspertë të programimit GenAI për të shkuar përreth, kështu që shumë kompani që kanë qenë të etur për të vendosur GenAI janë kufizuar nga sfidat teknike. Si rezultat, është mirë të shohësh Nvidia duke ndihmuar në lehtësimin e këtij procesi.”
“Së dyti,” vazhdoi ai, “këto mikroshërbime të reja lejojnë krijimin e një rryme të re të ardhurash dhe strategjie biznesi për Nvidia, sepse ato mund të licencohen në bazë të një GPU/në orë (si dhe variacione të tjera). Ky mund të jetë një mjet i rëndësishëm, afatgjatë dhe më i larmishëm për të gjeneruar të ardhura për Nvidia, kështu që edhe pse është ditët e para, kjo do të jetë e rëndësishme për t’u parë.”
Udhëheqës i rrënjosur
Rau parashikoi që Nvidia do të mbetet e ngulitur si platforma e zgjedhur e përpunimit të AI për të ardhmen e parashikueshme. “Por konkurrentët si AMD dhe Intel do të jenë në gjendje të marrin pjesë modeste të tregut të GPU-ve,” tha ai. Dhe për shkak se ka çipa të ndryshëm që mund të përdorni për AI – mikroprocesorë, FPGA dhe ASIC – ato teknologji konkurruese do të konkurrojnë për pjesën e tregut dhe do të rriten.”
“Ka shumë pak kërcënime për dominimin e Nvidia në këtë treg,” shtoi Abdullah Anwer Ahmed, themeluesi i Serene Data Ops, një kompani e menaxhimit të të dhënave në San Francisko.
“Përveç harduerit të tyre superior, zgjidhja e tyre softuerike CUDA ka qenë themeli i segmenteve themelore të AI për më shumë se një dekadë,” tha ai për TechNewsWorld.
“Kërcënimi kryesor është se Amazon, Google dhe Microsoft/OpenAI po punojnë në ndërtimin e çipave të tyre të optimizuar rreth këtyre modeleve,” vazhdoi ai. “Google tashmë ka çipin e tyre ‘TPU’ në prodhim. Amazon dhe OpenAI kanë lënë të kuptohet për projekte të ngjashme.”
“Në çdo rast, ndërtimi i GPU-ve të veta është një opsion i disponueshëm vetëm për kompanitë më të mëdha absolute,” shtoi ai. “Shumica e industrisë LLM do të vazhdojë të blejë GPU Nvidia.”