雷遞網(wǎng) 樂天 8月10日
(資料圖片僅供參考)
英偉達(dá)日前發(fā)布新一代NVIDIAGH200GraceHopper?平臺,英偉達(dá)稱,該平臺基于全球首款搭載HBM3e處理器的GraceHopper超級芯片,專為加速計算和生成式AI時代而構(gòu)建。
新平臺專為處理大語言模型、推薦系統(tǒng)、矢量數(shù)據(jù)庫等全球最復(fù)雜的生成式AI工作負(fù)載而構(gòu)建,將提供多種配置選擇。
該平臺采用雙配置——提供的內(nèi)存容量和帶寬比當(dāng)前產(chǎn)品分別增加了3.5倍和3倍——包括一個擁有144個ArmNeoverse內(nèi)核、8petaflops的AI性能和282GB最新HBM3e內(nèi)存技術(shù)的單個服務(wù)器。
NVIDIA創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“為了滿足對生成式AI不斷激增的需求,數(shù)據(jù)中心需要能夠滿足特定需求的加速計算平臺。全新GH200GraceHopper超級芯片平臺以出色的內(nèi)存技術(shù)和帶寬,提高了吞吐量,在不影響性能的情況下可連接多GPU以整合性能,并且具有可以輕松部署到整個數(shù)據(jù)中心的服務(wù)器設(shè)計?!?/p>
新平臺采用了GraceHopper超級芯片,可以通過NVIDIANVLink?與其他超級芯片連接,使它們能夠協(xié)同工作,從而部署當(dāng)下大型生成式AI模型。這種高速、一致性技術(shù)使GPU可以完全訪問CPU內(nèi)存,在雙配置中可提供總計1.2TB的快速內(nèi)存。
HBM3e內(nèi)存比當(dāng)前HBM3快50%,可提供總計10TB/s的帶寬。這使得新平臺能夠運(yùn)行比上一版本大3.5倍的模型,同時憑借快3倍的內(nèi)存帶寬提升性能。
英偉達(dá)表示,預(yù)計業(yè)界領(lǐng)先的系統(tǒng)制造商將于2024年第二季度開始交付搭載該平臺的系統(tǒng)。
日前,有外媒披露,百度、字節(jié)跳動、騰訊和阿里巴巴已下價值10億美元的訂單,將從英偉達(dá)(NVDA.O)購買約10萬顆A800處理器,這些處理器將于2023年交付。兩位接近英偉達(dá)的人士表示,這些企業(yè)還購買了價值40億美元的GPU處理器,將于2024年交付。
早前,大眾對人工智能的熱情高漲之際,大多數(shù)互聯(lián)網(wǎng)巨頭的庫存芯片都不到幾千個,這些芯片可用于訓(xùn)練大型語言模型。從那時起,這些芯片的價格開始飆升。
如今,隨著部分大模型的落地,及芯片的交付,英偉達(dá)的股價反而破防。截至今日收盤,英偉達(dá)股價為425.54美元,較前一日大跌4.72%,公司市值仍高達(dá)10511億美元。
雷遞由資深媒體人雷建平創(chuàng)辦,若轉(zhuǎn)載請寫明來源。
標(biāo)簽:
Copyright @ 2008-2020 www.g888726.cn 華夏財富網(wǎng) 版權(quán)所有 聯(lián)系郵箱:3960 29142@qq.com