





近期,美國(guó)人工智能數(shù)據(jù)基本機(jī)構(gòu)Scale AI創(chuàng)始人兼首席執(zhí)行官Alexandr Wang在接受CNBC采訪時(shí)叫作,DeepSeek持有大約五萬(wàn)塊英偉達(dá)H100芯片,但因美國(guó)出口管理辦法,她們不可公開(kāi)談?wù)摗?
王在采訪中先夸贊了DeepSeek的性能叫作,“咱們發(fā)掘,DeepSeek(R1)是日前表現(xiàn)最好的,或說(shuō)與美國(guó)最好的模型(GPT o1)處在同一水平?!?/p>
當(dāng)被問(wèn)及中美兩國(guó)在人工智能行業(yè)的競(jìng)爭(zhēng)時(shí),王暗示:“長(zhǎng)時(shí)間敗興,美國(guó)始終處在領(lǐng)先地位。”不外,他彌補(bǔ)說(shuō),DeepSeek最新的模型確實(shí)試圖改變這一局面。王認(rèn)為,“中國(guó)實(shí)驗(yàn)室在圣誕節(jié)發(fā)布一款驚天動(dòng)地的模型擁有象征道理,要曉得,咱們其他人正在慶祝節(jié)日?!?/p>
Alexandr Wang(王)CNBC
DeepSeek于2024年12月26日(美國(guó)時(shí)間12月25日)當(dāng)天發(fā)布了一款“震撼性的模型”——DeepSeek-V3,隨后又于1月20日推出了一款專注于推理的強(qiáng)大AI模型DeepSeek-R1,對(duì)標(biāo)OpenAI的o1模型。
DeepSeek利用較少且不足先進(jìn)的芯片訓(xùn)練出了媲美ChatGPT的模型。DeepSeek在一份技術(shù)報(bào)告中叫作,它運(yùn)用超過(guò)2000個(gè)英偉達(dá)H800芯片集群來(lái)訓(xùn)練其參數(shù)為6710億的V3模型,而Meta訓(xùn)練參數(shù)量4050億的Llama 3,用了16384塊更強(qiáng)的H100顯卡,花了54天。Deepseek的訓(xùn)練效率為Meta的11倍。
DeepSeek暗示,訓(xùn)練其最新模型之一的成本為560萬(wàn)美元(約合人民幣4100萬(wàn)元)。相比之下,人工智能研發(fā)商Anthropic的首席執(zhí)行官達(dá)里奧·阿莫迪 (Dario Amodei )去年說(shuō)到的創(chuàng)立一個(gè)模型的成本為1億至10億美元。
CNBC曾發(fā)帖叫作:“DeepSeek-R1因其性能超越美國(guó)頂尖同類模型,且成本更低,算力消耗更少,誘發(fā)了硅谷的恐慌?!?/p>
但王話鋒一轉(zhuǎn),談到了中國(guó)人工智能企業(yè)可能為人工智能模型配備的GPU數(shù)量。他叫作,“中國(guó)的實(shí)驗(yàn)室持有的H100芯片比人們想象的要多得多?!彼?span style="color: green;">彌補(bǔ)道, “據(jù)我認(rèn)識(shí),DeepSeek持有大約五萬(wàn)塊H100芯片?!蓖跽J(rèn)為,由于違反了美國(guó)實(shí)施的出口管理,因此DeepSeek不可談?wù)撨@些。
英偉達(dá)的Hopper架構(gòu)GPU如H100和H200,因其優(yōu)秀的算力,出口受到美國(guó)政府的管理。拜登政府于2022年經(jīng)過(guò)一項(xiàng)規(guī)定禁止英偉達(dá)向中國(guó)出售性能遠(yuǎn)超其舊款GPU A100 的GPU系列,迫使英偉達(dá)研發(fā)了名為H800和A800的性能削減版芯片用以替代,但一年后的2023年10月,這兩款芯片亦一并被禁止。日前,英偉達(dá)已在推廣其最新一代Blackwell架構(gòu)的GPU,其出口依然受到限制。
王將中美之間的人工智能競(jìng)賽描述為一場(chǎng)“AI戰(zhàn)爭(zhēng)”,并彌補(bǔ)道,“美國(guó)將需要海量的計(jì)算能力和基本設(shè)備,咱們需要釋放美國(guó)的能量以推動(dòng)這場(chǎng)AI繁榮。” 返回外鏈論壇: http://www.fok120.com,查看更加多