眾所周知,最近美國OpenAI的ChatGPT火爆了。
究竟有多火,看看用戶發展速度就明白了, 它用兩天時間突破100萬用戶,它突破1億用戶花了兩個月。
然后微軟投了100多億美元,而谷歌也全力跟進,大家認為這可能是一次新的工業革命。
說真的,這次ChatGPT的誕生,對中國人工智能領域的刺激還是很大的,很多人表示,通過ChatGPT可以看出中美人工智能差距還是比較大的。
想當初,眾多媒體均表示中國在人工智能等領域并不比美國落后,甚至走到了美國前面,那麼為何這次ChatGPT會誕生在美國呢?究竟是什麼拖了中國ChatGPT的后腿?
其實在我看來,歸根結底還是芯片,特別是AI芯片,比如GPU、CPU、 FPGA、ASIC芯片等等,目前差距還很大。
ChatGPT背后,其實是高算力支持,之有有媒體報道稱,ChatGPT目前至少已經導入了1萬塊NVIDIA的高端GPU,其 總算力已經超過了3640PF-days。
具體用價值來算的話,在算力建設這一塊,ChatGPT可能有50億美元的數據中心在后面支撐著。
但在國內,要建設如此龐大的數據中心,并不容易,特別是高端GPU顯卡,其實已經買不到了,被美國禁售了, 比如AMD的最高端的MI250人工智能芯片,還有英偉達的A100和H100芯片。這三款都是被用于加速人工智能任務的最新兩代旗艦GPU計算芯片。
而OpenAI的GPT-3 的1750億參數(45.3T)模型單次訓練需要1024張NVIDA A100 GPU訓練34天。而GPT-4需要的算力會增加兩個數量級,我們從哪搞到這些芯片?
另外像CPU, FPGA、ASIC芯片,中美的差距還是相當大的。在這樣的情況之下,讓中國的企業,花幾百億,采購大堆的先進芯片,然后先建一個數據中心來支撐算力,想想都不太可能。
當然,除了算力之外,還有一個原因就是錢。ChatGPT的背后,有微軟這樣的大企業,上百億美元的輸血,放在國內也很難實現。
讓一家上市企業,這麼花錢,資本市場交待不過去,這筆錢批不出來的,就算谷歌、微軟在看不到希望前,都不敢這麼燒錢來干。
而讓一家創業公司這麼來干,又需要大投資機構、或者科技公司投錢,而國內要想得到上百億美元的投資,基本上都是希望短期內看到回報的,但ChatGPT這事,可能是 相當長時期看不到回報的事,國內有這個實力的投資者,科技企業,都不敢投,這也是原因之一。
當然,目前國內的百度、阿里、華為、騰訊、科大訊飛等也在摩拳擦掌,也要推出類似的產品。但總而言之,前途是光明的,但過程肯定是困難的, 我們要樂觀,但也要對這種事情敲響警鐘。