今年5月,OpenAI首席執行官Sam Altman向美國參議員們發表講話時承認,他并不想讓人們過多使用ChatGPT。他表示:“如果他們少用點,我們會很高興的。”原因在于“我們沒有足夠的GPU。”
Bloomberg專欄作家Parmy Olson認為,Altman的言論凸顯了不斷增長的人工智能(AI)領域中令人不安的動態,由于其基礎設施的價值和規模,現有科技公司的權力正變得更加根深蒂固。人工智能熱潮并沒有為創新的新公司創造一個繁榮的市場,反而似乎在幫助大型科技公司鞏固實力。
智通財經了解到,GPU是一種特殊的芯片,最初設計用于在電子游戲中渲染圖形,后來成為人工智能競賽的基礎。這些芯片價格昂貴、稀缺,主要來自英偉達(NVDA.US)。由于需求激增,英偉達的市值上月突破了1萬億美元。為了構建人工智能模型,開發人員通常會從微軟(MSFT.US)和亞馬遜(AMZN.US)等公司購買云服務器的訪問權限——GPU為這些服務器提供動力。
俗話說,在淘金熱期間,賣鐵鍬。毫無疑問,今天的人工智能基礎設施提供商賺得盆滿缽滿。但現在與19世紀中期有了很大的不同,當時加州淘金熱的贏家都是暴發戶,比如推出耐穿礦工褲的Levi Strauss,以及通過售賣五金工具而成為百萬富翁的Samuel Brennan。
Olson認為,如今,至少在未來一年左右的時間里,銷售人工智能服務的大部分利潤將流向微軟、亞馬遜和英偉達等公司,這些公司已經在科技領域占據主導地位多年。
部分原因是,雖然云服務和芯片的成本在上升,但訪問人工智能模型的價格卻在下降。2022年9月,OpenAI將訪問GPT-3的成本降低了三分之一。六個月后,它使訪問成本降低了10倍。今年6月,OpenAI將其嵌入模型的成本削減了75%。Sam Altman曾表示,訪問成本“正朝著接近零的方向發展”。
與此同時,構建人工智能模型的價格正在上漲。英偉達的A100和H100芯片是機器學習計算的黃金標準,但H100的價格已經從幾個月前的不到3.5萬美元攀升至4萬美元以上,全球短缺意味著英偉達無法制造出足夠多的芯片。許多人工智能初創公司發現自己排在微軟和甲骨文(ORCL.US)等大客戶后面購買這些急需的微處理器。OpenAI的Altman也抱怨過自己很難拿到芯片。
與OpenAI這樣的新貴相比,大型科技公司有很大的優勢,這要歸功于它們可以直接使用那些至關重要的GPU,以及成熟的客戶群。
與此同時,人工智能模型的制造商面臨著人才流動問題,這使得他們難以保密和保持產品差異化。他們的成本是永無止境的:一旦他們把錢花在云服務器上來訓練他們的模型,他們還必須為客戶運行這些模型,這個過程被稱為推理。AWS估計,推理占人工智能模型總運營成本的90%。這些錢大部分流向了云計算提供商。
這為人工智能領域的雙層體系奠定了基礎。那些在上層的人有金錢和顯赫的關系。從硅谷著名孵化器Y Combinator畢業的創業者,從亞馬遜和微軟等云供應商那里獲得了價值數十萬美元的服務。第二梯隊的人工智能公司將組成一個長尾,無論他們的算法有多聰明,他們都沒有這種關系和資源來訓練他們的人工智能系統。
不過,Bloomberg的Olson指出,小公司的一線希望是,大型科技公司有一天會發現他們的產品和服務也變得商品化,迫使他們放松對人工智能市場的控制。芯片短缺最終會緩解,GPU將更容易獲得,價格也會更便宜。云計算提供商之間的競爭逐漸升溫,例如,谷歌(GOOGL.US)正在開發自己的GPU版本——稱為TPU,而英偉達正在建立自己的云業務來與微軟競爭。
而且,隨著研究人員開發出LoRA 和PEFT 等技術,使構建人工智能模型的過程更加高效,需要的數據和計算能力將更少,F在,人工智能模型正在變得越來越小,這將需要更少的GPU和基礎設施,這意味著大型科技公司的優勢不會永遠持續下去。(來源:智通財經APP)
|