華爾街向來偏愛可預測的利潤率。但在生成式人工智能(AI)的淘金熱中,企業客戶正集體墜入一個由矽谷精心鑄造的定價黑洞。黑洞的核心,是聽起來極具科學嚴謹性、實則比橡皮筋還充滿彈性的計價單位:Token。如果你以為在不同AI模型之間比對每百萬Token的報價,就像在比較每加侖汽油的價格一樣直觀,那你大概已經是這場計程器騙局裏最順從的乘客。
在撕開這層科技術語的偽裝前,先講一個搬屋的故事。搬屋公司A報價每箱10元,用大箱子,你的單位裝了10箱,賬單100元。搬屋公司B報價低兩成,每箱只需8元,但紙箱像鞋盒大小,同樣的家當裝了18箱,盛惠144元。那個「更便宜」的報價,讓你多付了四成四。B沒有撒謊,每個數字都千真萬確,但你實質所付的錢更多,這就是今天AI模型定價的現況。
分詞器切分結果不同
表面上,各大模型供應商似乎在展開激烈的價格戰,數據說的卻是另一回事。把完全相同的內容餵給不同模型,並以OpenAI的GPT-5.4設為基準,所謂的「標準單位」瞬間現出原形。以Anthropic的旗艦模型Claude Opus 4.7為例,在處理包含工具調用(Tools)的複雜任務時,它的分詞器(Tokenizer)會將同樣的指令切碎成高達基準值2.65倍的Token數量。純文字場景已有一成七的膨脹;一旦進入企業最倚重的Agentic工作流,膨脹率便像吹氣球般失控。
這代表什麼?意味着即使牌面報價看起來相差無幾,實際的賬單卻會讓你大跌眼鏡。GPT-5.4在工具調用場景下的有效成本穩定在每百萬輸入Token 2.5美元,Claude Opus 4.7是13.25美元,相當於OpenAI的5.3倍。即便是處理普通JSON,Claude Opus 4.7的有效成本也高達8.5美元,是GPT-5.4的3.4倍。有趣的是,市場上並非沒有更誠實的標尺:Gemini 3.1 Pro Preview在純文字和結構化數據上的實際成本,比GPT低10%到15%,唯獨在工具調用上微幅上揚。但多數企業高管在簽署採購合約時,根本不知道自己應該問這些問題。
學術界早已對此發出警報:模型供應商完全有能力在不改變底層輸出的情況下,透過操縱分詞過程來浮報Token數量。試想一下,一個簡單的專有名詞「Damascus」正常分詞是兩個Token,但若供應商回報為8個,坐在API另一端的企業客戶要如何驗證?服務提供商能觀察到完整的生成與分詞過程,用戶只能看到輸出的文字和隨之而來的賬單。這不僅僅是技術上的不透明,根本是商業模式上的結構性尋租。
然而,這裏存在一個反直覺的弔詭。即使企業看穿了分詞器的把戲,它們也未必會離開。原因很簡單:轉換成本。企業已為某個模型量身打造的提示詞工程(Prompts Engineering)、圍繞其輸出特性校準的評估框架(Evals)、針對其上下文窗口微調的檢索架構、已經熟練掌握其API的整支工程團隊,這些沉沒投資構成了一道無形高牆。若要推倒重來,代價之高,足以讓企業在明知Anthropic的Tokenizer效率遠遜於GPT的情況下,仍然理性地選擇留下來,繼續繳納那筆隱形的溢價。
轉換含成本 黏性不等於價值
Anthropic創辦人阿莫迪(Dario Amodei)顯然深諳此道。他曾公開反駁「API業務終將被商品化」的論點,更進一步指出,AI模型之間的差異化程度遠高於雲端基礎設施。每個模型有不同「個性」,就像跟不同人交談。他甚至打趣道:如果房間裏有10個知識和身高都跟我差不多的人,難道我就被商品化了嗎?但我們都知道人力市場不是這樣運作的,AI也不是。
這番話很精巧,也很危險。精巧在於它確實點出了模型間的質性差異,不同模型擅長不同任務,輸出風格迥異,這不是CPU核心數那種可以量化到小數點後兩位的競爭。危險在於它同時是一張精美的遮羞布,把一個關鍵事實掩蓋在「個性」的華麗詞藻之下:黏性不等於價值。雲端服務的歷史已經把這個劇本演過一遍,AWS、Azure、GCP之間的技術差異,客觀上遠小於客戶實際體驗到的轉換摩擦。雲端廠商的利潤率裏,有多少是服務費,有多少是轉換成本的租金?這個問題,正在AI產業以10倍的速度重演,且計費層面的不透明度有過之而無不及。鎖定效應可以讓客戶多付五成甚至更多,而這些超額支付與模型品質毫無關係。
對於投資者而言,這幅圖景的含義值得逐一去拆解。
首先,Anthropic的收入品質需要被打上問號。如果其旗艦模型在工具密集型場景下的實際有效成本是OpenAI的5倍以上,那麼它在企業AI領域的市佔率,究竟有多少建立在模型能力上,又有多少建立在客戶尚未意識到分詞器差異的認知落差上?
Google全棧優勢被低估
隨着平行基準測試的分析日益普及,這層資訊屏障終將瓦解。屆時,Anthropic在下一輪融資或潛在IPO中的估值敍事,能否承受住這種定價脆弱性的衝擊?
與此同時,Google的定價紀律被市場嚴重低估了。Gemini在文字和結構化數據上的實際成本比GPT低10%到15%,在大規模企業部署中意味着數以百萬計的節省。市場的注意力被基準測試排名吸走了,卻忽略了一個更冷靜的事實:對於絕大多數企業工作負載,模型品質的差異可能只有個位數百分比,但成本的差異是倍數級。Google Cloud坐擁從TPU到模型到企業銷售的全棧優勢,一旦企業開始認真計算有效成本而非標價,Gemini的滲透率加速可能會讓市場措手不及。
更根本的趨勢是,Token作為計費單位的時代,可能正在走向終結。當一個計量單位如此缺乏標準化、不透明,如此容易被結構性地利用時,市場遲早會要求替代方案。無論按任務計費、按結果計費、按固定月費,哪一種都比「用一把你看不見刻度的尺子來量布」更誠實。率先推出透明定價模型的供應商,獲得的將不僅是商譽,而是與技術優勢同等量級的競爭護城河。
阿莫迪說得對,AI模型不是商品,它們各有所長。但當賣方同時定義計量單位、執行計量過程、並回報計量結果時,經濟學中最經典的「道德風險」與「資訊不對稱」便應運而生。
投資界有一條老規矩:永遠不要信任一個自己設定計量標準的賣方。當供應商告訴你每百萬Token只要幾美元時,你的第一個問題不應該是「這比競爭對手便宜嗎」,而應該是你的Token「有多大」?
這個問題的答案,價值數十億美元。而大多數企業,似乎還沒有開始問。
No comments:
Post a Comment