Var det verkligen så billigt?

Deepseeks låga kostnader kan ha varit ett knep

Kinesiska Deepseek fortsätter att vara kontroversiella, den här gången för att de låga utvecklingskostnaderna kan ha varit ett knep.

När Deepseek presenterade sin språkmodell Deepseek R1 V3 var en av detaljerna som fick branschen att höja på ögonbrynen den hade kostat 6 miljoner dollar att utveckla och använde sig av 2048 AI GPU-kretsar. Nu publicerar Semianalysis information om att den siffran kanske inte ligger speciellt nära verkligheten. 

Enligt rapporten låg den kinesiska hedgefonden High-Flyer bakom de initiala investeringarna i det som sedan skulle bli Deepseek, och de investerade uppskattningsvis motsvarande 500 miljoner dollar i 10000 GPU:er redan 2021 för att utveckla AI. När det sedan blev dags att bryta loss Deepseek följde dessa med, och man ska via High-Flyer ha investerad sammanalg motsvarande 1,6 miljarder dollar i hårdvara, inklusive 50000 NVIDIA Hopper GPU:er, vilket ger ett totalt antal på 60000 processorer, och inte 2048 som uppgetts Man ska dessutom ha spenderat upp till 944 miljoner dollar enbart i driftskostnader. 

Enligt Semianalysis handlar den påstådda kostnaden på 6 miljoner dollar i rapporten hänförs till GPU-kostnaden för den så kallade " pre-training run”, vilket bara är en del av den totala kostnaden för modellen. Enligt rapporten kan detta jämföras med att peka på en specifik del av en materialförteckning för en produkt och hävda att den är hela kostnaden, när det i själva verket bara handlar om en liten del av den totala kostnaden.