Selskaberne bag kunstig intelligens (AI) har tårnhøje ambitioner, når det gælder deres skabningers intelligens – og muligheden for at tjene penge på dem. Men der følger en astronomisk elregning med de kunstigt kloge maskiner. OpenAI har nu planer om at bygge et datacenter, der potentielt vil kræve lige så meget elektricitet som hele Indien!
I et internt notat afslører OpenAIs CEO, Sam Altman, en ambition om at opbygge op til 250 gigawatt computerkapacitet inden 2033. Til sammenligning vil datacentret betyde en dobbelt så højt kuldioxid som ExxonMobil, der ellers er den største ikke-statslige CO2-synder på kloden.
30 millioner GPU’er – om året
Datacentret skal rumme omkring 60 millioner grafikprocessorer (GPU’er). Og det er ikke en engangsinvestering. For at opretholde sin regnekapacitet skal centret årligt genanskaffe 30 millioner GPU’er. Da processorerne arbejder på højtryk døgnet rundt, vil den anslåede levetid på dem være blot to år, hvilket nødvendiggør en kontinuerlig udskiftning.
Sådan en regning vil Sam Altman ikke stå alene med. Konkret har OpenAI anmodet USA om at udvide det eksisterende CHIPS Act skattefradrag til også at dække AI-infrastruktur. Sam Altman understreger, at man ikke beder staten om en pose penge til firmaets enorme udgifter – man vil bare gerne bede om at slippe for at betale skat. For at kunne bygge den infrastruktur, der skal sikre USA sejren i AI-kapløbet.
Jensen advarer: Kina vinder på gratis energi
Den kolossale vækst i AI-infrastruktur lægger et mærkbart pres på energiforsyningen. Nvidia administrerende direktør, Jensen Huang, har en knivskarp forudsigelse: han mener, at Kina vil vinde det globale AI-kapløb.
Årsagen er Kinas energipolitik. Kinas elnet er meget større og mere effektivt end USA’s og dermed bedre rustet til AI-væksten. Huang hævder, at kinesiske datacentre nyder godt af energisubsidier – en politik der har fået ham til at udtale, at “i Kina er strøm gratis”. Disse subsidier er udelukkende tilgængelige for datacentre, der bruger kinesisk producerede computerchips, hvilket belejligt nok booster landets egen chipindustri.
Microsofts virkelighed: chips uden strøm
Denne energidebat understøttes af Microsofts administrerende direktør, Satya Nadella. Han har udtalt, at problemet i AI-industrien ikke handler om mangel på computerkraft, men snarere om mangel på strøm til at fyre op for alle de AI GPU’er, der ellers er klar til brug.
Nadella har forklaret, at Microsoft i øjeblikket har problemer med ikke at have strøm nok til at tilslutte nogle af de GPU’er, virksomheden har på lager. Manglen på klargjorte datacentre med den nødvendige infrastruktur af strøm og vand – betyder, at man “faktisk kan have en masse chips siddende på lager, som man ikke kan sætte stik i”. Det er altså ikke mangel på datalogisk muskelkraft, men snarere mangel på fysiske og energimæssige rammer.
Det store spørgsmål, der står tilbage, er ikke, om AI kan løse komplekse problemer. Det er snarere: Hvor meget mere strøm kan kloden egentlig tåle at levere?
Kilder: Toms Hardware, Gizmodo, Toms Hardware
