Dagelijks verschijnen persberichten die inhaken op AI, hardwaremakers, softwarebouwers, datacenters echt iedereen in de sector schreeuwt daarmee om aandacht. Als we al die berichten mogen geloven staan we aan de vooravond van een nieuwe revolutie. Tijd om op een langer bekend pijnpunt te wijzen waar vooral over wordt gezwegen.
Hyperscalers hebben veel belang AI onder de aandacht te brengen. Die push is hard nodig omdat de groei van de inkomsten op andere terreinen onder druk staat. Dat laatste is recent nog in dit artikel benoemd. Het is ook zinnig om te kijken naar de trends rond harde schijven. Trendfocus maakte enkele dagen terug bekend dat er 20 procent minder capaciteit voor nearline HDD’s is verscheept in aantallen zou dat overeenkomen met 7 procent. Wederom een teken dat datacenters, groot en klein, minder hard groeien dan gedacht. Nieuwe business en nieuwe hypes zijn daarom meer dan welkom.
AI is zowel een hype als nieuwe business. VC’s hebben weliswaar iets minder te besteden dan twee jaar terug, maar ze zien in AI meer kans op rendement dan in security (!). Dat leidt dus tot meer start-ups, doorgroeiers en nieuwe toetreders op die markt. Iedereen met een datacenter staat te springen om dit soort klanten. Los van de financiers die er achter staan is er nog een andere reden. Hyperscalers voorop hebben alle datacenters belang bij het creëren van een “marktplaats”. Klanten die met elkaar zaken gaan doen en daarmee nog meer verbonden zijn aan het technische platform. “Marktplaats” als synoniem voor “customer lock-in”.
Over dat doel hoor je datacenters weinig communiceren, maar er is nog een punt waar het lastig is iets over terug te vinden. Dat gaat dan specifiek over het faciliteren van AI. Wat kost dat precies en hoeveel omzet of winst kunnen datacenters daarmee maken.
Die kostenkant, dat is de achillespees van AI en het stroomverbruik tart elke beschrijving. TRG Datacenters, een Amerikaanse colo aanbieders heeft uitgerekend wat op dit het stroomverbruik bij de hyperscalers zal zijn dat direct veroorzaakt wordt door de AI toepassingen voor derden.
In het artikel worden 7 omgevingen genoemd, de vier bekendsten staan hieronder
-
- Bing: Energy Consumption in MWh = 7,200 MWh
- ChatGPT: Energy Consumption in MWh = 1,248 MWh
- Google Bard: Energy Consumption in MWh = 312 MWh
- Socratic by Google: Energy Consumption in MWh = 50 to 300 MWh
Deze opsomming spreekt voor zich en maakt de zoveelste paradox waar datacenters mee te maken hebben duidelijk. Elke nieuwe ontwikkeling betekent per direct een hoger stroomverbruik. Datacenters, groot en klein, hebben belang bij een maximale bezetting vanwege de efficiency.
De keerzijde is ook nu weer dat ergens elders in de keten er hopelijk op termijn sprake is van een besparing op de stroomnota omdat processen beter verlopen. De rekensom die dit uitwerkt is nog niet gemaakt en zal waarschijnlijk ook nooit mogelijk zijn.
Met de verplichte CRSD (Corporate Sustainability Reporting Directive) rapportages zal dat gaan veranderen. Daar hebben in eerste instantie vooral de grote bedrijven mee te maken. De ervaring leert dat kleinere toeleveranciers er op termijn ook niet meer van gevrijwaard zullen blijven.
Al met al is het begrijpelijk dat datacenters zwijgen over bepaalde aspecten van AI. Tegelijk is het zeer voorspelbaar dat dit gaat knellen. Datacenters blijven per saldo meer grond, water en stroom verbruiken. AI kan leiden tot een versneller van met name dat laatste. De vraag is daarom niet of, maar wanneer de eerste critici annex politici AI aangrijpen om een grotere discussie te starten.