De vraag wat de opslag exact kost is lastig te beantwoorden omdat bij de TCO veel meer komt kijken dan de prijs van schijven en de nota van het datacenter. Daarbij speelt ook een rol dat men er vanuit gaat dat storage steeds goedkoper wordt. De mogelijkheid en noodzaak de rekensom te maken lijkt daarom gering.
Eerst was er on premise opslag
Toen de IT overwegend on premise stond was er veel aandacht voor de kosten van storage. Taperobots en vergelijkbare oplossingen namen ruimte in beslag en stelden aanvullende eisen aan de directe omgeving. Personeel moest ook over de nodige kennis beschikken. Bedrijven die storage serieus namen lieten de tapes door een koerier naar een externe locatie brengen. Aan storage hingen meerdere prijskaartjes. Het toewijzen van uren en stroomverbruik voor alleen storage bleken vaak moeilijke opgaven. Een echte TCO bestond daarom niet.
Off premise maakt TCO mogelijk
Toen bedrijven de IT en applicaties van on premise naar off premise overbrachten leek het makkelijker te worden de TCO te bepalen. Het externe rekencentrum of datacenter kon immers goed bijhouden hoeveel schijfruimte, rackspace, stroom en koeling nodig was. De uren van de externe medewerkers waren ook goed toe te wijzen.
Die migraties werden voor een deel ingegeven door de calculaties marktpartijen. Zij stelden dat externe dataopslag goedkoper was, zonder dat daarbij kwaliteit en veiligheid van de data in het geding was. Dat bij een hogere capaciteit ook de kosten toenamen was voor iedereen duidelijk. Storage was echter op dat moment iets waar prijskaartjes aan hingen die als een rem werkten.
De cloud gooit de TCO overhoop
Toen kwamen de cloudopslag aanbieders. Deze partijen waren en zijn disruptive. Zij hebben er niet alleen voor gezorgd dat dataopslag voor particulieren en het MKB opeens veel eenvoudiger is geworden. Het gehanteerde prijsmodel is ook doorgezet voor de rest van de totale zakelijke markt.
Prijsstaffels en opties zijn uitgebreid. Dat wekt de indruk dat het nu nog makkelijker is de TCO van dataopslag te bepalen. Grotendeel klopt dat ook. De periodieke nota is daarvoor duidelijk genoeg.
Er is echter nog een reden waarom de de cloud aanbieders disruptive zijn. Omdat data in de cloud zo makkelijk is geworden en schijnbaar goedkoop is de noodzaak verdwenen de groei van de databergen in de gaten te houden. Het gevolg van daarvan is dat ondanks de prijsverlagingen die de hyperscalers periodiek doorvoeren de TCO van dataopslag toeneemt. Men vergaart en bewaart immers steeds meer data. Een deel van de data moet verplicht langer worden bewaard en dan ook nog eens op meer dan een locatie. Maar voor een groot deel is er sprake van een toename in volume waar niemand grip op lijkt te hebben.
Een ding is daarbij duidelijk, van aanbieder wisselen wordt alleen maar lastiger naarmate daar meer data is ondergebracht. Dataopslag is daarmee de ultieme vendor lock-in. De vraag of dat impact heeft op de TCO is voorspelbaar. De kosten voor dataopslag nemen alleen maar toe en de calculaties voor migraties zijn vaak een reden daarvan af te zien. Sinds de hyperscalers is de TCO van dataopslag beter te bepalen dan ooit tevoren. Tegelijk speelt er zoveel meer dan voorheen dat het bijna onmogelijk is op basis van de TCO stappen te zetten.