Back-up throughput

De vraag komt nogal eens voorbij, “de throughput” van de back-up is erg laag. En “Wat is een gemiddelde snelheid”. Beide vragen kan je niet zomaar beantwoorden. Dit is van meerdere factoren afhankelijk.

Hoe snel kan de “bron” aanleveren. B.v. een overbelaste SATA server gaat niet hoog komen, ditzelfde geld voor een device welke achter een 10mbit hubje hangt. Gelukkig komen we deze nooit/zelden tegen. Maar wat we wel de meest voorkomende is, is een File/Print server welke duizenden kleine bestandjes bevatten. Deze files zijn funest voor de back-up. Iedere file is maar een paar KB, maar wel dienen hiervoor de rechten opgevraagd te worden, maar ook de fysieke disk(s) dienen de file eerst op te zoeken eerdat ze aangeleverd kunnen worden.Wat is dan wel het antwoord? Het antwoord is vrij simpel, om een goed beeld te krijgen van de mogelijk haalbare throughput is het noodzakelijk een grote file te hebben. Het liefst een PW protected zip file van een paar GB. Deze grootte is noodzakelijk om “Caching” te overbruggen en een “lange, continue stream” aan data te generen. Omdat het één grote file is, zal na de rechten check en het starten van de communicatie, voldoende tijd beschikbaar komen om een goed beeld van de haalbare snelheid te krijgen.

Hoe vervolgens met de “trage data” om te gaan is een verhaal (blog) apart. Wat ik wel kan vertellen is dat netwerk streams gerust over de 2GB per minuut kunnen gaan. M.a.w. een nacht kan een stuk korter worden door hier serieus aandacht aan te besteden.

Wim van der Werf

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *