Skip to main content

Als ich als IT-Praktiker zum ersten Mal mit Daten in Berührung kam, sprachen wir im Flüsterton über Kilobytes denn die Zukunft gehörte den Megabytes. Mein Arbeitgeber versprach uns eine strahlende Zukunft, indem er unsere Mitarbeiterkantine mit dem Namen “Megabytes” versah – wir alle lächelten und lachten verschwörerisch – die Zukunft war aufregend UND sie roch nach Speck!
Der Hochgeschwindigkeitszug, der uns alle in den Dataplex befördert, hat den Gigabyte-Bahnhof schon vor langer Zeit verlassen, Terabytes wurden zur neuen Norm – PCs und TV-Set-Top-Boxen hatten routinemäßig 1 TB oder mehr Speicherplatz zur Verfügung. Wir beschleunigten über Tera hinaus und in Richtung Peta – wir begannen, die Wahrheit über die Datenvermehrung zu verstehen. Und dann besuchten wir Exabytes, aber die Spur hatte sich auf Zettabyte-Territorium erweitert.

“Big Data” ist ein Begriff, der von Analysten und Anbietern frei verwendet wird, um die Fortschritte bei unserer Fähigkeit zu beschreiben, riesige Datenmengen zu speichern, zu verarbeiten und darauf zuzugreifen. Das Wachstum von Mainframes und Megabytes zur Cloud und zu Zettabytes ist bemerkenswert, aber wie können diese Datenmengen zu Hause, am Arbeitsplatz oder in der Schule genutzt werden?

IDC hat kürzlich seine jährliche „DataSphere-Prognose“ veröffentlicht, die die Menge an Daten misst, die jedes Jahr auf der Welt erstellt, verbraucht und gespeichert werden. Laut dem Bericht der IDC hat die Menge der erstellten und replizierten Daten im Jahr 2020 ein deutlich höheres Wachstum erfahren als prognostiziert. Wie konnten wir 64 Zettabytes an Daten erzeugen? Es stellte sich heraus, dass dies auf den dramatischen Anstieg der Zahl der Menschen zurückzuführen ist, die datenhungrige Anwendungen für die Arbeit, für die Bildung und zur Unterhaltung von zu Hause aus nutzen. Der wirklich interessante Aspekt dabei war, dass nur 2 % dieser neuen Daten gespeichert wurden – der Rest wurde entweder erstellt oder für den Verbrauch kopiert oder zwischengespeichert und dann durch neuere Daten ersetzt (mit mehr als 64 Zettabytes, das entspricht in etwa der Speicherkapazität von vierundsechzig Milliarden 1-Terabyte-PC-Festplatten). Es wurden jedoch nur 2 Zettabytes zum globalen Cache hinzugefügt. Hier gab es ein beschleunigtes Wachstum des globalen Datenspeichers. Des Weiteren bleibt IDC bei der Vorhersage, dass der globale Datenspeicher bis 2025 auf 175 Zettabyte anwachsen wird.

Ein weiterer interessanter Fakt war, dass die Cloud anstatt ein Netto-Generierer zu sein, einen Netto-Empfänger von Daten darstellt; Daten wurden von Cloudnutzern in riesigen Mengen in die Cloud verlagert.

Dabei ist die Wahrscheinlichkeit, dass Unternehmen ihre Daten in der Cloud speichern, doppelt so hoch wie bei Verbrauchern. Die Daten sind wertvoll – die Aufbewahrung von Daten ermöglicht fortschrittlichen Unternehmen, nach Werten zu schürfen, flexibel zu sein, wenn sich Märkte ändern und zusätzlich unentdeckte Beziehungen und Trends zu bewahren.

Doch warum ist das von so hoher Bedeutung? Dies wirkt sich direkt auf die Herausforderungen unserer Kunden aus. Fortschritte bei den Anforderungen unseres globalen Kundenstamms bedeuten, dass wir bei Vamosa jetzt routinemäßig Terabytes an Daten pro Kundenauftrag migrieren. Bei der Durchführung unserer ersten Content-Migrationen, kamen wir auf Dutzende bis Hunderte von Gigabytes – von Tausenden von Webseiten bis zu Millionen von Intranet-Stories. Jetzt sind Terabytes die Norm – und.

Leave a Reply

Call us today on 01908 651600