Fallen der Server-Virtualisierung für Unternehmen

von | Aug 11, 2017 | IT-Infrastruktur |

Mit Virtualisierung lassen sich nicht physisch vorhandene Geräte (IT Infrastrukturen) oder Dienste auf Computern betreiben, was eine Reihe von Vorteilen bietet. So können etwa Kosten reduziert, die Transparenz erhöht und Platz gespart werden. Da verwundert es kaum, dass die Server-Virtualisierung ein oft eingesetztes Instrument in Unternehmen ist. Trotz des vielfachen Einsatzes gibt es aber viele Fallen im Business-Alltag, die es zu vermeiden gilt. Wir haben Ihnen einige dieser zusammengestellt und zeigen Ihnen mögliche Lösungsstrategien.

„Laut einer Studie von Gartner haben die meisten Unternehmen bereits Server-Virtualisierung im Ausmaß von 75% und höher“, weiß Marco Gschaider, Head of IT Management. „Daher ist es wichtig, auch die versteckten Kosten zu kennen. Das Wegfallen großer Teile der Hardware macht einen guten Eindruck und vereinfacht viele komplexe System-Strukturen. Mit der richtigen Vorbereitung, werden auch die Kosten der Informatik reduziert. Es gibt aber auch eine Schattenseite, die sich durchaus mit einiger Schlagkraft offenbaren kann.“

Anstieg an Verwaltungs- & Organisationsanforderungen

Zu viele virtuelle Maschinen und der daraus folgende Verlust von Überblick führt oft zu einem plötzlichen Anstieg an Verwaltungs- und Organisationsanforderungen. Diese können sehr hohe Kosten verursachen. Ein Grund liegt in dem sehr hohen Update- und Pflegebedarf. Virtuelle Maschinen benötigen dann auch viel Speicherplatz, was Ressourcen verbraucht und zusätzlich die Kosten erhöht.

Ausfallsicherheit der verwendeten Hardware

Durch die Vereinfachung des Systems sind wenige Hardware-Komponenten mit vielen Servern belegt. Dadurch muss der Ausfallsicherheit der einzelnen Geräte besondere Priorität zukommen. Ein unvorbereitetes Unternehmen kann so durch den Ausfall nur einer Komponente nachhaltig schaden nehmen. Gleichsam verstärkt sich dieses Problem je mehr virtuelle Server auf wenig Hardware laufen. „Wir kennen einige einfache Strategien um derartige Problemen zumindest zu reduzieren“, berichtet Marco Gschaider. „So sollte man das virtuelle System so einstellen, dass es sich verhält, als würde es direkt auf der Hardware ausgeführt werden.“ Außerdem sollte auch die Sicherheit an erster Stelle stehen: Alle virtuellen Maschinen werden dabei so voneinander getrennt, dass das Ausfallen einer einzelnen Maschine keinen Domino-Effekt auslöst und die restlichen zum Absturz bringt. Für bessere Kontrolle sollte man diesen alle Hardware-Ressourcen (RAM, CPU) einzeln zuordnen. Viertens muss man auch Effizienz garantieren. Das bedeutet dass die virtuelle Maschine die gleiche Geschwindigkeit haben muss wie vor ihrer Virtualisierung als physisches System.

Bedienungsfehler und größere Auswirkungen

Die allgemeine Betriebssicherheit wird durch das Verwenden von Hochverfügbarkeitssystemen mit entsprechender Hardware gesteigert. Dadurch wird jedoch oft übersehen, dass der zuvor Hardware-basierte-Server, nun im Wesentlichen nur noch eine Datei ist, und somit kopiert oder gelöscht werden kann.

Kostenfallen wie zum Beispiel Lizenzen

Da jede virtuelle Maschine als eigenständiger Rechner gewertet wird, kann es sein, dass man für eine Hardware, auf der vier virtuelle Maschinen laufen, viermal die gleiche Lizenz bezahlen muss. Wird dieser Umstand übersehen oder übergangen kann das drastische Strafzahlungen nach sich ziehen. Auch die richtige Wahl des Lizenzmodells kann durchaus Wissen und Zeit abverlangen. So gibt es Lizenzmodelle, die unter Bedingungen für mehrere Instanzen gelten.

a

Textquellen & Links

Mehr Infos finden Sie hier:
pcwelt.de
ap-verlag.de