Nachteile der Hyper-V-Virtualisierung. Überprüfung der Virtualisierungstechnologien für VPS. Flexibilität bei der Verwaltung der gesamten Infrastruktur

💖 Gefällt es dir? Teilen Sie den Link mit Ihren Freunden

Der Zweck dieses Artikels besteht darin, die Leistung des Programms zu untersuchen. 1C an virtuelle Maschinen Oh ESXi- und HyperV-Plattformen. Zur besseren Übersichtlichkeit wurde den Tests ein Hardware-Server als Referenzbeispiel hinzugefügt.

Die Idee zu dieser Studie entstand aus der Beobachtung von Problemen mit Leistung von 1C-Konfigurationen Verwendung verwalteter Formulare in einer virtuellen Umgebung. Wenn beispielsweise die UT 10.3-Konfiguration in einer virtuellen Umgebung perfekt funktionierte, begann UT 11.0 stark zu verlangsamen und Unzufriedenheit bei den Benutzern zu verursachen, und es gab keine Ressourcenengpässe – 1C arbeitete einfach langsam. Die einzige Lösung, die in den meisten Fällen geholfen hat, bestand darin, die Rollen des DBMS und des 1C-Unternehmensservers auf einen physischen Server zu übertragen, was natürlich hohe Kosten, eine verringerte Fehlertoleranz usw. mit sich bringt. IN dieser Moment Die meisten Unternehmen arbeiten weiterhin mit 1C in einer virtuellen Umgebung, viele von ihnen beschweren sich über schlechte Leistung, stellen aber keine Mittel für physische Server bereit – sie hoffen, dass 1C das Produkt für die Virtualisierung optimiert oder dass die Virtualisierung selbst besser wird.

Die zweite Voraussetzung für diese Studie war die Ankündigung von Microsoft, den betriebsbasierten Hypervisor zu unterstützen. Windows-Systeme Virtuelle Server 2012R2-Maschinen der 2. Generation. Dementsprechend wurde es interessant, wie diese neuen Maschinen im Allgemeinen und mit 1C im Besonderen funktionieren würden, da ihre Beschreibung recht interessant ist: Sie sind frei von der Emulation älterer Geräte wie IDE, BIOS, I/O-Ports, Interrupt-Controller usw. Wenn das Betriebssystem der virtuellen Gastmaschine startet, erkennt es, dass es in einer virtuellen Umgebung ausgeführt wird und kommuniziert direkt mit dem Hypervisor. Das Installieren, Laden und Neustarten des Betriebssystems geht im Vergleich zu Maschinen der ersten Generation deutlich schneller.

Zur Durchführung der Studie wurden vier verschiedene Konfigurationen basierend auf der 1C:Enterprise 8.3-Plattform (8.3.5.1186) ausgewählt:


Und vier Plattformen, auf denen ihre Leistung gemessen wurde:

  • VMware ESXi 5.1;
  • physischer Server;
  • Windows Server 2012R2 HyperV (1Gen);
  • Windows Server 2012R2 HyperV (2Gen).

Die Hardware-Serverressourcen wurden wie folgt zugewiesen:

Hypervisoren wurden auf derselben Hardwareplattform mit einer Zuteilung von 8 GB bereitgestellt Arbeitsspeicher und 4 virtuelle Prozessoren. Alle Datenbanken außer ERP 2.0 sind echte Datenbanken, mit denen das Unternehmen arbeitet, sie sind mit echten Daten gefüllt. Als DBMS kam MSSQL 2012 zum Einsatz. Das Betriebssystem auf dem physischen Server und den virtuellen Maschinen war Windows Server 2012R2. Der Enterprise 1C-Anwendungsserver und das DBMS wurden auf einem Server installiert und im Shared-Memory-Modus betrieben.

Praxistests und Testergebnisse

Handelsmanagement 11
Typische OperationenVMware ESXiHardware-Computer
Konfigurationsstartzeit, Sek58 61 20 18
Finanzbericht – Bewegungsanalyse Geld(pro Jahr), Sek9 5 2,5 5
Marketing – Marketing- und Planungsberichte – ABS/XYZ-Produktanalyse, Abschnitt30 41 20 27
Verkäufe – Verkaufsberichte – Umsatzerlöse und Umsatzkosten, Abschnitt 220 15 7,5 7
Beschaffung – Meldungen über Vorräte und Käufe – Aufstellungen über Lagerbestände, §§14 8 7 10
Lager – Lagerberichte – Liste der Waren in Lagern, Abschnitt24 3 1 2
Lager – Warenverkehr, Abs9 15 6 3
Wiederholung des Quartals 3. Quartal 2014 3381 Dokumente, Sek3252 2987 1436 2003

Tabelle 1 – Ergebnisse der Messungen der Geschwindigkeit von Konfigurationsvorgängen Handelsmanagement 11


Diagramm 1 – Neudurchführung des Quartals

ERP 2.0
Typische OperationenHyper-V 2012. VM 1. GenerationHyper-V 2012. VM 2-D-GenerationVMware ESXiHardware-Computer
Gilev-Testergebnis 8,3 17,12 17,12 25 24,15
Startzeit der Konfiguration64 65 36 40
Marketing und Planung – Marketing- und Planungsberichte1 1 2 1
Marketing und Planung – Marketing- und Planungsberichte – Kundenabhängigkeitsanalyse (CDA)1 1 1 1
Verkäufe – Status der Auftragssicherung1 2 1 2
Einkauf – Berichte über Lagerbestände und Käufe – Salden der zur Provision angenommenen Waren. (Jahr)2 6 1 2
Lager – Lagerberichte – Liste der Waren im Lager (Jahr)2 2 1 2
Lager – Bestellung für Eigenverbrauch1,5 1,5 1 2
Produktion – Produktionsbericht – Zustand der Betriebsanlagen1 1 1 2
Gehalt – Gehaltsbericht – Gehaltsabrechnung für Mitarbeiter für das Jahr21 22 16,5 22
Finanzen – Jahresabschluss – Cashflow-Analyse (Jahr)1,5 1,5 1 2
Finanzen – Finanzergebnis – Abschluss der Monatsergebnisse135 140 121 158
Budgetierung – Budgetierungsberichte – Umsatzübersicht nach Budgetposten (Jahr)22 9 6 7
Internationale Finanzbuchhaltung – Bericht über die internationale Finanzbuchhaltung – Subkontoanalyse (Jahr)2 5 1 2

* Die besten Ergebnisse der praktischen Prüfung werden grün hervorgehoben.


Tabelle 2 – Ergebnisse der Messungen der Geschwindigkeit von ERP 2.0-Konfigurationsvorgängen



Diagramm 2 – Gilev-Testindikator 8.3

Unternehmensbuchhaltung
Typische OperationenHyper-V 2012. VM 1. GenerationHyper-V 2012. VM 2-D-GenerationVMware ESXiHardware-Computer
Startzeit der Konfiguration8 19 9,4 11
Buchhaltung, Steuern, Reporting – Buchungsbericht (Jahr)3 8 3 5
Verzeichnisse und Buchhaltungseinstellungen – Kontoumsatz (Jahr)10 3 1 2
Verzeichnisse und Buchhaltungseinstellungen – Analyse der Rechnungen für das Jahr2 2 1 2
Verzeichnisse und Buchhaltungseinstellungen – Bilanz (Jahr, alle Indikatoren)2 2 1 2

* Die besten Ergebnisse der praktischen Prüfung werden grün hervorgehoben.


Tabelle 3 – Ergebnisse der Messungen der Geschwindigkeit von Konfigurationsvorgängen Unternehmensbuchhaltung

SCP
Typische OperationenHyper-V 2012. VM 1. GenerationHyper-V 2012. VM 2-D-GenerationVMware ESXiHardware-Computer
Startzeit der Konfiguration44 30 20,9 30
Finanzbericht – Analyse der Cashflows (für das Jahr)3 2 0,5 1
Berichte – Verkäufe – Analyse (XYZ\ABS) (Jahr)76 92 73 80
Berichte – Kosten – Kostenzuordnungsanalyse (Jahr)27 31 16 22
Berichte – Beschaffung – Plan-Ist-Analyse der Beschaffung (Jahr)6 8 5,3 10
Berichte – Lagerbestand – Waren in Lagern (Jahr)2 1 1 1
Bestellung des Käufers1 1 1 1
Wiederherstellung der Reihenfolge der Steuerbuchhaltung des vereinfachten Steuersystems5 4 1 1

* Die besten Ergebnisse der praktischen Prüfung werden grün hervorgehoben.


Tabelle 4 – Ergebnisse der Messungen der Geschwindigkeit der Softstarter-Konfigurationsvorgänge



Diagramm 3 – Zeit zum Starten von Konfigurationen auf verschiedenen Plattformen in Sekunden

Schlussfolgerungen

  1. Die virtuellen Hyper-V-Maschinen der ersten und zweiten Generation unterscheiden sich praktisch nicht voneinander. Ihre Leistung in einer Reihe von Tests war unterschiedlich, aber es ist unmöglich, mit Sicherheit zu sagen, welche Generation mit 1C besser funktioniert, da abwechselnd die eine oder andere Generation bessere Ergebnisse zeigte. Es lohnt sich nicht, auf Maschinen der neuen Generation umzusteigen, in der Hoffnung, die Leistung von 1C zu steigern.
  2. Leistungsmessungen auf VMware waren unerwartet. 1C funktionierte auf einer virtuellen Maschine in den meisten Fällen schneller als auf einer Hardwareplattform. Manchmal zeigt es einfach unglaubliche Überlegenheit – zum Beispiel dauerte die Wiederholung eines Viertels in der UT 11-Konfiguration 40 % weniger Zeit als Hardware-Computer. Die Verzögerung virtueller Maschinen auf HyperV betrug mehr als 108 % bzw. 126 % für die 2. bzw. 1. Generation. Höchstwahrscheinlich tritt dieses Phänomen auf bessere Arbeit mit Hardwaretreibern von VMWare im Vergleich zu ähnlichen von Microsoft. Es ist auch möglich, dass ESXi einen Cache zum Speichern von Daten erstellt und so Informationen schneller verarbeitet.

Der nächste Schritt der Forschung besteht darin, Arbeitsbasen bereitzustellen 1C auf virtuellen Maschinen ESXi-Hypervisor und sammeln Sie nach einiger Zeit Benutzerfeedback. Dies wird der wichtigste Indikator sein, anhand dessen man schließen kann, ob dieser Hypervisor wirklich so gut für den Betrieb von 1C in einer virtuellen Umgebung geeignet ist.

System Integration. Beratung

IN In letzter Zeit Benutzer hören zunehmend vom Konzept der „Virtualisierung“. Es wird angenommen, dass seine Verwendung cool und modern ist. Aber nicht jeder Benutzer versteht genau, was Virtualisierung im Allgemeinen und im Besonderen ist. Versuchen wir, Licht in dieses Problem zu bringen und auf Servervirtualisierungssysteme einzugehen. Heutzutage sind diese Technologien auf dem neuesten Stand, da sie sowohl hinsichtlich der Sicherheit als auch der Verwaltung viele Vorteile bieten.

Was ist Virtualisierung?

Beginnen wir mit dem Einfachsten – der Definition des Begriffs, der Virtualisierung als solche beschreibt. Wir möchten gleich darauf hinweisen, dass Sie im Internet einige Handbücher zu diesem Thema finden und herunterladen können, beispielsweise das Nachschlagewerk „Servervirtualisierung für Dummies“ im PDF-Format. Beim Studium des Materials kann ein unvorbereiteter Benutzer jedoch auf eine Vielzahl unverständlicher Definitionen stoßen. Deshalb werden wir versuchen, den Kern des Problems sozusagen an den Fingern zu klären.

Wenn wir über die Snachdenken, konzentrieren wir uns zunächst auf das ursprüngliche Konzept. Was ist Virtualisierung? Einer einfachen Logik folgend ist es nicht schwer zu erraten, dass dieser Begriff die Erstellung eines bestimmten Emulators (Ähnlichkeit) einer physischen oder Softwarekomponente beschreibt. Mit anderen Worten handelt es sich um ein interaktives (virtuelles) Modell, das in der Realität nicht existiert. Allerdings gibt es hier einige Nuancen.

Haupttypen der Virtualisierung und verwendete Technologien

Tatsache ist, dass es im Konzept der Virtualisierung drei Hauptrichtungen gibt:

  • Darstellung;
  • Anwendungen;
  • Server.

Zum besten Verständnis einfaches Beispiel Möglicherweise werden sogenannte solche verwendet, die den Benutzern eigene Computerressourcen zur Verfügung stellen. Benutzerprogramm es wird exakt ausgeführt und der Benutzer sieht nur das Ergebnis. Dieser Ansatz ermöglicht uns eine Reduzierung System Anforderungen an ein Benutzerterminal, dessen Konfiguration veraltet ist und die angegebenen Berechnungen nicht bewältigen kann.

Für Anwendungen werden solche Technologien auch recht häufig eingesetzt. Dies könnte beispielsweise die Virtualisierung eines 1C-Servers sein. Der Kern des Prozesses besteht darin, dass das Programm auf einem isolierten Server läuft und eine große Anzahl von Remote-Benutzern Zugriff darauf erhält. Die Aktualisierung des Softwarepakets erfolgt aus einer Hand, ganz zu schweigen von der höchsten Sicherheit für das gesamte System.

Schließlich geht es um die Schaffung einer interaktiven Computerumgebung, in der die Servervirtualisierung die reale Konfiguration ihrer „Hardware“-Gegenstücke vollständig nachbildet. Was bedeutet das? Ja, im Großen und Ganzen können Sie auf einem Computer einen oder mehrere zusätzliche Computer erstellen, die in Echtzeit funktionieren, als ob sie in der Realität existieren würden (Servervirtualisierungssysteme werden etwas später ausführlicher besprochen).

In diesem Fall spielt es überhaupt keine Rolle, welches Betriebssystem auf jedem dieser Terminals installiert wird. Dies hat im Großen und Ganzen keine Auswirkungen auf das Haupt-(Host-)Betriebssystem und die virtuelle Maschine. Dies ähnelt dem Zusammenspiel von Computern mit unterschiedlichen Betriebssystemen lokales Netzwerk, aber in diesem Fall dürfen die virtuellen Terminals nicht miteinander verbunden sein.

Auswahl der Ausrüstung

Einer der klaren und unbestreitbaren Vorteile Virtuelle Server besteht darin, die Materialkosten zu reduzieren, um eine voll funktionsfähige Hardware- und Softwarestruktur zu schaffen. Es gibt beispielsweise zwei Programme, die für den normalen Betrieb 128 MB RAM benötigen, aber nicht auf demselben physischen Server installiert werden können. Was ist in diesem Fall zu tun? Sie können zwei separate Server mit jeweils 128 MB kaufen und diese separat installieren, oder Sie können einen mit 128 MB RAM kaufen, zwei virtuelle Server darauf erstellen und zwei Anwendungen darauf installieren.

Falls jemand es noch nicht verstanden hat: Im zweiten Fall ist die Verwendung von RAM rationeller und die Materialkosten sind deutlich niedriger als beim Kauf zweier unabhängiger Geräte. Aber damit ist es noch nicht getan.

Sicherheitsvorteile

Die Serverstruktur selbst impliziert in der Regel das Vorhandensein mehrerer Geräte zur Ausführung bestimmter Aufgaben. In Sachen Sicherheit Systemadministratoren Domänencontroller installieren Active Directory und Internet-Gateways liegen nicht auf einem, sondern auf verschiedenen Servern.

Bei einem externen Eingriffsversuch wird immer zuerst das Gateway angegriffen. Wenn auf dem Server auch ein Domänencontroller installiert ist, ist die Wahrscheinlichkeit einer Beschädigung der AD-Datenbanken sehr hoch. In einer Situation mit gezielten Aktionen können Angreifer all dies in Besitz nehmen. Ja, und Datenwiederherstellung von Sicherheitskopie- Dies ist eine ziemlich mühsame Aufgabe, obwohl sie relativ wenig Zeit in Anspruch nimmt.

Wenn wir dieses Problem von der anderen Seite betrachten, können wir feststellen, dass die Servervirtualisierung es Ihnen ermöglicht, Installationsbeschränkungen zu umgehen und die gewünschte Konfiguration schnell wiederherzustellen, da das Backup in der virtuellen Maschine selbst gespeichert wird. Man geht zwar davon aus, dass die Servervirtualisierung mit Windows Server (Hyper-V) aus dieser Sicht unzuverlässig erscheint.

Darüber hinaus bleibt die Frage der Lizenzierung recht umstritten. So ist es beispielsweise für Windows Server 2008 Standard möglich, nur eine virtuelle Maschine auszuführen, für Enterprise vier und für Datacenter eine grundsätzlich unbegrenzte Anzahl (und sogar Kopien).

Verwaltungsprobleme

Die Vorteile dieses Ansatzes, ganz zu schweigen vom Sicherheitssystem und der Kostenreduzierung, auch bei der Virtualisierung von Servern mit Windows Server, sollten vor allem Systemadministratoren zu schätzen wissen, die diese Maschinen oder lokalen Netzwerke warten.

Es wird immer häufiger, Systemsicherungen zu erstellen. Normalerweise ist beim Erstellen eines Backups Software von Drittanbietern erforderlich, und das Lesen von optischen Medien oder sogar aus dem Internet dauert im Vergleich zur Geschwindigkeit des Festplattensubsystems länger. Das Klonen des Servers selbst kann mit nur wenigen Klicks durchgeführt werden. Anschließend kann auch auf „sauberer“ Hardware schnell ein funktionierendes System bereitgestellt werden, das anschließend ohne Ausfälle funktioniert.

In VMware vSphere ermöglicht die Servervirtualisierung das Erstellen und Speichern sogenannter Snapshots der virtuellen Maschine selbst (Snapshots), bei denen es sich um spezielle Abbilder ihres Zustands zu einem bestimmten Zeitpunkt handelt. Sie können in einer Baumstruktur innerhalb der Maschine selbst dargestellt werden. Somit ist die Wiederherstellung der Funktionalität der virtuellen Maschine viel einfacher. In diesem Fall können Sie Wiederherstellungspunkte beliebig auswählen und den Status zurück- und dann vorwärts rollen (davon können Windows-Systeme nur träumen).

Programme zur Servervirtualisierung

Wenn wir über Software sprechen, gibt es eine Vielzahl von Anwendungen, mit denen virtuelle Maschinen erstellt werden können. Im einfachsten Fall werden native Tools von Windows-Systemen verwendet, mit deren Hilfe eine Servervirtualisierung durchgeführt werden kann (Hyper-V ist eine eingebaute Komponente).

Allerdings hat diese Technologie auch einige Nachteile, weshalb viele Menschen Softwarepakete wie WMware, VirtualBox, QUEMI oder sogar MS Virtual PC bevorzugen. Obwohl solche Anwendungen unterschiedliche Namen haben, unterscheiden sich die Prinzipien der Arbeit mit ihnen nicht besonders (außer in Details und einigen Nuancen). Einige Versionen von Anwendungen können auch virtualisiert werden Linux-Server, aber diese Systeme werden nicht im Detail betrachtet, da die meisten unserer Benutzer immer noch Windows verwenden.

Servervirtualisierung unter Windows: die einfachste Lösung

Seit der Veröffentlichung des siebten Windows-Versionen Es fügte eine integrierte Komponente namens Hyper-V hinzu, die es ermöglichte, virtuelle Maschinen mit den systemeigenen Tools zu erstellen, ohne Software von Drittanbietern zu verwenden.

Wie in jeder anderen Anwendung dieser Ebene können Sie in diesem Paket die Zukunft simulieren, indem Sie die Größe angeben Festplatte, RAM-Größe, Verfügbarkeit optische Laufwerke, die gewünschten Eigenschaften eines Grafik- oder Soundchips – im Allgemeinen alles, was in der Hardware eines normalen Serverterminals verfügbar ist.

Hier müssen Sie jedoch auf die Einbindung des Moduls selbst achten. Die Hyper-V-Servervirtualisierung kann nicht durchgeführt werden, ohne diese Komponente zuvor im Windows-System selbst zu aktivieren.

In manchen Fällen kann es notwendig sein, die Unterstützung für die entsprechende Technologie im BIOS zu aktivieren.

Verwendung von Softwareprodukten Dritter

Dennoch halten viele Experten diese Technologie trotz der Möglichkeiten zur Virtualisierung von Windows-Servern für eher ineffektiv und sogar zu kompliziert. Es ist viel einfacher, ein vorgefertigtes Produkt zu verwenden, bei dem ähnliche Aktionen basierend auf der automatischen Auswahl von Parametern ausgeführt werden, und die virtuelle Maschine verfügt über größere Fähigkeiten und Flexibilität bei der Verwaltung, Konfiguration und Verwendung.

Wir sprechen über die Verwendung von Softwareprodukten wie z Oracle VirtualBox, VMware Workstation(VMware vSphere) und andere. Beispielsweise kann ein VMware-Virtualisierungsserver so erstellt werden, dass in einer virtuellen Maschine erstellte Computeranaloga separat (unabhängig voneinander) funktionieren. Solche Systeme können in Schulungsprozessen, beim Testen beliebiger Software usw. eingesetzt werden.

Übrigens kann man gesondert darauf hinweisen, dass man beim Testen von Software in einer virtuellen Maschinenumgebung sogar mit Viren infizierte Programme verwenden kann, die ihre Wirkung erst im Gastsystem zeigen. Dies hat keinerlei Auswirkungen auf das Hauptbetriebssystem (Hostbetriebssystem).

Was den Prozess der Erstellung eines Computers innerhalb einer Maschine betrifft, so basiert die Servervirtualisierung in VMware vSphere sowie in Hyper-V auf dem „Assistenten“. Vergleicht man diese Technologie jedoch mit Windows-Systemen, sieht der Prozess selbst etwas anders aus einfacher, da das Programm selbst möglicherweise Vorlagen anbietet oder automatisch berechnet erforderliche Parameter zukünftiger Computer.

Die Hauptnachteile virtueller Server

Aber trotz der vielen Vorteile, die die Servervirtualisierung demselben Systemadministrator oder Endbenutzer bietet, haben solche Programme auch einige erhebliche Nachteile.

Erstens können Sie nicht über Ihren Kopf springen. Das heißt, die virtuelle Maschine nutzt die Ressourcen des physischen Servers (Computers) nicht vollständig, sondern in streng begrenzter Menge. Damit die virtuelle Maschine ordnungsgemäß funktioniert, muss die anfängliche Hardwarekonfiguration leistungsstark genug sein. Andererseits ist der Kauf eines leistungsstarken Servers immer noch deutlich günstiger als der Kauf mehrerer Server mit geringerer Konfiguration.

Zweitens: Obwohl davon ausgegangen wird, dass mehrere Server zu einem Cluster zusammengefasst werden können und man bei Ausfall eines Servers auf einen anderen „umziehen“ kann, ist dies in Hyper-V nicht möglich. Und das scheint im Hinblick auf die Fehlertoleranz ein klarer Nachteil zu sein.

Drittens wird die Frage der Übertragung ressourcenintensiver DBMS oder Systeme wie Mailbox Server, Exchange Server usw. in den virtuellen Raum eindeutig umstritten sein. In diesem Fall wird eine offensichtliche Hemmung beobachtet.

Viertens, für korrekte Bedienung Eine solche Infrastruktur kann nicht nur virtuelle Komponenten verwenden. Dies gilt insbesondere für Domänencontroller – mindestens einer davon muss „Hardware“ sein und zunächst über das Internet erreichbar sein.

Fünftens birgt die Servervirtualisierung schließlich eine weitere Gefahr: Der Ausfall des physischen Hosts und des Host-Betriebssystems ist die Folge automatische abschaltung alle dazugehörigen Komponenten. Dies ist der sogenannte Single Point of Failure.

Zusammenfassung

Trotz einiger Nachteile haben solche Technologien jedoch eindeutig weitere Vorteile. Schaut man sich die Frage an, warum Servervirtualisierung nötig ist, fallen mehrere Hauptaspekte auf:

  • Reduzierung der Hardware-Ausstattung;
  • Reduzierung der Wärmeerzeugung und des Energieverbrauchs;
  • Reduzierung der Materialkosten, einschließlich Kauf von Ausrüstung, Bezahlung von Strom, Erwerb von Lizenzen;
  • Vereinfachung der Wartung und Verwaltung;
  • die Möglichkeit, das Betriebssystem und die Server selbst zu „migrieren“.

Tatsächlich sind die Vorteile des Einsatzes solcher Technologien viel größer. Obwohl es den Anschein haben mag, dass es einige gravierende Nachteile gibt, wenn richtige Organisation Wenn die gesamte Infrastruktur und die notwendigen Kontrollen vorhanden sind, um einen reibungslosen Betrieb zu gewährleisten, können solche Situationen in den meisten Fällen vermieden werden.

Schließlich bleibt für viele die Frage der Softwareauswahl und der praktischen Umsetzung der Virtualisierung offen. Aber hier ist es besser, sich an Spezialisten zu wenden, da wir in diesem Fall ausschließlich mit der Frage der allgemeinen Einarbeitung in die Servervirtualisierung und der Machbarkeit der Implementierung des Systems als solches konfrontiert waren.

Heutzutage hat sich wahrscheinlich jeder Administrator gefragt, was virtuelle Maschinen sind und wie sie in seinem Unternehmen eingesetzt werden können. Übrigens verwenden viele Leute wahrscheinlich bereits virtuelle Maschinen als ihre Hauptserver, und heute werden wir herausfinden, welche Vorteile darin liegen Servervirtualisierung, und es ist tatsächlich sehr, sehr groß.

Lassen Sie uns zunächst herausfinden, was virtuelle Maschinen sind, oder wie sie in der Servervirtualisierung genannt werden Hypervisor (Virtualisierungsumgebung), und das ist etwas Software, das Ihre Ausrüstung emuliert und es dadurch ermöglicht, eine separate Plattform, man könnte sagen einen separaten Computer, innerhalb Ihres Computers zu erstellen, in den Sie dementsprechend auch beliebige ( Fast alle) ein anderes Betriebssystem.

Heute werden wir speziell über Servervirtualisierung sprechen und die Virtualisierung auf einem Heimcomputer im Artikel „Virtuelle VirtualBox-Maschine“ angesprochen. Denn das sind völlig zwei unterschiedliche Themen.

Kommen wir nun zu allen Vorteilen der Verwendung virtueller Maschinen in Ihrem Unternehmen als Server.

Vorteile virtueller Maschinen

1. Platz im Serverraum

Der erste zu erwähnende Vorteil ist die Tatsache, dass in Ihrem Serverraum oder Büro mit Servern einfach Platz für alles frei wird. Da beim Einsatz virtueller Server kein Platzbedarf entsteht, sind lediglich ein oder zwei leistungsstarke Server erforderlich.

2. Reduzieren Sie Lärm und Energieverbrauch

Wenn wir über eine geringere Anzahl physischer Server verfügen, sinken der Stromverbrauch, die Wärmeableitung und natürlich auch die Geräuschentwicklung entsprechend. Dies kann übrigens ein guter Grund für die Einführung virtueller Maschinen sein.

3. Kostenreduzierung

Ein weiterer guter Grund, die Virtualisierung in Ihrem Unternehmen zu organisieren, ist die Tatsache, dass sie viel weniger kostet, als wenn Sie physische Server kaufen würden. Das ist ein starkes Argument für das Management!

4. Möglichkeit, Server für „alte“ Betriebssysteme und Software zu reservieren

Es ist nicht erforderlich, für bestimmte Software oder Betriebssysteme einen separaten Server zuzuweisen. Mit anderen Worten: Wenn Sie alte Software oder alte Betriebssysteme verwenden, auf denen diese älteste Software läuft, können Sie sie aber nicht ablehnen, da sie für Produktionsprozesse benötigt wird. Bitte schön Hilfe wird kommen einfach ein Hypervisor, bei dem Sie einfach eine Instanz einer virtuellen Maschine erstellen, in der Sie das benötigte Betriebssystem und die benötigten Programme installieren, ohne einen separaten Server zu verwenden.

5. Reduzierte Arbeitskosten für die Datensicherung

Ein weiterer wesentlicher Vorteil besteht meiner Meinung nach darin, dass Sie bei der Verwendung virtueller Maschinen nur einen physischen Server oder nur Dateien sichern müssen Festplatte, auf dem alle Gastbetriebssysteme installiert sind. Mir scheint, dass die Sicherung eines Servers viel einfacher ist als beispielsweise die Sicherung von 10 Servern! Wenn Sie sich einen Hypervisor genauer ansehen ( VMware oder Hyper-V), dann haben sie viele verschiedene Funktionen, darunter Backup, Replikation virtueller Maschinen und vieles mehr.

6. Flexibilität bei der Verwaltung der gesamten Infrastruktur

Ein weiterer Vorteil ist die zentrale Verwaltung dieser virtuellen Maschinen, d.h. Sie haben sich mit der Verwaltungskonsole verbunden oder ein Snap-In auf dem Host-Server geöffnet und können beispielsweise jeden virtuellen Server problemlos neu starten. Erinnern Sie sich bei alledem daran, wie lange es dauert, einen physischen Server neu zu starten? Der Neustart des Gastbetriebssystems geht also viel schneller.

7. Die Fehlertoleranz steigt

Mit anderen Worten: Wenn in einer virtuellen Maschine etwas passiert, können Sie die Festplatte der virtuellen Maschine einfach und vor allem schnell aus dem Archiv wiederherstellen. Und wie lange haben Sie dafür auf einem physischen Server gebraucht? Ich denke, es ist mehr. Wenn jemand sagt: „ Was passiert, wenn unser Host selbst ausfällt?„Wir haben ein Archiv aller virtuellen Maschinen, wir müssen nur das Betriebssystem installieren ( oder direkt der Server-Hypervisor) An neuer Server Fügen Sie im Fall von Hyper-V die Hypervisor-Rolle hinzu und stellen Sie alle Festplatten der virtuellen Maschine wieder her. Sie müssen nicht einmal etwas konfigurieren! Stellen Sie sich nun vor, wenn Ihr physischer Server ausfällt, wie viele Manipulationen müssen daran vorgenommen werden, damit er wieder wie zuvor funktioniert.

8. Reduzierter Geräteverschleiß

Ein weiterer Vorteil besteht darin, dass Sie, wenn ein Teil Ihres physischen Servers ausfällt, beispielsweise das Netzteil durchbrennt oder die Festplatte beschädigt ist, etwas kaufen oder, wenn Sie etwas auf Lager haben, es austauschen müssen, und zwar in dem Fall von virtuellen Maschinen ist es einfach unnötig.

9. Hardware-Skalierbarkeit

Nun ist zu beachten, dass, wenn Sie sich beispielsweise plötzlich dazu entschließen, allen Servern RAM hinzuzufügen ( sozusagen über die Aufrüstung von Servern), Sie müssen sie alle öffnen und die Hardware-Teile einsetzen, und wenn sie im Rack sind, dann das Ganze abschrauben und so weiter, Sie müssen zugeben, das ist stressig. Bei virtuellen Maschinen müssen Sie EINEM Server physischen Speicher hinzufügen, und bei virtuellen Maschinen ist das nicht einfach, aber sehr einfach! Im wahrsten Sinne des Wortes ein paar Klicks und das war's. Dies gilt übrigens auch für andere Parameter, wie Festplattengröße, Anzahl Netzwerkadapter und andere.

10. Dynamische Infrastruktur

Diesen Punkt könnten wir zunächst anmerken, aber na ja, er liegt darin, dass wir mit der Servervirtualisierung die Möglichkeit haben, unsere Serverflotte schnell zu erweitern, man erhält also sozusagen eine dynamische Infrastruktur. Sie wollten, sie haben ein paar neue Server in Betrieb genommen, aber sie wollten, sie haben sie entfernt. Bei physischen Servern funktioniert dies nicht. Beim Hinzufügen müssen Sie Folgendes tun: Suchen Sie nach einem Standort für die Server, planen Sie die Finanzierung, den Direktkauf, die Lieferung usw.

Abschluss

Aus all dem haben Sie und ich gelernt, warum Sie Virtualisierung in Ihrem Unternehmen einsetzen müssen und warum sie so profitabel und praktisch ist. Nun, ich denke, Sie haben wahrscheinlich alles selbst verstanden. Persönlich denke ich, dass bald absolut jeder den virtuellen Servern den Vorzug geben wird, sowohl kleine als auch große Organisationen; Servervirtualisierung wird übrigens bereits heute von großen Unternehmen aktiv genutzt. Daher denke ich, dass bald jeder in gewissem Umfang virtuelle Maschinen nutzen wird.

Server-Hypervisoren

Lassen Sie uns nun über die Umsetzung all dessen sprechen, d.h. über die Produkte, mit denen Sie Servervirtualisierung umsetzen können. Hier fallen mir natürlich zwei sehr beliebte Hypervisoren ein: VMware ESX (oder ESXi) und natürlich auch Microsoft Hyper-V. Diese Produkte werden als separate Systeme, zum Beispiel Microsoft Hyper-V Server 2008, und in unserem Fall als im Betriebssystem enthaltene Komponenten implementiert Microsoft-Server 2008 (VMware dient auch als Serversystem und als einfache Software zur Installation auf einem bestehenden Betriebssystem).

Bei einem Serversystem stellen Sie einfach über die Konsole eine Verbindung her, und bei der Installation einer virtuellen Maschine auf dem Betriebssystem öffnen Sie die erforderlichen Geräte oder starten bei VMware eine Konsole.

Diese virtuellen Maschinen unterstützen viele Arten von Gastbetriebssystemen, insbesondere VMware, aber Hyper-V liegt nicht weit dahinter, nur werden weniger Betriebssysteme gesetzlich unterstützt und daher wird es keine Unterstützung für andere Betriebssysteme geben, obwohl fast alles installiert werden kann .

Wenn wir über Nachteile sprechen, gibt es sie seltsamerweise auch: Um die Virtualisierung in Ihrem Unternehmen effektiv zu implementieren, müssen Sie einen leistungsstarken Server oder mehrere leistungsstarke Server kaufen, wenn Sie ein großes Unternehmen haben.

Wenn Sie jedoch eine kleine Organisation haben, reicht ein nicht sehr leistungsstarker Server aus, aber wie Sie verstehen, werden Sie darauf weniger Gastbetriebssysteme installieren. Achten Sie bei der Auswahl eines Servers für virtuelle Maschinen übrigens auf die Menge an RAM, diese sollte sein - je mehr desto besser! Mit anderen Worten: Die Menge an RAM bestimmt, wie viele Gastbetriebssysteme Sie installieren können. Wenn Sie für ein kleines Unternehmen beispielsweise nur zwei oder drei virtuelle Server benötigen, reicht ein Host mit 8 Gigabyte RAM. Für jeden virtuellen Server wählen Sie aus, wie viel RAM Sie haben sollen. In unserem Fall geben wir dem Host beispielsweise 2 Gigabyte und erstellen drei virtuelle Server mit jeweils 2 Gigabyte, und am Ende haben wir alle unsere 8 Gigabyte. Oder Sie können beispielsweise zwei virtuelle Server erstellen, den ersten mit einer Kapazität von 4 Gigabyte und den zweiten mit 2. Nun, im Allgemeinen entscheiden Sie selbst, was Sie benötigen.

Das ist im Grunde alles, was ich Ihnen über Virtualisierung sagen wollte. Wenn Sie virtuelle Server implementieren möchten, müssen Sie alles planen und studieren Lizenzvereinbarung das Produkt, das Sie bevorzugen.

Ich bin dort ein wenig von einem Aspekt zum anderen gesprungen. =)

Sehen...

Da hast du Recht, es spielt keine Rolle kleines Büro Entweder wird ein Cluster erstellt, oder es gibt eine Fehlerquelle in Form eines physischen Servers, auf dem der Hypervisor ausgeführt wird. Es ist dumm, darüber zu streiten. Darüber hinaus gibt es selbst im Falle eines Clusters in den meisten Fällen immer noch einen einzigen Fehlerpunkt in Form einer Speichereinrichtung, auf der sich die Daten physisch befinden. Ganz einfach, weil replizierte SANs und Co. für kleine und mittelständische Unternehmen generell keine diskutierte Lösung sind. Allein für Speichersysteme plus Lizenzen belaufen sich die Preise bereits auf Hunderttausende Dollar.

Der Vorbehalt besteht darin, dass es drei Hauptoptionen gibt:

  • Sie haben einen Hypervisor und N virtuelle Maschinen darauf
  • Sie haben N physische Server
  • Sie haben einen physischen Server mit einem Betriebssystem(ohne Virtualisierung) und alles ist auf diesem Betriebssystem installiert.

Bei der dritten Option (der schlechtesten) haben Sie a priori Probleme. Sie können die Auslastung nicht vorhersagen, Sie haben keine Sicherheit als solche (da Sie wahrscheinlich Benutzern auf dem Server Zugriff gewähren müssen, die auch Domänencontroller sind), und Ihre Anwendungen beeinflussen sich gegenseitig. Nun, zum Beispiel aus dem Leben: „Einsen“ haben 100 % der CPU verschlungen – alles hat nicht mehr funktioniert, einfach weil sich alles auf einer Instanz des Betriebssystems befand.

Die zweite Option führt normalerweise zum Kauf mehrerer (relativ) sehr günstiger Computer, die stolz als „Server“ bezeichnet werden. Ich habe das schon oft gesehen. Client-Computer sind im Wesentlichen Computer mit etwas mehr Ressourcen und einem Server-Betriebssystem darauf. Die Zuverlässigkeit solcher Computer ist angemessen. Dafür sind sie einfach nicht ausgelegt Festanstellung unter Last. Ich spreche nicht einmal von der Qualität der Komponenten und der Montage. Mit allen Konsequenzen. Wenn Sie mehrere Markenserver kaufen können (so viele, wie Sie benötigen), haben Sie Glück und die meisten Mitarbeiter in „Kleinunternehmen“ sind heftig neidisch auf Sie.

Nun, die erste Option. Wenn Sie nur einen Server kaufen müssen, ist ein größeres Budget dafür fast immer gerechtfertigt. Erklären Sie, dass der einmalige Kauf den Kauf neuer Server beispielsweise in den nächsten zwei Jahren überflüssig macht. Und Sie können einen Server von einem normalen Hersteller (HP\DELL usw.) kaufen, der über ein normales System verfügt Hardware-RAID, Komponentenbasis normaler Qualität usw. Das Plus ist, dass es einen normalen Garantiesupport gibt. Wenn Sie das entsprechende RAID-Level verwenden, sind Sie vor Datenverlust geschützt, wenn eine Festplatte (oder sogar zwei) ausfällt. Und eine defekte Festplatte wird im Rahmen der Garantie ersetzt. Außerdem wird im Rahmen der Garantie alles andere für Sie ersetzt (obwohl der „Rest“ bei anständigen Servern viel seltener ausfällt; ich erinnere mich über viele Jahre hinweg nur an ein paar Fälle, in denen Komponenten ausfielen). Aber auch hier bleibt Ihnen die Suche nach „dem gleichen Motherboard“ erspart, denn die Garantie deckt alles für Sie ab.

Das heißt, die Zuverlässigkeit ist deutlich höher und es bestehen weniger Risiken.

Alles, was nach „Es genügt, einen ausreichend leistungsstarken Server zu kaufen“ geschrieben steht, bezieht sich auf das zweite Thema – die Kompatibilität von Anwendungen und deren gegenseitige Beeinflussung. Das ist viel häufiger ein Problem als die Zuverlässigkeit der Ausrüstung selbst. Im Falle eines Geräteausfalls können Sie Ihre Daten aus einer Sicherungskopie wiederherstellen (Sie erstellen doch Sicherungskopien, oder?). Doch ohne den Kauf eines neuen Servers (also ohne finanzielle Investitionen) wird man das Problem der Kompatibilität und der gegenseitigen negativen Beeinflussung von Software untereinander in vielen Fällen nicht lösen können.

Welches Risiko ist höher: Hardwarefehler oder Softwareinkompatibilität? Was noch schlimmer ist, wenn Sie über eine normale Sicherungskopie verfügen: ein ausgebrannter Server oder ein Schadprogramm, das die Arbeit anderer stört, das Sie aber nicht loswerden können (z. B. handelt es sich dabei um Software, die von einer Abteilung dafür benötigt wird). arbeiten)?

Virtualisierung ist kein Allheilmittel; sie wird nicht alle Probleme auf einmal lösen. Und es muss nicht einfach deshalb implementiert werden, weil es existiert. Aber Sie sollten nicht darauf verzichten, ohne alle Vorteile zu berücksichtigen.

Ich hoffe, das ist klarer.

Leistung moderne Computer hat die Standardanforderungen der meisten Organisationen und einzelnen Benutzer längst übertroffen. Und immer häufiger nimmt statt mehrerer Server Platz im Rack ein einzelner ein, der dann in mehrere Maschinen „zerteilt“ wird. Bei der Auswahl der Hardware gibt es in der Regel keine Probleme, die Wahl eines Virtualisierungssystems ist jedoch schwieriger.

VMware ESXi

Wer seit der Jahrhundertwende mit virtuellen Maschinen arbeitet, kennt die Produkte von VMware, die aufgrund ihrer Beliebtheit beliebt waren Funktionalität und Produktivität.

Noch heute sind VMware Workstation und VMware Player häufig auf Desktops zu finden. Letzteres erschien als Antwort auf MS Virtual PC und ist es auch Freie Version Arbeitsplatz. Es funktioniert unter dem installierten Betriebssystem, ist also nicht ganz für eine industrielle Umgebung geeignet. Für die Installation auf Bare Metal wird VMware ESXi angeboten – ein eigenständiges Produkt, das die Grundlage für die Installation von Gastbetriebssystemen bildet, und zusammen mit VMware vSphere – ein Tool zum Aufbau einer virtuellen Infrastruktur und zur Verwaltung virtueller Ressourcen (weitere Einzelheiten finden Sie im Artikel „Virtuell“) Kugel“, siehe ][ 08.2010 ). Im Wesentlichen ist ESXi stark reduziert Linux-Version, enthält einen Hypervisor (VMkernel) und Verwaltungskonsolen: vCLI (vSphere CLI), PowerCLI (PowerShell-Schnittstelle zu vCLI), SSH und DCUI (Direct Console User Interface).

Bisher galt ESXi als „kleiner Bruder“ der VMware-Produktlinie, da es sich um eine kostenlose und abgespeckte Version von ESX handelt. Aber die Zeit von ESX ist vorbei, die nächsten Versionen von VMware VSphere werden ausschließlich Unterstützung für ESXi beinhalten (dies wird auch vorgeschlagen). alternativer Name- VMware vSphere Hypervisor) und alle Vorteile von ESX gegenüber ESXi wurden zunichte gemacht. Daher empfehlen die Entwickler den Umstieg auf ESXi.

Der Hauptunterschied zwischen ESXi und ESX ist die Architektur. ESX basiert auf einer vollwertigen Linux-Version, auf der Sie bei Bedarf Ihre Anwendungen installieren können. VMware-Agenten arbeiten über COS (Console OS), also über eine zusätzliche Ebene. Dadurch haben wir eine größere Verteilungsgröße: ~2 GB im Vergleich zu 350 MB für ESXi (nur 70 MB sind auf der Festplatte installiert).

In ESXi arbeiten Agenten direkt im VMkernel, bei Bedarf werden auch Drittmodule (Monitoring, Treiber) an den Hypervisor ausgegeben. Die Reduzierung der Schichten bedeutet mehr Zuverlässigkeit und Sicherheit und weniger Angriffsmöglichkeiten.

Die Distribution kann auf ein Flash-Laufwerk geschrieben oder sogar in die Server-Firmware eingebettet werden. Aufgrund einiger Funktionen ist die offizielle Liste kompatibler Geräte für ESXi (clck.ru/9xlp) kleiner als die von ESX, das auch von älteren Servern unterstützt wird, wird aber mit der Zeit zunehmen. Darüber hinaus haben Freiwillige eine inoffizielle Liste von ESXi Whitebox HCL-Computern (clck.ru/9xnD) erstellt, auf denen VMware ESXi ausgeführt wird. Die Nutzung der Systeme dieser Liste erfolgt auf eigene Gefahr, in der Regel treten jedoch keine Probleme auf.

Das Produkt von VMware zeichnet sich durch die Unterstützung einer Vielzahl von Gastbetriebssystemen aus. Hier gibt es eine Menge Zeug – Windows, Linux, Solaris, FreeBSD, Netware und viele andere, die gesamte Liste ist auf der Website verfügbar.

Die Funktionalität der neuesten ESXi-Versionen wurde bereits auf die Fähigkeiten von ESX „angehoben“ – die Integration mit Active Directory ist erschienen (beliebig). Konto wird im Katalog überprüft), erweiterte Speicherverwaltungsfunktionen (ungenutzte Ressourcen werden freigegeben), Zusammenarbeit mit VMware vStorage VMFS/Storage VMotion und SAN-Speichersystemen, Festlegen von Verkehrsprioritäten, VMsafe Security API-Sicherheitstechnologie. Durch die flexible Ressourcenverteilung können Sie „im laufenden Betrieb“ eine CPU, einen RAM oder eine Festplatte hinzufügen (einschließlich der Änderung der Größe der aktuellen Festplatte ohne Neustart).

Die Installation der Distribution auf Bare Metal ist sehr einfach (Standardoption von einem Laufwerk oder über PXE), und ab Version 4.1 werden Skripte unterstützt, mit denen Sie den Prozess der Softwareinstallation, Netzwerkkonfiguration und Verbindungen zu vCenter Server automatisieren können. Verwaltung integriert über VSphere API Exemplar reservieren ESXi.

Es ist wichtig, über einen speziellen Konverter zu verfügen, VMware vCenter Converter (vmware.com/products/datacentervirtualization/converter), der Ihnen die Verwendung von MS Virtual Server, Virtual PC, Hyper-V-Images in ESXi sowie physischen Servern und Festplatten ermöglicht Partitionsbilder, die von Programmen wie Acronis True Image, Norton Ghost und anderen erstellt wurden.

Darüber hinaus kann der kostenlose VMware Go-Webdienst (go.vmware.com) auch bei der ESXi-Bereitstellung helfen, sodass Sie einen physischen Server auf Kompatibilität testen, ESXi installieren und neue VMs erstellen können.

MS Hyper-V

Virtualisierungstechnologie von MS, deren endgültige Version im Sommer 2008 veröffentlicht wurde. Mit der Veröffentlichung von Win2k8R2 erhielt Hyper-V neue Funktionen – Live-Migration, dynamischer Speicher, eine Reihe von Tools und Hardware-Unterstützung wurden verbessert.

Hyper-V basiert auf dem Prinzip eines Hypervisors mit Mikrokernel und „kommuniziert“ direkt mit der Server-Hardware auf Ring-1. Dadurch werden die Kosten gesenkt und dadurch erreicht hohe Geschwindigkeit arbeiten. Wird in zwei Varianten angeboten – als Windows Server 2k8/R2-Rolle (verfügbar in Vollversion und Server Core) oder als separate Lösung für die Installation auf Bare Metal – MS Hyper-V Server 2008 R2 (microsoft.com/hyper-v-server). Letzteres wird kostenlos verteilt (erfordert keine Client-Zugriffslizenz), eine Lizenz ist nur für Windows-Gäste erforderlich. Im Wesentlichen handelt es sich hierbei um eine abgespeckte Version von Server Core, in der eine Rolle installiert ist (ohne Änderungsmöglichkeit) und die Verwaltungstools begrenzt sind.

Neben der Lizenz gibt es noch weitere Unterschiede zwischen den verschiedenen Versionen von Hyper-V, die kostenlose Version bietet jedoch alles, was Sie zum Aufbau eines Virtualisierungsservers benötigen. Dazu gehört die Unterstützung der Live-Migration-Technologie, Serverkonsolidierung und Knoten-Clustering.

Der Server, auf dem MS Hyper-V Server installiert ist, kann über 1 TB RAM und bis zu 8 CPUs verfügen, was für die Aufgaben einer kleinen und mittleren Organisation völlig ausreicht.
Offiziell unterstützt werden 32- und 64-Bit-Versionen von Windows XP SP3, Vista SP2/2k3 SP1/2k8 und Linux (SLES und RHEL). Aber im Internet findet man ein Dutzend Anleitungen, die den erfolgreichen Betrieb anderer Versionen von *nix – Ubuntu, FreeBSD und so weiter – beschreiben. Für die Installation wird empfohlen, auszuwählen Linux-Distributionen mit Kernel 2.6.32+, der hinzugefügt wurde Hyper-V-Unterstützung(LinuxIC, vertrieben von MS unter GPL). Es stimmt, nur Win2k8-Gäste können mit 4 vCPUs konfiguriert werden.

Um MS Hyper-V Server zu installieren, benötigen Sie einen Computer mit einer x64-CPU, die Intel VT- oder AMD-V-Technologien unterstützt, und mindestens 1 GB RAM.

Um große Arrays virtueller Server zu verwalten, bietet MS ein separates Produkt an, System Center Virtual Machine Manager 2008 (SCVMM 2008), das über Tools für die P2V- (Physical to Virtual) und V2V-Serverkonvertierung (mit VMware) verfügt. Auch hier wird nur Win als unterstützt für P2V aufgeführt. Um Ihren unter Linux laufenden Server zu übertragen, müssen Sie daher den langen Pfad wählen: VMware vCenter Converter .. ESXi .. SCVMM .. Hyper-V. Nicht immer dieser Prozess läuft reibungslos, insbesondere bei Distributionen, die nicht offiziell unterstützt werden.

In diesem Fall ist es sicherer, das System sauber zu installieren und dann die Daten aus dem Backup zu übertragen. Anstelle von SCVMM können Sie in diesem Paket das kostenlose VMDK2VHD (vmtoolkit.com/files), Citrix XenConvert, Quest vConverter (



Freunden erzählen