Frage Ist die virtuelle Maschine langsamer als die zugrunde liegende physische Maschine?


Diese Frage ist ziemlich allgemein, aber vor allem interessiert mich, ob die virtuelle Maschine, auf der Ubuntu Enterprise Cloud läuft, langsamer als die gleiche physische Maschine ohne Virtualisierung ist. Wie viel (1%, 5%, 10%)?

Hat jemand den Leistungsunterschied zwischen Webserver oder Datenbankserver gemessen (virtueller physischer VS)?

Wenn es von der Konfiguration abhängt, stellen wir uns zwei Quad-Core-Prozessoren, 12 GB Arbeitsspeicher und eine Reihe von SSD-Festplatten vor, auf denen ein 64-Bit-Ubuntu-Unternehmensserver läuft. Darüber hinaus darf nur eine virtuelle Maschine alle verfügbaren Ressourcen nutzen.


45
2018-04-24 07:18


Ursprung


Ubuntu Entreprise Cloud basiert auf KVM nicht Xen. - Antoine Benkemoun
Antoine, Sie haben Recht - "Die Kernvirtualisierungsstrategie war schon immer KVM-basiert, obwohl mit der Entwicklung von lib-virt das Management von KVM- und Xen-Hosts vereinheitlicht wurde." - Ich werde die Erwähnung von Xen bearbeiten. - Michal Illich


Antworten:


Die typische Erfahrung für eine allgemeine Server-Workload auf einem Bare-Metal-Hypervisor vom Typ 1 beträgt etwa 1 bis 5% des CPU-Overhead und 5 bis 10% Arbeitsspeicher-Overhead, wobei zusätzlicher Overhead abhängig von der gesamten E / A-Last variiert. Das ist meiner Erfahrung nach ziemlich konsistent für moderne Gastbetriebssysteme, die unter VMware ESX / ESXi, Microsoft Hyper-V und Xen laufen, wo die zugrunde liegende Hardware entsprechend entworfen wurde. Bei 64-Bit-Server-Betriebssystemen, die auf Hardware ausgeführt werden, die die aktuellsten CPU-Hardware-Virtualisierungserweiterungen unterstützt, würde ich erwarten, dass alle Hypervisoren des Typs 1 auf diese 1-Prozent-Gemeinkostenzahl ausgerichtet sind. Die Laufzeit von KVM ist zu diesem Zeitpunkt noch nicht ausreichend für Xen (oder VMware), aber ich sehe keinen Grund zu der Annahme, dass es für das von Ihnen beschriebene Beispiel merklich schlechter wäre als sie.

Für bestimmte Anwendungsfälle kann die Gesamtleistung einer virtuellen Umgebung die Bare-Metal-Server übersteigen. Hier ist ein Beispiel für eine Diskussion darüber, wie eine VMware Clustered-Implementation schneller \ besser \ billiger als ein Bare-Metal-Oracle-RAC sein kann. Die Speicherverwaltungstechniken von VMware (insbesondere die transparente gemeinsame Nutzung von Seiten) können den Speicher-Overhead fast vollständig eliminieren, wenn Sie genügend VMs haben, die ähnlich genug sind. In all diesen Fällen ist es wichtig, dass die Performance- und Effizienzvorteile der Virtualisierung nur dann realisiert werden, wenn Sie mehrere VMs auf Hosts konsolidieren. Ihr Beispiel (1 VM auf dem Host) wird zu einem gewissen Grad immer langsamer sein als Bare-Metal .

Während dies alles nützlich ist, konzentrieren sich die wirklichen Probleme in Bezug auf Servervirtualisierung auf Management, Hochverfügbarkeitstechniken und Skalierbarkeit. Ein CPU-Leistungsspielraum von 2 bis 5% ist nicht so wichtig wie eine effiziente Skalierung auf 20, 40 oder viele VMs, die Sie auf jedem Host benötigen. Sie können mit dem Leistungseinbruch fertig werden, indem Sie eine etwas schnellere CPU als Baseline auswählen oder indem Sie mehr Knoten in Ihren Clustern hinzufügen, aber wenn der Host die Anzahl der VMs nicht skalieren kann oder die Umgebung schwer zu verwalten ist unzuverlässig, dann ist es aus Sicht der Servervirtualisierung wertlos.


28
2018-04-24 15:03



Sie verwenden veraltete Technologien - vor allem der Speicherbedarf von 5% bis 10% ist alte Hardware. Die neueren Hardware-Chips haben einen Overhead von etwa 2% bis 3%, wenn der Hypervisor dies unterstützt - und wir reden davon, dass Sachen, die ein Jahr alt sind, neu sind. AMD und Intel haben ihre API für die Hyper-Visor-Speicherzuordnung bis dahin verbessert. Wie du später gesagt hast, sind sie ziemlich transparent (1% Ziel). +1, um auf die wirklichen Vorteile hinzuweisen. - TomTom
Ich habe die 5-10% basierend auf dem, was ich mit VMware gesehen habe und basiert auf Pre-EPT \ RVI-Kit. Es macht Sinn, dass die verbesserte hardwarebasierte virtuelle Speicherverwaltung in den neuesten CPUs den RAM-Overhead reduzieren würde - Helvick
in Bezug auf transparente Seite teilen, es ist suck, wenn Sie große Speicherseiten haben, die alle neuen CPUs unterstützen. Sie erhalten in diesem Fall im Wesentlichen nichts. - tony roth
@Tony das ist nur wahr, wenn du nicht übersteuert bist - wenn du dann ESX \ ESXi 4 bist, wird es kleine Seiten verwenden und TPS wird einspringen. Ich habe das nicht bis an die Grenze getrieben, also kann ich das nicht wirklich bestätigen funktioniert wie angekündigt, aber es ist ein vernünftiger Ansatz, der es erlauben sollte, zu überstürzen, wenn es absolut erforderlich ist, ohne Leistung zu opfern, wenn dies nicht der Fall ist. Sehen kb.vmware.com/selfservice/microsites/... - Helvick
@Helvick, wenn du win7 oder w2k8r2 spielst, funktioniert Gast-TPS nicht viel, da der Gast Sachen aggressiv precaching ist. - tony roth


"Performance" hat viele Aspekte. Die n00bs messen die Startzeit eines OS und sagen z.B. Windows 2012 ist sooooooo toll, weil es in 12 Sekunden auf echtem HD startet, vielleicht 1 Sekunde auf SSD.
Aber diese Art von Maßnahme ist nicht sehr nützlich: Die Leistung entspricht der Bootzeit des Betriebssystems, aber das Betriebssystem bootet einmal im Monat, so dass das Optimieren nicht viel Sinn macht.

Weil es mein tägliches Geschäft ist, möchte ich die 4 folgenden Teile hervorheben, aus denen die "Performance" besteht:

  1. CPU-Auslastung
    Dies sollte vergleichbar sein, was bedeutet, dass eine Aufgabe, die 1000 ms auf Bare Metal einnimmt, in 1000 ms Prozesszeit und wahrscheinlich 1050 ms Taktzeit in einer ungenutzten VM-Umgebung auf derselben Hardware ausgeführt wird (einige Details später). Google die MSDN für processtime und queryperformancecounter und yu können eine Sache tun, die zeigen kann, wie viel die VM Ihre CPU-Zeit auffrisst.

  2. SQL-Leistung
    Die SQL-Leistung hängt stark von IO zum Datenspeicher ab, in dem die SQL-Daten gespeichert sind. Ich habe einen Unterschied von 300% zwischen dem 1. Gen ISCSI gesehen, den du auf Buffalo Home NAS findest, dann ISCSI mit DCE und einer echten Old School FC Umgebung auf allen Ebenen. Der FC gewinnt noch heute, weil die FC-Latenz das niedrigste Archievable ist, das zu einer "Kopie" des FC-Protokolls für TCP / IP-Datencenter-Erweiterungen führt. Hier kommt es auf IOps und Latenz an, aber auch auf E / A-Bandbreite vom Serverprozess bis zu den Medien - abhängig davon, ob die App zu No-SQL oder Datawarehousing tendiert oder in der Mitte wie ERP-Systeme steht ... Sage KHK für kleine Unternehmen, SAP für die Großen. Beide haben einen CEO-Standpunkt zu Unternehmensfinanzstatistiken und wenn der CEO den Knopf drückt, gewährt er effektiv Urlaub für einige Tage, wenn das E / A-Subsystem der Datenbank Schwächen aufweist.

  3. Dateisystemzugriff
    Einige Anwendungen, wie Video-Streaming, benötigen eine garantierte Mindestbandbreite, andere setzen auf maximalen IO-Durchsatz wie das Öffnen großer Dateien in einem Hex-Editor und das Laden eines Videoprojekts in Ihr bevorzugtes Filmproduktionsprogramm. Keine typische Situation auf einem VM .... die IOps können auch für Entwickler wichtig sein. Entwickler verwenden häufig VMs, da Entwicklungsumgebungen sehr empfindlich sind und die Versuchung, dies in einer VM zu tun, hoch ist. Das Kompilieren eines großen Projekts bedeutet oft das Lesen von Tonnen kleiner Dateien, das Kompilieren und Erstellen einer EXE und der zugehörigen Komponenten.

  4. Netzwerklatenz zum Client
    Hier hängt die Usability von WYSIWIG wie Word 2010, OpenOffice Writer, LaTEX, GSView und anderen stark von der Geschwindigkeit ab - wie schnell eine Mausaktion vom Client auf den Server kommt. Gerade in CAD-Anwendungen ist dies wichtig, aber auch kein LAN-Problem, sondern der Fernzugriff über das WAN, wo dies wichtig ist.

Aber - und ich spreche aus der Perspektive jahrelanger Beratung - es gibt Benutzer mit dem Admin-Passwort (und sie sind oft Angestellte einer BIG-Firma mit einem großen Budget und einem großen Taschenbuch), die dies und das beklagen, aber es muss geklärt werden Welche Leistungskomponente ist ihnen wichtig und welche aus der Perspektive der Anwendung, die sie verwenden, wichtig ist.
Es ist wahrscheinlich nicht Notepad, sondern eine hochentwickelte Anwendung für das Engineering von diesem und jenem, das ebenfalls sehr teuer war und auf die VMware, HyperV oder XenApp verschoben werden sollte und es nicht wie erwartet funktioniert.

Aber sie denken nicht daran, dass es auf 1.5 GHz Xeons auf Blades läuft, die nicht für reine CPU-Leistung ausgelegt sind, sie sind für einen Durchschnitt gebaut, sagen wir "optimiert für $ pro CPU-Zyklus" oder "CPU-Zyklen pro Watt" .

Und wenn wir über Kompromisse und Einsparungen sprechen - das führt meist zu Überverpflichtungen. Overcommitments führen zu Ressourcenmangel, bei dem CPU ziemlich gut verarbeitet werden kann, aber mangelnder Speicher führt zu Paging, IO-Mangel in den Core-Routern führt zu erhöhten Antwortzeiten und eine Transaktionsüberlastung bei jeder Art von Storage stoppt möglicherweise jede nützliche App zu schnell reagieren. Hier ist eine Überwachung erforderlich, aber viele Softwareanbieter sind nicht in der Lage, solche Informationen zu liefern. Andererseits kann ein Host mit Ressourcen von 3 physikalischen Servern höchstwahrscheinlich 8 virtuelle Maschinen des gleichen Layouts wie die physischen handhaben ...

Die CPU-Kompromisse bei Leerlaufsystemen führen oft dazu, dass Systeme 50% langsamer als physische Systeme arbeiten, andererseits ist niemand in der Lage, die "echte" und die "echte" App zu installieren, die die IT-Mitarbeiter des Kunden in die VM verschieben möchten Box. Und es dauert Tage (vielleicht Wochen, aber sicher 42 Meetings), um zu verdeutlichen, dass die VM-Technologie Flexibilität bieten kann, indem sie mit reiner CPU-Geschwindigkeit handelt. Dies ist nur in die CPUs dieser Blade-Systeme integriert, die heutzutage größere VM-Umgebungen beherbergen. Auch der Speicher wird nicht vergleichbar sein, auch einige Kompromisse gelten. DDR3 1600 CL10 wird eine höhere Speicherbandbreite als DDR2 800 ECC LLR haben - und jeder weiß, dass Intel CPUs anders als AMD cpus davon profitieren. Aber sie werden nur selten in produktiven Umgebungen, mehr in Whiteboxes oder in Datenzentren in Ländern der 3. Welt eingesetzt, die einen Rechenzentrumsservice für 10% des Preises anbieten, den ein Rechenzentrum in Ihrem Heimatland Ihnen berechnen kann. Dank Citrx kann ein Rechenzentrum überall dort sein, wo weniger als 150 ms Latenz zwischen dem Endanwender und dem Rechenzentrum liegen.

Und die Perspektive der Heimanwender .... 

Last but not least wollen einige Leute Win7 oder XP wegwerfen und es gegen ein Linux tauschen, und dann kommt die Spielfrage auf, denn eigentlich gibt es nur wenige Spiele für Linux und Windows. Gaming stützt sich stark auf 3D-Beschleunigung. VMWare 6.5 Workstation und der angeschlossene freie Player können mit DirectX 9 umgehen, dh eine Doom3 in einer VM kann auf der Host-Grafikkarte im Vollbildmodus ausgeführt werden. Spiele sind meistens 32-Bit-Apps, also werden sie nicht mehr als 3 GB und meistens nicht mehr als 3 CPUs verschlingen (gesehen auf Crysis). Neuere VM-Player und WS können mit höheren DirectX-Versionen und wahrscheinlich auch OpenGL umgehen ... Ich habe UT und UT2004 auf VMware 6.5 gespielt, der Host hatte eine ATI Radeon 2600 Mobile und eine T5440 CPU. Es war stabil bei 1280x800 und sogar auf Netzwerkspielen spielbar ....


22
2017-12-17 21:45



Wir mögen gute Antworten auf zeitlose Fragen. Willkommen bei Serverfehler! - Michael Hampton♦


Ja. Aber das ist nicht die Frage. Der Unterschied ist normalerweise vernachlässigbar (1% bis 5%).


9
2018-04-24 07:25



Ich glaube Ihnen. Aber trotzdem: Können Sie einen Benchmark verknüpfen, wo jemand ihn tatsächlich gemessen hat? - Michal Illich
Es hängt von so vielen Faktoren ab, dass niemand Ihre Frage beantworten kann. Es hängt davon ab, welchen Hypervisor Sie haben, die Serverspezifikation, Speicher und vor allem, was sonst noch mit dem Host zu der fraglichen Zeit passiert. - Chopper3
Eigentlich nicht. Wenn Sie eine Menge Dinge tun, wird die physische Maschine geteilt. Aber der Overhead des Hypervisors ist aufgrund der Hardware-Virtualisierung inzwischen ziemlich konstant. Anturally, wenn Sie beginnen, mehrere VMs zu laden, wird die resultierende verfügbare Macht geteilt, aber es ist - insgesamt - immer noch nur geringfügig kleiner als das, was der Server hat. - TomTom
Zitat benötigt. - Zoredache
Der Overhead des Hypervisors hängt davon ab, wie stark das Betriebssystem erleuchtet werden kann, und das bedeutet nicht paravirtualisiert. - tony roth


Ich möchte darauf hinweisen, dass die Virtualisierung in bestimmten Situationen die physische Leistung übersteigen kann. Da die Netzwerkschicht nicht auf Gigabit-Geschwindigkeit beschränkt ist (obwohl die Hardware-Emulation einer bestimmten LAN-Karte entspricht), können VMs auf demselben Server untereinander mit Geschwindigkeiten kommunizieren, die über die von mehreren physischen Servern mit durchschnittlicher Netzwerkausstattung hinausgehen.


8
2017-08-28 12:00



Zwei Softwareteile, die auf zwei VMs auf demselben Server ausgeführt werden, kommunizieren nicht schneller als zwei Softwares unter demselben Betriebssystem auf einem Bare-Metal-Server. - bokan


Sie versuchen, ein Betriebssystem, Software und Daten, die auf einer bestimmten physischen Hardware installiert sind, mit demselben Betriebssystem, derselben Software und denselben Daten zu vergleichen, die in einem Hypervisor auf derselben Originalhardware installiert wurden. Dieser Vergleich ist einfach nicht gültig, weil fast niemand dies tut. Natürlich wäre das wahrscheinlich langsamer. Glücklicherweise vermisst es vollständig den häufigsten Grund, warum Sie Server überhaupt virtualisieren.

Ein besseres Beispiel hierfür ist der Blick auf zwei (oder mehr!) Ältere Server in Ihrem Rechenzentrum. Suchen Sie nach Servern, die einigermaßen gut funktionieren, aber jetzt alt sind und ihren Aktualisierungszyklus durchlaufen. Diese Server funktionieren bereits auf älterer Hardware gut, und dank Moores Gesetz wird alles, was Sie neu bekommen, viel zu groß sein.

Also, was machst du? Es ist einfach. Anstatt zwei neue Server zu kaufen, kaufen Sie nur einen einzigen Server und migrieren dann beide alten Server auf dasselbe physische neue Gerät. Wenn Sie sich auf den Kauf Ihres neuen Servers vorbereiten, planen Sie, dass Sie genügend Kapazität haben, um nicht nur die Last von beiden älteren Servern, sondern auch jede Last vom Hypervisor (und vielleicht ein bisschen mehr) zu bewältigen, damit Sie noch einen Leistungsschub bekommen kann Wachstum ermöglichen).

Zusammengefasst: Virtuelle Maschinen bieten in den meisten Situationen "ausreichend" Leistung und helfen Ihnen, Ihre Server besser zu nutzen, um "verschwendete" Rechenleistung zu vermeiden.

Lasst uns das ein bisschen weiter strecken. Da dies alte Server sind, haben Sie vielleicht ein paar einfache $ 1500 Pizzaschachtel-Server angeschaut, um sie zu ersetzen. Wahrscheinlichkeiten sind, sogar eine dieser Pizzakartons konnte die Last von beiden hypothetischen älteren Maschinen noch leicht handhaben ... aber sagen Sie, dass Sie stattdessen entscheiden, $ 7500 oder mehr auf etwas echte Hardware auszugeben. Jetzt haben Sie ein Gerät, das problemlos mit bis zu einem Dutzend Ihrer vorhandenen Server umgehen kann (je nachdem, wie Sie mit Storage und Netzwerk umgehen). Die Anschaffungskosten betragen nur 5. Sie haben außerdem die Vorteile, nur einen physischen Server zu verwalten und zu entkoppeln Ihre Software von Ihrer Hardware (dh Hardwareaktualisierung benötigt jetzt weniger wahrscheinlich eine neue Windows-Lizenz oder Ausfallzeiten), Sie sparen eine Menge Strom und Ihr Hypervisor kann Ihnen bessere Informationen über die Leistung geben, als Sie in der Vergangenheit hatten . Holen Sie sich zwei davon, und je nachdem, wie groß Sie sind, ist Ihr gesamtes Rechenzentrum möglicherweise auf zwei Rechner reduziert, oder Sie möchten den zweiten Server als Hot-Standby verwenden, um eine bessere Hochverfügbarkeitsgeschichte zu erzählen.

Mein Punkt hier ist das Es geht nicht nur um Leistung.  Ich würde nie einen vollkommen guten Produktionsserver nehmen und ihn allein auf äquivalente Hardware virtualisieren, nur weil. Es geht vielmehr um Kosteneinsparungen und andere Vorteile, die Sie durch Konsolidierung erzielen können, wie z. B. Hochverfügbarkeit. Wenn Sie diese Vorteile realisieren, bedeutet dies, dass Sie Server auf andere Hardware verlagern, was wiederum bedeutet, dass Sie sich die Zeit nehmen müssen, die Hardware entsprechend zu dimensionieren, einschließlich der Berücksichtigung der Hypervisor-Strafe. Ja, Sie könnten insgesamt etwas mehr Rechenleistung benötigen, als wenn jeder dieser Rechner auf seinem eigenen physischen Gerät wäre (Hinweis: Sie brauchen es wahrscheinlich auch) viel weniger Rechenleistung), aber es wird ein viel billiger, energieeffizienter und einfacher zu warten um einen physischen Server auszuführen, als um viele auszuführen.


1
2018-02-18 15:02



Es geht nicht immer um Konsolidierung und Kosteneinsparungen. Ein Hypervisor ist ein Produkt mit vielen Funktionen, von denen viele das Potenzial haben, unabhängig von den Gründen, die von den meisten Benutzern virtualisiert werden, Geschäftswert hinzuzufügen. Konsolidierung und Kosteneinsparungen können Teil dieses Geschäftswerts sein oder nicht. Snapshots, Live-Migration, Storage vMotion und Hardwareabstraktion können Teil der Business-IT-Strategie sein. - jgoldschrafe
@jgold Punkt genommen. Du hast sogar einen großen vergessen: hohe Verfügbarkeit. Zu meiner Verteidigung habe ich in meinem letzten Schnitt die Hardware-Abstraktion (Art) erwähnt, und für jemanden, der gerade Virtualisierung aus dem Blickwinkel der ursprünglichen Frage untersucht, denke ich, dass Konsolidierung / Kosten der wirklich große Punkt zu vermitteln ist. - Joel Coel


Ich habe einige Testvergleiche derselben Software durchgeführt, die denselben Test ausführt (.NET-basierte Webanwendung mit hohem Datenverkehr und beträchtlichem SQL Server-Zugriff). Folgendes habe ich gesehen:

  • Die physische Maschine kann Klassen besser instanziieren (was bedeutet, dass Speicher auf Systemebene zugewiesen wird). Dies ist für mich sinnvoll, da physische Maschinen dies über die Speicherverwaltungshardware tun und VMs dies über Software (mit teilweiser Hardwareunterstützung) tun , verbrachte die App eine beträchtliche Menge an Zeit in ihren Konstruktoren (wo der Speicher zugeordnet ist (und nichts anderes getan wird), auf der physischen Maschine waren die Konstruktoren nicht einmal in den Top 1000 enthalten)
  • Wenn Sie in der Mitte einer Methode sind, sind die beiden ungefähr gleichwertig - das ist wahrscheinlich der Grund, warum die meisten Benchmarks so konstruiert sind, dass die beiden "gleich sein" sind.
  • Wenn Sie auf einen Netzwerk-Controller zugreifen, schlägt das Physikalische die VM ein wenig - auch hier hat das Physische nicht viel zwischen dem .NET-Prozess und der Hardware zu sitzen. VM fügt weitere "Dinge" hinzu, die jede Transaktion durchlaufen muss.
  • Das gleiche gilt für den Festplattenzugriff (der SQL Server war auf einem anderen Computer) - der Unterschied ist sehr klein, aber wenn Sie alle hinzufügen, ist es auffällig. Dies könnte durch den langsameren Netzwerkzugriff oder durch einen langsameren Festplattenzugriff verursacht worden sein.

Ich kann leicht sehen, wie jemand Benchmarks erstellen könnte, die beweisen, dass sie 1% verschieden oder gleich sind oder wo VMs schneller sind. Fügen Sie nichts hinzu, wenn Ihr Prozess die Vorteile der lokalen Hardwareunterstützung nutzt, die die VM in Software simulieren muss.


1
2017-08-09 13:27



Das ist, was ich gesucht habe. +1 - Phil Ricketts


Ich habe gerade auf eine SSD (OCZ Vertex 2) aufgerüstet und ich betreibe meine XP VM-Entwicklungsumgebung darauf, ich bin ein Softwareentwickler. Eine Sache, die mir aufgefallen ist, ist, dass wenn ich ein Programm starte (eines, das groß genug ist, um Zeit zum Laden zu haben), ein Kern der virtuellen CPU herausragt. Dies geschieht beim Laden von IE auch. Da die CPU hängt, nehme ich an, der Engpass ist die CPU und nicht die SSD. Aber es scheint seltsam, ich habe das Gefühl, dass, wenn das gleiche auf einer physischen Maschine gemacht würde, dass es schneller geladen würde und mein Gefühl ist, dass es zusätzlichen Verarbeitungsaufwand gibt, der VMWare macht, der CPU auf dem Plattenzugriff verbraucht.

Ein Beispiel, ich benutze Delphi und auf einer physischen Maschine mit einer normalen Festplatte kann es 20 Sekunden dauern, um von einem Kaltstart zu starten. In der VM, die von einer SSD läuft, lädt sie in 19 Sekunden von einem Kaltstart. Nicht viel Unterschied, ich wette, wenn die SSD auf der physischen Maschine wäre, würde sie schneller laden. Wie auch immer, ich habe die CPU-Auslastung auf der physischen Maschine nicht überprüft, die mögliche CPU war dort auch der Flaschenhals.

Das Gefühl der VM ist jedoch, dass der Festplattenzugriff die VM belastet.


0
2017-07-19 19:27





Offensichtlich ist eine virtuelle Maschine langsamer als die physische Maschine. Aber wenn Sie in diesem Szenario sind, müssen Sie beurteilen, was optimal ist, um Ihre Bedürfnisse zu decken. Wenn Sie nur ein System benötigen und es schnell sein muss, installieren Sie es direkt auf der Hardware. Auf der anderen Seite, wenn Sie Flexibilität, Skalierbarkeit (und alle anderen Vorteile der Virtualisierung: P) benötigen, stellen Sie eine VM bereit. Es wird langsamer sein, aber IMHO in einigen Fällen ist es gerechtfertigt und die Leistung ist nicht signifikant langsam.


0
2018-02-18 13:39





Es scheint, dass Microsoft einige Benchmark-Tests mit BizTalk Server und SQL Server in verschiedenen Konfigurationen in diesem Zusammenhang durchgeführt hat. Siehe Link unten:

http://msdn.microsoft.com/en-us/library/cc768537(v=BTS.10).aspx


0
2017-07-06 14:05



Bitte zitieren Sie die Schlussfolgerungen in Ihren Antworten oder dies ist wenig mehr als SPAM für den bereitgestellten Link. Vielen Dank. - Chris S
SQL Server performacne Virtual to Physical-Verhältnis (mit BizTalk: Messaging / Dokumente verarbeitet / Sec-Metrik, die wie realistisch real-Welt scheint) wird zitiert, um 88% sein - mit HyperV. Sieht nicht gut aus. - deadbeef
Oh mein Gott, ist das eine 250MB PDF-Datei? O_O - David Balažic


Idealerweise ist Virtual PC-Leistung:

ZENTRALPROZESSOR: 96-97% des Hosts

Netzwerk: 70-90% des Gastgebers

Platte: 40-70% des Gastgebers


-1
2017-12-22 05:00



Und diese Zahlen kommen von .... - Jim B


Tut mir leid, TomTom nicht zuzustimmen.

Ich benutze VMware Workstation seit einiger Zeit hauptsächlich auf Windows XP, Windows Vista und jetzt Windows 7 nativen Systemen, um verschiedene Windows-Varianten sowie Ubuntu auszuführen.

Ja, eine virtualisierte Umgebung ist langsamer als ein natives System und kann in einem Bereich von 5 bis 100% liegen.

Das Hauptproblem ist nicht so sehr die CPU-Last, sondern der physische Speicher.

Angenommen, Sie haben ein Windows Seven 64 Ultimate auf einem 4 Gb-System, das im Leerlauf fast 1,5 GB benötigt und ca. 10% der CPU verbraucht. Wenn Sie die zusätzliche Schicht von VMware starten, kostet das ca. 300 Kb und die CPU-Auslastung steigt auf ca. 20%. Wenn Sie dann ein virtuelles System innerhalb von VMware starten, wird mindestens die Menge an Speicher angefordert, die Sie für diese virtuelle Maschine definiert haben, die mindestens 1 GB für jedes anständige System beträgt. Dann sehen Sie die CPU-Auslastung ~ 60%, wenn die virtuelle Maschine Ubuntu ist und ~ 80% für jede Variante des aktuellen Windows-Betriebssystems.

Jetzt starten Sie verschiedene Anwendungen innerhalb dieser virtuellen Maschine.

Wenn die Menge an Speicher, die Sie für diese virtuelle Maschine festgelegt haben, nicht ausreicht, beginnt das virtualisierte System zu tauschen, was die Gesamtleistung und die Reaktionsfähigkeit dramatisch verlangsamt.

Wenn die Summe der Speicherkapazität, die Sie für diese virtuelle Maschine festgelegt haben, und die für das native System benötigte Speichermenge über der Speicherkapazität Ihres systemeigenen Systems liegt, wird Ihr systemeigenes System ausgetauscht und verlangsamt sowohl das native als auch das virtualisierte System.

Es hängt also zuerst von der Balance des Speichers ab, der für die nativen und die virtualisierten Maschinen benötigt wird.

Jetzt ist es fast gleich mit der CPU-Last. Wenn eine virtualisierte App eine große CPU-Last benötigt und eine native App auch eine große CPU-Last benötigt, muss Ihr natives System die Priorität verwalten und die CPU-Belastung zwischen den verschiedenen Apps ausgleichen, wobei das virtualisierte System nichts anderes als eine App ist Phänomen ist ein klassisches CPU-Ladeproblem, das Sie mit App-Prioritäten tricksen können.

Also, mein erster Rat, wenn Sie Virtualisierung verwenden müssen, ist, eine Menge Speicher in Ihren Rechner zu legen, unabhängig davon, welches Betriebssystem Sie nativ oder innerhalb einer virtuellen Maschine verwenden.

Nur meine 2 Cent.

Freundliche Grüße.


-4
2018-04-24 08:03



Stellen Sie sich diese Konfiguration vor: 12 GB Speicher, zwei Quad-Core-Prozessoren. Dazu noch 1 virtuelle Maschine mit 11,5 GB Speicher und der gesamten CPU-Leistung. Wird es noch eine spürbare Verlangsamung geben? - Michal Illich
Wie würde Win7 x64 1,5 GB (oder irgendeine CPU-Zeit) im Leerlauf benötigen? Mehr wie 384-512MB nach meiner Erfahrung - der Rest ist nur für I / O-Caching reserviert und wird bei Bedarf anderswo veröffentlicht ^^ - Oskar Duveborn
Aber Sie sprechen von Workstation-Virtualisierung, nicht von einem Bare-Metal-Hypervisor, der im Vergleich zur Virtualisierung unter Windows nur einen Bruchteil der Gemeinkosten hat. Die Ubuntu-Cloud ist vielleicht kein Bare-Metal-Hypervisor, aber sie nutzt kaum die Ressourcen von Windows - sie läuft auf Ubuntu Server, der zum Beispiel keine GUI hat. - Jon Rhoades
-1: Sehr schlechter Vergleich. VM Workstation ist KEIN Hypervisor. Zweitens redest du über hohe Lasten auf dem Host; Das wird natürlich Auswirkungen auf die Gast-VM haben. - gravyface
@ Oskar> Wie würde Win7 x64 im Leerlauf 1,5 GB (oder überhaupt CPU-Zeit) benötigen? Mehr wie 384-512MB in meiner Erfahrung Schauen Sie sich dieses Bild an theliberated7dwarfs.as2.com/pictures/png/W7-Mem.png  Windows 7-64, 4 GB RAM, neuer Neustart, keine Anwendung läuft, aber MSFT Essential Security und Kapersky! Hoppla: 1,53 GB RAM und durchschnittlich 7% CPU-Last! @ TomTom & Gravyface 1-Die erste Frage war über generische VM-Maschine, nicht Hypervisor! 2-Meine technische Plattform macht das Glück von MSFT und VMware. Vielleicht magst du es oder nicht und ich werde dir nicht die Schuld geben;) Mit freundlichen Grüßen - Dopey