Frage Welche Art von Speicher verwenden die Benutzer tatsächlich für VMware ESX Server?


VMware und viele Netzwerk-Evangelisten versuchen Ihnen zu sagen, dass hochentwickelte (= teure) Glasfaser-SANs die "einzige" Speicheroption für VMware ESX- und ESXi-Server sind. Nun ja, natürlich. Die Verwendung eines SAN ist schnell, zuverlässig und ermöglicht vMotion. Großartig. Aber: Können sich alle ESX / ESXi-Benutzer wirklich SAN leisten?

Meine Theorie ist, dass weniger als 20% aller VMware ESX-Installationen auf diesem Planeten tatsächlich Glasfaser- oder iSCS-SANs verwenden. Die meisten dieser Installationen werden in größeren Unternehmen stattfinden, die sich das leisten können. Ich würde vorhersagen, dass die meisten VMware-Installationen "Attached Storage" verwenden (vmdks werden auf Festplatten im Server gespeichert). Die meisten von ihnen laufen in KMU und es gibt so viele von ihnen!

Wir betreiben zwei ESX 3.5 Server mit angeschlossenem Speicher und zwei ESX 4 Server mit einem iSCS SAN. Und der "echte Live-Unterschied" zwischen beiden ist kaum bemerkenswert :-)

Kennen Sie offizielle Statistiken für diese Frage? Was verwendest du als Speichermedium?


27
2017-11-02 23:00


Ursprung


Sollte ein Community Wiki sein - MDMarra
These oder Theorie? - Mark Henderson♦


Antworten:


Ich mache viele VMware-Beratungsarbeiten und ich würde sagen, dass die Prozentsätze näher bei 80% der installierten hochverfügbaren Shared Storage (FC, iSCSI oder High-End-NAS) sind und viele meiner Kunden KMU sind. Der Schlüsselfaktor, den ich gefunden habe, ist, ob das Geschäft seine Serverzeit als kritisch behandelt oder nicht, für die meisten Unternehmen heute.

Sie können sehr leistungsstarke VMs aus direkt angeschlossenem Speicher ausführen (ein HP DL380 G6 mit 16 internen Laufwerken in einem RAID 10-Array würde ziemlich schnelle Datenträger-IO haben), aber wenn Sie eine VMware- oder eine andere virtualisierte Umgebung erstellen, um Dutzende, Hunderte zu ersetzen oder Tausende von Servern, dann sind Sie verrückt, wenn Sie nicht viel Aufwand (und wahrscheinlich Geld) in eine robuste Speicherarchitektur investieren.

Sie müssen kein High-End-SAN für die Clustering-Funktionen kaufen. Sie können diese mit einem relativ günstigen NAS (oder einem virtualisierten SAN wie dem VSA von HP \ Lefthand) implementieren und weiterhin zertifizierten Speicher verwenden. Wenn Sie jedoch gemeinsam genutzten Speicher verwenden und an keiner Stelle in der SAN \ NAS-Infrastruktur Redundanz vorhanden ist, sollten Sie diese nicht zu viel mehr als zum Testen verwenden. Und Redundanz ist (mindestens) duale (unabhängige) HBAs \ Speicher-NICs in Ihren Servern, zwei unabhängige Fabrics, redundante Controller im SAN, batteriegepufferter Cache \ Cache-Destaging, redundante Hot-Swap-fähige Lüfter und Netzteile usw., RAID 5 \ 6 \ 10 \ 50 und entsprechende Anzahl von Hot Spares.

Der wahre Unterschied zwischen Ihren Systemen besteht darin, dass Sie bei einem katastrophalen Ausfall eines Ihrer Standalone-Systeme viel Arbeit aufwenden müssen, um es wiederherzustellen. Bei geclusterten SAN-Systemen sollte das Patchen der Hypervisors oder das Upgraden der Hypervisor-Hardware zu Ausfallzeiten führen. Ein schwerwiegender Serverfehler führt dazu, dass der Dienst nur so lange heruntergefahren wird, bis die VM auf einem separaten Knoten neu gestartet wird (im schlimmsten Fall) oder wenn für diese VMs die Fehlertoleranz gilt und Sie keine Ausfallzeit haben.


27
2017-11-03 01:10



Abhängig von Ihrem Unternehmen kann die Super-Duper-Doppel-Alles-Redundanz übertrieben sein - ein paar Ersatzteile (zB HBAS und GBICS) können viele Probleme abdecken. Wenn Sie Cluster-Failover haben, kann das plus einige Ausrüstung genug Elastizität für viele Unternehmen bieten, besonders wenn FC Ihnen Aufkleberschock gibt. - Jim Zajkowski
Ich sollte hinzufügen, unsere acht ESX-Server verwenden alle gemeinsame FC-Festplatte für den Speicher. - Jim Zajkowski
True und FC-Stick Schock ist ein echtes Problem (die Port-Lizenzierung Kosten für FC-Switches insbesondere gibt mir regelmäßig Sodbrennen), aber für langfristige Support-Fähigkeit mit voller Redundanz macht alles viel einfacher zu verwalten, können Sie fast alle Ausfallzeiten für die Infrastruktur Wartung zum Beispiel zu vermeiden . Mit FC kostet diese Redundanz einen Arm und ein Bein (und vielleicht eine oder zwei Niere), um sicher zu sein, aber mit iSCSI oder einer NAS-Umgebung trägt es nicht viel zu den Gesamtkosten bei, selbst wenn relativ teure Komponenten verwendet werden. - Helvick
Ich muss noch "doppelt alles" sehen ... normalerweise stecken die SAN-Laufwerke in eine Backplane, die daher ein Single-Point-of-Failure ist. - James Risto


Als Firma haben wir über tausend Hosts, wir haben mit dem FC angefangen, haben eine Weile iSCSI ausprobiert, sind aber aufgrund von Performance-Problemen zum FC zurückgetreten. Wir betrachten NFS ernsthaft, haben aber noch keine Schlüsse. Oh, und wir verwenden HP XP / EVA und einige NetApp, wir haben keine lokalen Storage Bar Desktop / Dev-Hosts.


1
2017-11-02 23:29





Wie Sie sehen können, gibt es keine Einheitsgröße und keine einzige Klassenspeicherlösung. Je nach Verfügbarkeit und Leistungsanforderungen können mehrere Speicherklassen vorhanden sein


1
2017-11-05 18:49





Für hohe Schreib - und Lesegeschwindigkeiten habe ich festgestellt, dass FC unschlagbar in der Leistung ist, und während der Preis hoch ist ... Es funktioniert einfach ... für eher profane Leistungserwartungen hat iSCSI tatsächlich ziemlich gut funktioniert, also habe ich normalerweise die Exchange Server-Postfachdateien auf einem FC-Festplattensubsystem und den eigentlichen Startlaufwerken auf einer iSCSI-Schnittstellenfestplatte austauschen, wobei die DNS-Server und Active Directory-Maschinen ebenfalls über iSCSI ausgeführt werden.


1
2017-11-10 11:48





Ich habe ESX mit SANs, NAS und DAS ausgeführt. Es hängt ganz davon ab:

  1. Budget
  2. Erfahrung
  3. Rechenzentrum und / oder Rackplatz
  4. Geld

Für Zuverlässigkeit und Geschwindigkeit glaube ich nicht, dass Sie ein SAN schlagen können.

Für Zuverlässigkeit und Kosten würde ich mit NAS gehen.

Und für Geschwindigkeit und Kosten, DAS.

Nicht, dass die einzelnen Optionen sich nicht überschneiden, aber das sind die Stärken, die ich erlebt habe.


1
2017-11-10 12:54





Wir betreiben 4 ESX 4 Server und wir verwenden ein EqualLogic iSCSI SAN.


0
2017-11-02 23:04



Wie hat sich die EqualLogic-Ausrüstung in Bezug auf Preis und Leistung mit LeftHand oder herkömmlichen SANs verglichen? - Sim
Ich bin auch neugierig zu erfahren, wie LeftHand jetzt vergleicht, dass HP sie erworben hat - warren
Ich habe keine Erfahrung mit LeftHand. Ich bin gerade dabei, einige Vergleiche zwischen unserem EqualLogic-Setup und einem Fiber-Channel-SAN von Compellent zu ziehen. Ich werde mit einem Update zurückschreiben, wenn ich einige Ergebnisse habe. - Richard West


Bei kleineren Installationen ist lokaler Speicher vollkommen akzeptabel, solange Sie ordentliche Festplatten haben - ich würde 10k RPM + SAS-Laufwerke sagen. Das einzige Mal, wenn Sie eine gemeinsam genutzte Festplatte verwenden müssen (ich habe absichtlich nicht gesagt, dass SAN Ihre freigegebene Festplatte sein kann und NFS-Freigabe) Lösung ist, wenn Sie Clustering tun müssen - VMWare HA und DRS.

Im Moment haben wir 3 Speicherebenen - FiberChannel SAN, High-End-Equalogix-SANs und Low-End-MD3000i-SANs. Die letzten beiden sind iSCSI. Wir betreiben auch einige Server auf dem lokalen Speicher der ESX-Server - meist Utility-Server, die uns egal sind, wenn sie für ein oder zwei Stunden ausfallen, während wir Dinge reparieren, wenn alles auf einer Box boomen wird.

Wir betreiben auch unsere Testumgebung von einem selbstgebauten NAS mit 7,2k SATA-Laufwerken und iSCSI-Enterprise-Ziel (die Leistung ist nicht so gut, aber es bringt uns durch).

Viele Leute neigen dazu, gegen NFS-Aktien auch in größeren Umgebungen zu laufen. Ich wollte schon eine Weile damit spielen, habe aber keine Zeit gefunden.


0
2018-01-06 08:58





Wir haben vier (gut, vier live, eine zum Testen) ESXi-Hosts mit einem iSCSI-Fabric, das aus Commodity-Switches besteht, und ein Low-End-Hitachi SAN - ein SMS-100.

Sogar auf dieser Ebene haben wir Twin-Controller mit jeweils zwei Ports auf einer SAS-Backplane, so dass entweder Controller die Festplatten und Twin-Nics - die wir Kabel zu Twin-Switches und weiter zu Twin Nics in den ESX-Hosts - nutzen können.

Jedes der vfs-Volumes hat vier sichtbare Pfade, sodass es einigermaßen tolerant ist. Wir verwenden Dell Poweredge Switching für die Fabric - sie haben potentielle Probleme (am allerwenigsten, keine redundanten Netzteile) .. aber sie sind auch billig genug, dass zwei vorkonfigurierte Ersatzteile in einer Box zum Eintauschen bereit sind.

natürlich, wenn Sie mehr Neunen wollen, müssen Sie mehr Geld ausgeben, aber ich denke, dass die Schönheit von iSCSI, ESXi und Rohstoff Gigabit Ethernet-Kit ist, dass Sie über Ihr Gewicht in Bezug auf Belastbarkeit und Leistung treffen können.


0
2018-03-23 21:17





Alles hat seine Vor- und Nachteile ... Fazit ist SLA, Application Load und Scale. Wenn Sie Hochleistungsspeicher für eine kleine Implementierung (1-5 Hosts) benötigen, könnten Sie das wahrscheinlich mit NFS erledigen (ich habe tatsächlich einmal bessere Latenz mit NFS erreicht als mit SAN mit RAM-Disketten). Versuchen Sie nun, das zu skalieren, und Sie werden feststellen, dass die Kosten für die Replizierung Ihres Setups im Maßstab sehr vergleichbar mit einem netten SAN sind, was FC zur einzig logischen Option macht ... Meist benutze ich Kombinationen für verschiedene Dienste (Apps) DBs, Backups, Archive) keine einzige Plattform, um die Kosten je nach Bedarf zu optimieren.


0