Herunterladen Inhalt Inhalt Diese Seite drucken
Dell EMC 41xxx-Serie Benutzerhandbuch
Dell EMC 41xxx-Serie Benutzerhandbuch

Dell EMC 41xxx-Serie Benutzerhandbuch

Konvergente netzwerkadapter
Inhaltsverzeichnis

Werbung

Benutzerhandbuch
Konvergente Netzwerkadapter
41xxx-Serie
Informationen Dritter, die mit freundlicher
AH0054602-01 D
Genehmigung von Dell EMC bereitgestellt wurden.

Werbung

Inhaltsverzeichnis
loading

Inhaltszusammenfassung für Dell EMC 41xxx-Serie

  • Seite 1 Benutzerhandbuch Konvergente Netzwerkadapter 41xxx-Serie Informationen Dritter, die mit freundlicher AH0054602-01 D Genehmigung von Dell EMC bereitgestellt wurden.
  • Seite 2: Dokumenten-Überarbeitungsverlauf

    Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Dokumenten-Überarbeitungsverlauf Überarbeitung A, 28. April 2017 Überarbeitung B, 24. August 2017 Überarbeitung C, 1. Oktober 2017 Überarbeitung D, 31. Januar 2018 Änderungen Betroffener Abschnitt EMI-/EMV-Anforderungen aktualisiert: „Störstrahlungs- und EMV-Anforderungen“ auf Seite xxiii  Konformität mit dem CE-Kennzeichen der Richtlinie über die elektromagnetische Verträglichkeit (EMV) ...
  • Seite 3 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Tabelle 6-1 aktualisiert, um eine Spalte für „Unterstützte Betriebssysteme und OFED“ auf OFED 4.8-1 GA hinzuzufügen. RHEL 7.2, SLES Seite 67 11 SP4 und SLES 12 SP2 entfernt. RHEL 7.4, SLES 12 SP3, CentOS 7.3 und CentOS 7.4 hinzugefügt.
  • Seite 4 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Ersten Satz zugunsten der folgenden „Konfigurieren des iSCSI-Boot-Vorgangs über Formulierung aktualisiert: So installieren Sie RHEL SAN für RHEL 7.4“ auf Seite 137 ab Version 7.4: Schritt 4 aktualisiert, um modprobe.blacklist=qedr in die Befehlszeile aufzunehmen. Befehlszeile in Schritt 12 aktualisiert.
  • Seite 5 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Schritt 16 aktualisiert, um die aktuellsten „Konfigurieren von SR-IOV unter Linux“ auf Adaptertreiber für Ihr Betriebssystem zu erhalten, Seite 189 um nicht die enthaltenen Treiber zu verwenden, und um die Treiberversionen auf dem Host und auf der virtuellen Maschine abzugleichen. Schritt 17 aktualisiert, um die aktuellsten „Konfigurieren von SR-IOV unter VMware“...
  • Seite 6 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Aufzählungspunkt entfernt, der anzeigte, dass die „NPAR-Konfiguration wird nicht unterstützt, wenn Option „NPAR+SR-IOV“ in der SR-IOV bereits konfiguriert wurde“ auf Seite 270 HII-Zuordnungsspezifikation nicht unterstützt wird. Verbindungsschichterkennungsprotokoll (Link „Glossar“ auf Seite 271 Layer Discovery Protocol, LLDP) zum Glossar hinzugefügt AH0054602-01 D...
  • Seite 7: Inhaltsverzeichnis

    Inhalt Vorwort Unterstützte Produkte......... . xviii Zielanwender .
  • Seite 8 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Installieren der Linux-Treiber ohne RDMA ..... Entfernen der Linux-Treiber ......Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets .
  • Seite 9 Konfigurieren des Cisco Nexus 6000 Ethernet-Switches ..Konfigurieren des Dell Z9100 Ethernet-Switches ....Konfigurieren von RoCE auf dem Adapter für Windows Server..
  • Seite 10 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie iSER-Konfiguration Vor dem Start ..........Konfigurieren von iSER für RHEL .
  • Seite 11 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie iSCSI-Offload in Linux-Umgebungen ......Unterschiede zu bnx2i ......... Konfigurieren von qedi.ko.
  • Seite 12 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Optimieren der Leistung .........IRQ-Affinität (multi_rss-affin.sh) .
  • Seite 13 Getestete Switches ......... . . Dell Z9100-Switch- Konfiguration Einschränkungen bei Merkmalen und Funktionen...
  • Seite 14 Dell Aktualisierungspaket-Fenster ........
  • Seite 15 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Festlegen der Firewall-Regel ......... . Windows PowerShell-Befehl: Get-NetAdapterRdma .
  • Seite 16 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie 11-4 Manager für virtuellen Switch: SR-IOV aktivieren ......11-5 Einstellungen für VM: SR-IOV aktivieren ....... . . 11-6 Geräte-Manager: VM mit QLogic-Adapter .
  • Seite 17 Benutzerhandbuch—Konvergente Netzwerkadapter 41xxx-Serie Tabellenliste Tabelle Seite Anforderungen an die Host-Hardware ........Mindestanforderungen an das Host-Betriebssystem .
  • Seite 18: Vorwort

    Zielanwender Dieses Benutzerhandbuch richtet sich an Systemadministratoren und andere technische Mitarbeiter, die für die Konfiguration und Verwaltung von Adaptern ® ® ® ® zuständig sind, die auf Dell PowerEdge -Servern in Windows -, Linux - oder ® VMware -Umgebungen installiert sind.
  • Seite 19: Inhalt Dieses Handbuchs

    Installation der Adaptertreiber  unter Windows, Linux und VMware.  Kapitel 4 Aktualisieren der Firmware beschreibt die Verwendung des Dell Update Package (DUP) zum Aktualisieren der Adapter-Firmware.  Kapitel 5 Adapterkonfiguration vor dem Start beschreibt die Adapterkonfigurationsaufgaben vor dem Start, die mithilfe der Human Infrastructure Interface (HII)-Anwendung durchgeführt werden können.
  • Seite 20: Konventionen Im Dokument

    Adapter der 41xxx-Serie unterstützt werden. Anhang C Dell Z9100-Switch- Konfiguration beschreibt die Konfiguration  des Dell Z9100-Switch-Ports für die Verbindung mit 25 Gb/s.  Anhang D Einschränkungen bei Merkmalen und Funktionen bietet Informationen zu den in der aktuellen Version vorhandenen Funktionsein- schränkungen.
  • Seite 21 Vorwort Konventionen im Dokument  Markieren Sie unter Notification Options (Benachrichtigungsoptionen) das Kontrollkästchen Warning Alarms (Warnalarme).  Text in der Schriftart weist auf einen Dateinamen, einen Courier Verzeichnispfad oder Text in der Befehlszeile hin. Zum Beispiel: Um von einem beliebigen Punkt in der Dateistruktur zum ...
  • Seite 22: Lizenzvereinbarungen

    Vorwort Lizenzvereinbarungen  (eckige Klammern) weisen auf einen optionalen Parameter hin. Zum Beispiel:  bedeutet, dass Sie einen Dateinamen angeben [<file name>] müssen oder ihn weglassen können, um den Standarddateinamen auszuwählen.  (senkrechter Strich) weist auf sich wechselseitig ausschließende Optionen hin; wählen Sie nur eine Option aus. Zum Beispiel: ...
  • Seite 23: Laser-Sicherheit - Fda-Hinweis

    Vorwort Rechtliche Hinweise Laser-Sicherheit – FDA-Hinweis Dieses Produkt entspricht den DHHS-Regelungen 21CFR Chapter I, Subchapter J. Dieses Produkt wurde gemäß IEC60825-1 zur Sicherheitsklasse von Laser- produkten ausgelegt und hergestellt. KLASSE I LASERPRODUKT Class 1 Caution – Class 1 laser radiaton when open Laser Product 1 Do not view directly with optical instruments Appareil laser...
  • Seite 24: Kcc: Klasse A

    Vorwort Rechtliche Hinweise Sicherheitsnormen EN61000-4-2 : Prüfung der Störfestigkeit gegen die Entladung statischer Elektrizität EN61000-4-3 : Prüfung der Störfestigkeit gegen hochfrequente elektromagnetische Felder EN61000-4-4 : Prüfung der Störfestigkeit gegen schnelle transiente elektrische Störgrößen/Burst EN61000-4-5 : Prüfung der Störfestigkeit gegen Stoßspannungen EN61000-4-6 : Störfestigkeit gegen leitungsgeführte Störgrößen, induziert durch hochfrequente Felder EN61000-4-8 : Netzfrequenz Magnetfeld...
  • Seite 25: Vcci: Klasse A

    Vorwort Rechtliche Hinweise VCCI: Klasse A Dies ist ein Produkt der Klasse A nach der vom VCCI festgelegten Norm. Wenn dieses Gerät in einer häuslichen Umgebung verwendet wird, können Funkstörungen auftreten. In diesem Fall ist der Benutzer ggf. aufgefordert, Abhilfemaßnahmen zu ergreifen. Konformität mit der Produktsicherheit UL, cUL-Prüfzeichen zur Produktsicherheit: UL 60950-1 (2.
  • Seite 26: Produktübersicht

    Produktübersicht Dieses Kapitel enthält die folgenden Informationen zum Adapter der 41xxx-Serie:  Funktionsbeschreibung  Merkmale und Funktionen  Technische Daten des Adapters Funktionsbeschreibung Die Adapter der QLogic FastLinQ 41000-Serie sind Converged Network-Adapter und Intelligent Ethernet-Adapter mit 10 und 25 GB, die für beschleunigte Datennetzwerke in Serversystemen entwickelt wurden.
  • Seite 27 1–Produktübersicht Merkmale und Funktionen  TCP Segmentation Offload (TSO)  Large Segment Offload (Large-Send-Verschiebung, LSO)  Generic Segment Offload (GSO)  Large Receive Offload (LRO)  Receive Segment Coalescing (RSC) ®  Dynamische, virtuelle Microsoft Maschinen-Queue (VMQ) und Linux-Multiqueue  Adaptive Interrupts: ...
  • Seite 28: Technische Daten Des Adapters

    1–Produktübersicht Technische Daten des Adapters  Unterstützung für 64-Bit-Basisadressregisters (BAR)  Prozessorunterstützung von EM64T  iSCSI- und FCoE-Boot-Unterstützung Technische Daten des Adapters Die technischen Daten für den Adapter der 41xxx-Serie umfassen die physischen Kenndaten und die Normenkonformitätsreferenzen des Adapters. Physische Kenndaten Die Adapter der 41xxx-Serie sind Standard-PCIe-Karten, die entweder mit einer Halterung in voller Höhe oder einer Kleinprofil-Halterung geliefert werden und in einem Standard-PCIe-Steckplatz verwendet werden können.
  • Seite 29: Installation Der Hardware

    Installation der Hardware In diesem Kapitel finden Sie die folgenden Informationen zur Hardware-Installation:  Systemanforderungen  Sicherheitsvorkehrungen  Checkliste für die Installationsvorbereitung Installieren des Adapters  Systemanforderungen Bevor Sie mit der Installation eines QLogicAdapter der 41xxx-Serie beginnen, stellen Sie sicher, dass Ihr System die unter Tabelle 2-1 Tabelle 2-2 genannten Voraussetzungen für die Hardware und das Betriebssystem erfüllt.
  • Seite 30: Sicherheitsvorkehrungen

    2–Installation der Hardware Sicherheitsvorkehrungen Tabelle 2-2. Mindestanforderungen an das Host-Betriebssystem Betriebssystem Anforderung Windows Server 2012, 2012 R2, 2016 (einschließlich Nano) Linux ® RHEL 6.8, 6.9, 7.2, 7.3, 7.4 ® SLES 11 SP4, SLES 12 SP2, SLES 12 SP3 VMware ESXi ab Version 6.0 u3 für 25G-Adapter ANMERKUNG Tabelle 2-2 führt die Mindest-Host-Betriebssystemanforderungen auf.
  • Seite 31: Checkliste Für Die Installationsvorbereitung

    2–Installation der Hardware Checkliste für die Installationsvorbereitung Checkliste für die Installationsvorbereitung Führen Sie vor der Installation des Adapters die folgenden Schritte aus: Überprüfen Sie, ob Ihr Server die unter „Systemanforderungen“ auf Seite 4 aufgeführten Hardware- und Software-Anforderungen erfüllt. Überprüfen Sie, ob Ihr System das neueste BIOS verwendet. ANMERKUNG Falls Sie die Adaptersoftware über die Seite „Downloads and Documentation“...
  • Seite 32 2–Installation der Hardware Installieren des Adapters Entfernen Sie die Abdeckplatte vom ausgewählten Steckplatz. Richten Sie die Steckerleiste des Adapters am PCIe Express-Steckplatz des Systems aus. Drücken Sie gleichmäßig auf die beiden Ecken der Karte, und schieben Sie die Adapterkarte in den Steckplatz, bis sie fest sitzt. Wenn der Adapter ordnungsgemäß...
  • Seite 33: Treiberinstallation

     Optionale Parameter für Linux-Treiber  Standardwerte für den Betrieb der Linux-Treiber  Linux-Treibermeldungen  Statistikdaten Die Adapter der 41xxx-Serie-Linux-Treiber und die unterstützende Dokumentation sind auf der Dell Support-Seite verfügbar: dell.support.com Tabelle 3-1 beschreibt die Adapter der 41xxx-Serie-Linux-Treiber. AH0054602-01 D...
  • Seite 34: Beschreibung

    3–Treiberinstallation Installieren der Linux-Treibersoftware Tabelle 3-1. QLogic Adapter der 41xxx-Serie Linux-Treiber Linux- Beschreibung Treiber Das qed-Kern-Treibermodul steuert direkt die Firmware, verarbeitet Interrupts und fungiert als API auf unterer Ebene für den protokollspezifischen Treibersatz. Die qed-Schnittstellen mit den qede-, qedr-, qedi- und qedf-Treibern. Das Linux-Kernmodul verwaltet alle PCI-Geräteressourcen (Registrierungen, Hostschnittstellen-Warteschlangen usw.).
  • Seite 35: Installieren Der Linux-Treiber Ohne Rdma

    Linux-Starttreiber können durch Modifizieren der Steuerdatei (Makefile) und der make-Umgebung kompiliert werden. Installieren der Linux-Treiber ohne RDMA So installieren Sie Linux-Treiber ohne RDMA: Laden Sie die Adapter der 41xxx-Serie-Linux-Treiber von Dell herunter: dell.support.com Entfernen Sie die vorhandenen Linux-Treiber, wie unter „Entfernen der Linux-Treiber“...
  • Seite 36 3–Treiberinstallation Installieren der Linux-Treibersoftware Um Linux-Treiber in einer Nicht-RDMA-Umgebung zu entfernen, entladen und entfernen Sie die Treiber: Führen Sie das Verfahren aus, das sich auf das ursprüngliche Installationsverfahren und das Betriebssystem bezieht.  Falls die Linux-Treiber unter Verwendung eines RPM-Pakets installiert wurden, führen Sie die folgenden Befehle aus: rmmod qede rmmod qed...
  • Seite 37 3–Treiberinstallation Installieren der Linux-Treibersoftware ANMERKUNG Wenn quedr vorhanden ist, verwenden Sie stattdessen den Befehl modprobe -r qedr Löschen Sie die Dateien aus dem jeweiligen qed.ko qede.ko qedr.ko Verzeichnis. Geben Sie beispielsweise in SLES die folgenden Befehle ein: cd /lib/modules/<version>/updates/qlgc-fastlinq rm -rf qed.ko rm -rf qede.ko rm -rf qedr.ko depmod -a...
  • Seite 38: Src-Rpm-Pakets

    3–Treiberinstallation Installieren der Linux-Treibersoftware Installieren der Linux-Treiber unter Verwendung des src-RPM-Pakets So installieren Sie die Linux-Treiber unter Verwendung des src-RPM-Pakets: Führen Sie den folgenden Befehl an einer Eingabeaufforderung aus: rpm -ivh RPMS/<arch>/qlgc-fastlinq-<version>.src.rpm Wechseln Sie zum Verzeichnis des RPM-Pfads, und erstellen Sie das Binär-RPM für den Kernel: Für RHEL: cd /root/rpmbuild...
  • Seite 39: Installieren Der Linux-Treiber Unter Verwendung Der Tar-Datei

    Treiber): rmmod qede rmmod qed modprobe qed modprobe qede Installieren der Linux-Treiber mit RDMA Gehen Sie wie folgt vor, um die Linux-Treiber in einer Inbox-OFED-Umgebung zu installieren: Laden Sie die Adapter der 41xxx-Serie-Linux-Treiber von Dell herunter: dell.support.com AH0054602-01 D...
  • Seite 40: Optionale Parameter Für Linux-Treiber

    3–Treiberinstallation Installieren der Linux-Treibersoftware Konfigurieren Sie RoCE auf dem Adapter, wie unter „Konfigurieren von RoCE auf dem Adapter für Linux“ auf Seite 74 beschrieben. Entfernen Sie vorhandene Linux-Treiber, wie unter „Entfernen der Linux-Treiber“ auf Seite 10 beschrieben. Installieren Sie die neuen Linux-Treiber, indem Sie eine der folgenden Methoden anwenden: ...
  • Seite 41: Standardwerte Für Den Betrieb Der Linux-Treiber

    3–Treiberinstallation Installieren der Linux-Treibersoftware Tabelle 3-2. Optionale qede-Treiberparameter (fortgesetzt) Parameter Beschreibung Eine Bitmap zum Deaktivieren oder Erzwingen von Maßnahmen im Falle err_flags_override eines HW-Fehlers:  Bit Nr. 31 – Aktivierungsbit für diese Bitmaske  Bit Nr. 0 – Verhinderung der Berücksichtigung von HW-Warnungen ...
  • Seite 42: Linux-Treibermeldungen

     DUP-Installationsbeispiele Ausführen des DUP über die GUI So führen Sie das DUP auf der Benutzeroberfläche aus: Doppelklicken Sie auf das Symbol für die Datei für das Dell Aktualisierungspaket. ANMERKUNG Der tatsächliche Dateiname für das Dell Aktualisierungspaket kann auch anders lauten.
  • Seite 43: Dell Aktualisierungspaket-Fenster

    3–Treiberinstallation Installieren der Windows-Treibersoftware Klicken Sie im Fenster des Dell Aktualisierungspakets (Abbildung 3-1) auf Install (Installieren). Abbildung 3-1. Dell Aktualisierungspaket-Fenster ® Klicken Sie im Begrüßungsfenster des QLogic Super Installer — InstallShield Wizard (Abbildung 3-2) auf Next (Weiter). Abbildung 3-2. QLogic InstallShield Wizard: Begrüßungsfenster...
  • Seite 44: Qlogic Installshield Wizard: Lizenzvereinbarungsfenster

    3–Treiberinstallation Installieren der Windows-Treibersoftware Füllen Sie im Lizenzvereinbarungs-Fenster des Assistenten Folgendes aus (Abbildung 3-3): Lesen Sie die QLogic End User Software License Agreement (Endbenutzer-Softwarelizenzvereinbarung). Um fortzufahren, wählen Sie I accept the terms in the license agreement (Ich akzeptiere die Bedingungen der Lizenzvereinbarung). Klicken Sie auf Next (Weiter).
  • Seite 45: Installshield Wizard: Fenster „Setup Type" (Setup-Typ)

    3–Treiberinstallation Installieren der Windows-Treibersoftware Schließen Sie das Fenster „Setup Type“ (Setup-Typ) (Abbildung 3-4) wie folgt ab: Wählen Sie einen der folgenden Setup-Typen aus: Klicken Sie auf Complete (Vollständig), um alle  Programmfunktionen zu installieren.  Klicken Sie auf Custom (Benutzerdefiniert), um die zu installierenden Programmfunktionen manuell auszuwählen.
  • Seite 46: Installshield Wizard: Fenster „Custom Setup" (Benutzerdefinierter Setup)

    3–Treiberinstallation Installieren der Windows-Treibersoftware  This feature, and all subfeatures, will be installed on the local hard drive (Diese Funktion und ihre untergeordneten Funktionen werden auf dem lokalen Festplattenlaufwerk installiert) – Markiert die Funktion mit all ihren untergeordneten Funktionen zur Installation. ...
  • Seite 47: Installshield Wizard: Fenster „Ready To Install The Program

    3–Treiberinstallation Installieren der Windows-Treibersoftware Abbildung 3-6. InstallShield Wizard: Fenster „Ready to Install the Program“ (Bereit zum Installieren des Programms) Wenn die Installation abgeschlossen ist, zeigt der InstallShield-Assistent das Dialogfeld „Completed“ (Abgeschlossen) an (Abbildung 3-7). Klicken Sie auf Finish (Fertigstellen), um das Installationsprogramm zu beenden. Abbildung 3-7.
  • Seite 48: Dup-Installationsoptionen

    3–Treiberinstallation Installieren der Windows-Treibersoftware Im Fenster des Dell Aktualisierungspakets (Abbildung 3-8) weist die Meldung „Update installer operation was successful“ (Aktualisierung des Installationsprogramms war erfolgreich) auf den Abschluss des Vorgangs hin.  (Optional) Klicken Sie zum Öffnen der Protokolldatei auf Installationsprotokoll anzeigen. Die Protokolldatei zeigt den Fortschritt der DUP-Installation, jede vorhergehend installierte Version, jede Fehlermeldung und andere Informationen über die Installation an.
  • Seite 49: Dup-Installationsbeispiele

    3–Treiberinstallation Installieren der Windows-Treibersoftware  (Erweitert) Mit der Option wird sämtlicher Text nach der /passthrough Option direkt an die QLogic-Installationssoftware des DUP /passthrough gesendet. In diesem Modus werden alle angegebenen GUIs unterdrückt, jedoch nicht zwangsweise die der QLogic-Software. /passthrough  (Erweitert) So können Sie eine kodierte Beschreibung der von diesem DUP unterstützten Funktionen ausgeben: /capabilities...
  • Seite 50: Verwalten Von Adaptereigenschaften

    3–Treiberinstallation Installieren der Windows-Treibersoftware Verwalten von Adaptereigenschaften Gehen Sie wie folgt vor, um die Adapter der 41xxx-Serie-Eigenschaften anzuzeigen oder zu ändern: Wechseln Sie in die Systemsteuerung und klicken Sie auf Device Manager (Geräte-Manager). Klicken Sie in den Eigenschaften des ausgewählten Adapters auf die Registerkarte Erweitert.
  • Seite 51: Einstellen Der Optionen Zum Strommanagement

    3–Treiberinstallation Installieren der Windows-Treibersoftware Einstellen der Optionen zum Strommanagement Sie können die Optionen zum Strommanagement so einstellen, dass das Betriebssystem den Controller abschalten kann, um Energie zu sparen, bzw. dass der Controller den Computer reaktivieren kann. Wenn das Gerät gerade beschäftigt ist (z.
  • Seite 52: Installieren Der Vmware-Treibersoftware

    3–Treiberinstallation Installieren der VMware-Treibersoftware Installieren der VMware-Treibersoftware In diesem Abschnitt wird der qedentv-VMware ESXi-Treiber für den Adapter der 41xxx-Serie beschrieben:  VMware-Treiber und Treiberpakete  Installieren der VMware-Treiber  Optionale Parameter des VMware-Treibers  Standardeinstellungen für VMware-Treiberparameter  Entfernen des VMware-Treibers ...
  • Seite 53: Installieren Der Vmware-Treiber

    3–Treiberinstallation Installieren der VMware-Treibersoftware Tabelle 3-5. ESXi-Treiberpakete nach Version (fortgesetzt) ESXi-Version Protokoll Treibername Treiberversion ESXi 6.0u3 qedentv 2.0.7.5 FCoE qedf 1.2.24.0 iSCSI qedil 1.0.19.0 Bei ESXi 6.5 wurden die NIC- und RoCE-Treiber zu einem Paket zusammengefasst und können mithilfe standardmäßiger ESXi-Installationsbefehle als ein Offline-Paket installiert werden.
  • Seite 54 3–Treiberinstallation Installieren der VMware-Treibersoftware Verwenden Sie das Linux-SCP-Dienstprogramm zum Kopieren einer -Datei von einem lokalen System in das Verzeichnis auf einem .vib /tmp ESX-Server mit der IP-Adresse 10.10.10.10. Führen Sie beispielsweise den folgenden Befehl aus: #scp qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib root@10.10.10.10:/tmp Sie können die Datei an jedem Speicherort ablegen, auf den die ESX-Konsolen-Shell Zugriff hat.
  • Seite 55: Optionale Parameter Des Vmware-Treibers

    3–Treiberinstallation Installieren der VMware-Treibersoftware Gehen Sie wie folgt vor, um einen vorhandenen Treiber zu aktualisieren: Führen Sie die folgenden Schritte für eine neue Installation aus, ersetzen Sie dabei allerdings den Befehl in der vorherigen Option 1 durch den folgenden Befehl: #esxcli software vib update -v /tmp/qedentv-1.0.3.11-1OEM.550.0.0.1331820.x86_64.vib Optionale Parameter des VMware-Treibers...
  • Seite 56 3–Treiberinstallation Installieren der VMware-Treibersoftware Tabelle 3-6. Optionale Parameter des VMware-Treibers (fortgesetzt) Parameter Beschreibung Der RSS-Parameter legt die Anzahl der empfangsseitigen Skalierungswarteschlangen fest, die vom Host oder dem virtuellen, erweiterbaren LAN (VxLAN)-Tunnel-Datenverkehr für eine PF verwendet werden. RSS kann den Wert 2, 3, 4 oder einen der folgenden Werte annehmen: ...
  • Seite 57: Standardeinstellungen Für Vmware-Treiberparameter

    3–Treiberinstallation Installieren der VMware-Treibersoftware Standardeinstellungen für VMware-Treiberparameter Tabelle 3-7 führt die Standardwerte der Parameter für VMware-Treiber auf. Tabelle 3-7. Standardeinstellungen für VMware-Treiberparameter Parameter Standardeinstellung Die automatische Aushandlung wird für alle Geschwindigkeit Übertragungsraten angekündigt. Die Geschwindigkeitsparameter müssen auf allen Ports identisch sein. Wenn „auto-negotiation“ (Automatische Aushandlung) auf dem Gerät aktiviert ist, verwenden alle Geräteports die automatische Aushandlung.
  • Seite 58: Unterstützung Von Fcoe

    3–Treiberinstallation Installieren der VMware-Treibersoftware Um den Treiber zu entfernen, führen Sie den folgenden Befehl aus: # vmkload_mod -u qedentv Unterstützung von FCoE Tabelle 3-8 beschreibt den Treiber, der im VMware-Software-Paket für die Unterstützung der QLogic FCoE Converged Netzwerkschnittstellen-Controller (C-NICs) enthalten ist. Die FCoE und DCB-Funktionen werden unter VMware ESXi 5.0 und höheren Versionen unterstützt.
  • Seite 59: Aktualisieren Der Firmware

    Aktualisieren der Firmware Dieses Kapitel bietet Informationen zum Aktualisieren der Firmware über das Dell Aktualisierungspaket (DUP). Das Firmware-DUP (Dell Update Package) ist ein reines Dienstprogramm zur Aktualisierung des Flash-Speichers (es wird nicht für die Adapterkonfiguration verwendet). Doppelklicken Sie zum Ausführen des Firmware-DUP auf die ausführbare Datei.
  • Seite 60: Dell Aktualisierungspaket: Startbildschirm

    Warnung angezeigt wird, klicken Sie auf Yes (Ja), um mit der Installation fortzufahren. Das Installationsprogramm weist darauf hin, dass die neue Firmware geladen wird, wie in Abbildung 4-2 dargestellt. Abbildung 4-2. Dell Aktualisierungspaket: Laden der neuen Firmware AH0054602-01 D...
  • Seite 61: Dell Aktualisierungspaket: Installationsergebnisse

    Abbildung 4-3 dargestellt. Abbildung 4-3. Dell Aktualisierungspaket: Installationsergebnisse Klicken Sie auf Yes (Ja), um das System neu zu starten. Klicken Sie auf Finish (Fertigstellen), um die Installation abzuschließen, wie in Abbildung 4-4 dargestellt. Abbildung 4-4. Dell Aktualisierungspaket: Installation fertigstellen AH0054602-01 D...
  • Seite 62: Ausführen Des Dup Über Eine Befehlszeile

    Gehen Sie wie folgt vor, um das Firmware-DUP über eine Befehlszeile auszuführen:  Geben Sie den folgenden Befehl aus: C:\> Network_Firmware_2T12N_WN32_<Version>_X16.EXE Abbildung 4-5 zeigt die Optionen, die Sie zum Anpassen der Installation über das Dell Aktualisierungspaket verwenden können. Abbildung 4-5. DUP-Befehlszeilenoptionen AH0054602-01 D...
  • Seite 63: Ausführen Des Dup Über Die Bin-Datei

    Installed version: 08.07.26 Continue? Y/N:Y Y entered; update was forced by user Executing update... WARNING: DO NOT STOP THIS PROCESS OR INSTALL OTHER DELL PRODUCTS WHILE UPDATE IS IN PROGRESS. THESE ACTIONS MAY CAUSE YOUR SYSTEM TO BECOME UNSTABLE! ................
  • Seite 64 4–Aktualisieren der Firmware Ausführen des DUP über die BIN-Datei Device: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Application: BCM57810 10 Gigabit Ethernet rev 10 (p2p2) Update success. Would you like to reboot your system now? Continue? Y/N:Y AH0054602-01 D...
  • Seite 65: Adapterkonfiguration Vor Dem Start

    Adapterkonfiguration vor dem Start Während des Host-Startvorgangs haben Sie die Möglichkeit, Adapterverwaltungs- aufgaben unter Verwendung der HII-Anwendung (Human Infrastructure Interface) anzuhalten und durchzuführen. Dazu gehören folgende Aufgaben: Anzeigen der Eigenschaften des Firmware-Abbilds   Konfigurieren der Parameter auf Geräteebene  Konfigurieren von NIC-Parametern ...
  • Seite 66: Erste Schritte

    5–Adapterkonfiguration vor dem Start Erste Schritte Erste Schritte Gehen Sie wie folgt vor, um die HII-Anwendung zu starten: Öffnen Sie das System-Setup-Fenster für Ihre Plattform. Informationen zum Starten des System-Setup-Programms finden Sie im Benutzerhandbuch zu Ihrem System. Wählen Sie im Fenster „System Setup“ (Systemeinrichtung) (Abbildung 5-1) Device Settings (Geräteeinstellungen) und drücken Sie dann auf ENTER...
  • Seite 67: Systemeinrichtung: Geräteeinstellungen

    5–Adapterkonfiguration vor dem Start Erste Schritte Wählen Sie im Fenster „Device Settings“ (Geräteeinstellungen) (Abbildung 5-2) den Adapter der 41xxx-Serie-Port aus, den Sie konfigurieren möchten. Drücken Sie anschließend auf ENTER (Eingabe). Abbildung 5-2. Systemeinrichtung: Geräteeinstellungen Auf der Seite „Main Configuration“ (Hauptkonfiguration) (Abbildung 5-3) werden die Adapterverwaltungsoptionen dargestellt, mit denen Sie den...
  • Seite 68 5–Adapterkonfiguration vor dem Start Erste Schritte  Legen Sie unter Device Level Configuration (Konfiguration auf Geräteebene) die Option für Partitioning Mode (Partitionierungsmodus) auf NPAR, um die Option NIC Partitioning Configuration (Konfiguration der NIC-Partitionierung) zur Seite „Main Configuration“ (Hauptkonfiguration) hinzuzufügen, wie unter Abbildung 5-4 dargestellt.
  • Seite 69: Adaptereigenschaften

    5–Adapterkonfiguration vor dem Start Erste Schritte  Data Center Bridging (DCB) Settings (DCB-Einstellungen) (siehe „Konfigurieren des Data Center Bridging“ auf Seite  NIC Partitioning Configuration (Konfiguration der NIC-Partitionierung) (falls NPAR auf der Seite „Device Level Configuration“ (Konfiguration auf Geräteebene) ausgewählt wird) (siehe „Konfigurieren von Partitionen“...
  • Seite 70: Anzeigen Der Eigenschaften Des Firmware-Abbilds

    5–Adapterkonfiguration vor dem Start Anzeigen der Eigenschaften des Firmware-Abbilds Tabelle 5-1. Adaptereigenschaften (fortgesetzt) Adaptereigenschaft Beschreibung Vom Hersteller zugewiesener dauerhafter FCoE WWPN Geräte-FCoE-Offload-WWPN (World-Wide-Port-Name) FCoE Virtual WWPN Benutzerdefinierter Geräte-FCoE-Offload-WWPN (Virtueller FCoE-WWPN) Vom Hersteller zugewiesener dauerhafter FCoE WWNN Geräte-FCoE-Offload-WWNN (World-Wide-Knotenname) FCoE Virtual WWNN Benutzerdefinierter Geräte-FCoE-Offload-WWNN (Virtueller FCoE-WWNN) Diese Eigenschaft wird nur angezeigt, wenn iSCSI Offload (iSCSI-Offload) auf der Seite „NIC...
  • Seite 71: Konfigurieren Der Parameter Auf Geräteebene

    5–Adapterkonfiguration vor dem Start Konfigurieren der Parameter auf Geräteebene Abbildung 5-5. Firmware-Abbild-Eigenschaften Konfigurieren der Parameter auf Geräteebene ANMERKUNG Die physischen iSCSI-Funktionen (PFs) werden als Aufzählung dargestellt, wenn die iSCSI-Offload-Funktion nur im NPAR-Modus aktiviert ist. Die FCoE-PFs werden als Aufzählung dargestellt, wenn die FCoE-Offload-Funktion nur im NPAR-Modus aktiviert ist.
  • Seite 72: Konfigurieren Von Nic-Parametern

    5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern ANMERKUNG Die Adapter QL41264HMCU-DE (Teilenummer 5V6Y4) und QL41264HMRJ-DE (Teilenummer 0D1WT) zeigen Support für NPAR, SR-IOV und NPAR-EP in der Konfiguration auf Geräteebene, obwohl diese Funktionen auf den 1-Gbps-Ports 3 und 4 nicht unterstützt werden. Wählen Sie für Virtualization Mode (Virtualisierungsmodus) einen der folgenden Modi aus, der auf alle Adapter-Ports angewendet werden kann: ...
  • Seite 73: Nic-Konfiguration

    5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern So konfigurieren Sie NIC-Parameter: Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die Option NIC Configuration (NIC-Konfiguration) (Abbildung 5-3 auf Seite und drücken dann auf Finish (Fertigstellen). Abbildung 5-7 zeigt die Seite „NIC Configuration“ (NIC-Konfiguration). Abbildung 5-7.
  • Seite 74 5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern  SmartAN (Standardwert) aktiviert den FastLinQ SmartAN-Verbindungsgeschwindigkeitsmodus auf dem Port. Für diese Geschwindigkeitsoption ist keine FEC-Modusauswahl verfügbar. Die Einstellung SmartAN durchläuft alle möglichen Verbindungsgeschwindigkeiten und FEC-Modi, bis eine Verbindung aufgebaut wurde. Dieser Modus ist ausschließlich für 25G-Schnittstellen bestimmt.
  • Seite 75 5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern  FCoE aktiviert den FCoE-Boot über SAN über den Hardware-Offload-Pfad. Der Modus FCoE ist nur verfügbar, wenn die Option FCoE Offload (FCoE-Offload) auf der zweiten Partition im NPAR-Modus aktiviert ist (siehe „Konfigurieren von Partitionen“ auf Seite 59).
  • Seite 76 5–Adapterkonfiguration vor dem Start Konfigurieren von NIC-Parametern So konfigurieren Sie den Port zur Verwendung von RDMA: ANMERKUNG Führen Sie die folgenden Schritte aus, um RDMA auf allen Partitionen eines Ports im NPAR-Modus zu aktivieren. Setzen Sie NIC + RDMA Mode (NIC- + RDMA-Modus) auf Enabled (Aktiviert).
  • Seite 77: Konfigurieren Des Data Center Bridging

    5–Adapterkonfiguration vor dem Start Konfigurieren des Data Center Bridging Konfigurieren des Data Center Bridging Die Einstellungen für Data Center Bridging (DCB) umfassen das DCBX-Protokoll und die RoCE-Priorität. So konfigurieren Sie die DCB-Einstellungen: Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration, Abbildung 5-3 auf Seite 42) Data Center Bridging (DCB) Settings (DCB-Einstellungen) aus und klicken Sie anschließend auf Finish...
  • Seite 78: Konfigurieren Des Fcoe-Startvorgangs

    5–Adapterkonfiguration vor dem Start Konfigurieren des FCoE-Startvorgangs Abbildung 5-8. Systemeinrichtung: DCB-Einstellungen Klicken Sie auf Back (Zurück). Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde. ANMERKUNG Wenn DCBX aktiviert ist, sendet der Adapter regelmäßig Verbindungsschichterkennungsprotokoll-Pakete, also so genannte LLDP-Pakete, mit einer speziellen Unicastadresse.
  • Seite 79: Allgemeine Fcoe-Parameter

    5–Adapterkonfiguration vor dem Start Konfigurieren des FCoE-Startvorgangs Drücken Sie ENTER (Eingabe). Wählen Sie Werte für die allgemeinen FCoE- oder die FCoE-Ziel-Konfigurationsparameter aus. Abbildung 5-9. Allgemeine FCoE-Parameter Abbildung 5-10. FCoE-Zielkonfiguration Klicken Sie auf Back (Zurück). Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern.
  • Seite 80: Konfigurieren Des Iscsi-Startvorgangs

    5–Adapterkonfiguration vor dem Start Konfigurieren des iSCSI-Startvorgangs Konfigurieren des iSCSI-Startvorgangs ANMERKUNG Das Menü „iSCSI Boot Configuration“ (iSCSI-Boot-Konfiguration) wird nur angezeigt, wenn der Modus iSCSI Offload (iSCSI-Offload) auf der dritten Partition im NPAR-Modus aktiviert ist (siehe Abbildung 5-19 auf Seite 64). Im Nicht-NPAR-Modus wird dieses Menü...
  • Seite 81 5–Adapterkonfiguration vor dem Start Konfigurieren des iSCSI-Startvorgangs  CHAP Secret (CHAP-Geheimschlüssel)  iSCSI First Target Parameters (Erste iSCSI-Zielparameter) (Abbildung 5-13 auf Seite Connect (Verbinden).  IPv4-Adresse   TCP-Port  Boot-LUN  iSCSI-Name:  CHAP ID (CHAP-ID)  CHAP Secret (CHAP-Geheimschlüssel) ...
  • Seite 82: Allgemeine Iscsi-Parameter

    5–Adapterkonfiguration vor dem Start Konfigurieren des iSCSI-Startvorgangs Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde. Abbildung 5-11. Allgemeine iSCSI-Parameter AH0054602-01 D...
  • Seite 83: Iscsi-Initiator-Konfigurationsparameter

    5–Adapterkonfiguration vor dem Start Konfigurieren des iSCSI-Startvorgangs Abbildung 5-12. iSCSI-Initiator-Konfigurationsparameter Abbildung 5-13. Erste iSCSI-Zielparameter AH0054602-01 D...
  • Seite 84: Konfigurieren Von Partitionen

    5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Abbildung 5-14. Zweite iSCSI-Zielparameter Konfigurieren von Partitionen Sie können Bandbreitenbereiche für jede Partition auf dem Adapter konfigurieren. Spezifische Informationen zur Partitionskonfiguration auf VMware ESXi 6.0/6.5 finden Sie unter Partitionieren für VMware ESXi 6.0 und ESXi 6.5.
  • Seite 85: Konfiguration Der Nic-Partitionierung, Globale Bandbreitenzuordnung

    5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Abbildung 5-15. Konfiguration der NIC-Partitionierung, Globale Bandbreitenzuordnung Klicken Sie auf der Seite „Global Bandwidth Allocation“ (Globale Bandbreitenzuordnung) (Abbildung 5-16) für jede Partition, deren Bandbreite Sie zuordnen möchten, in das Feld für die minimale und maximale Übertragungsbandbreite.
  • Seite 86: Seite Für Globale Bandbreitenzuordnung

    5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Abbildung 5-16. Seite für globale Bandbreitenzuordnung  Partition n Minimum TX Bandwidth (Mindestbandbreite der Partition n für die Übertragung (TX)) ist die Mindestbandbreite der ausgewählten Partition für die Übertragung, angegeben als Prozentsatz der maximalen Verbindungsgeschwindigkeit des physischen Ports.
  • Seite 87: Konfiguration Der Partition 1

    5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Geben Sie einen Wert in jedes ausgewählte Feld ein, und klicken Sie anschließend auf Back (Zurück). Klicken Sie an der Eingabeaufforderung auf Yes (Ja), um die Änderungen zu speichern. Die Änderungen werden übernommen, nachdem das System zurückgesetzt wurde.
  • Seite 88 5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Um die erste Partition zu konfigurieren, wählen Sie Partition 2 Configuration (Konfiguration der Partition 2) aus, um die Seite „Partition 2 Configuration“ (Konfiguration der Partition 2) zu öffnen. Wenn „FCoE Offload“ (FCoE-Offload) vorhanden ist, zeigt die Option „Partition 2 Configuration“ (Konfiguration der Partition 2, Abbildung 5-18) die folgenden Parameter an:...
  • Seite 89: Konfiguration Der Partition 2: Fcoe-Offload

    5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Abbildung 5-18. Konfiguration der Partition 2: FCoE-Offload Um die dritte Partition zu konfigurieren, wählen Sie Partition 3 Configuration (Konfiguration der Partition 3) aus, um die Seite „Partition 3 Configuration“ (Konfiguration der Partition 3, Abbildung 5-17) zu öffnen.
  • Seite 90: Partitionieren Für Vmware Esxi 6.0 Und Esxi 6.5

    5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Um die verbleibenden Ethernet-Partitionen zu konfigurieren, einschließlich der vorherigen (falls nicht für Offload aktiviert), öffnen Sie die Seite für eine Ethernet-Partition ab Partition 2.  NIC Mode (NIC-Modus) (Enabled (Aktiviert) oder Disabled (Deaktiviert)). Ist diese Option deaktiviert, wird die Partition in einer Art ausgeblendet, dass sie im BS nicht angezeigt wird, wenn weniger Partitionen als die maximale Anzahl an Partitionen (oder PCI-PFs) erkannt werden.
  • Seite 91 5–Adapterkonfiguration vor dem Start Konfigurieren von Partitionen Die Treiber-Neuinstallation ist erforderlich, da die Speicherfunktionen ggf. die -Nummerierung statt der -Nummerierung beibehalten. Dies wird vmnicX vmhbaX deutlich, wenn Sie den folgenden Befehl auf dem System ausführen: # esxcfg-scsidevs -a vmnic4 qedf link-up fc.2000000e1ed6fa2a:2001000e1ed6fa2a (0000:19:00.2) QLogic Corp.
  • Seite 92: Roce-Konfiguration

    RoCE-Konfiguration In diesem Kapitel wird die RoCE-Konfiguration (V1 und V2) auf dem Adapter der 41xxx-Serie, dem Ethernet-Switch und dem Windows- oder Linux-Host beschrieben, darunter:  Unterstützte Betriebssysteme und OFED  Planen für RoCE Vorbereiten des Adapters   Vorbereiten des Ethernet-Switches ...
  • Seite 93: Planen Für Roce

    6–RoCE-Konfiguration Planen für RoCE Tabelle 6-1. BS-Unterstützung für RoCE v1, RoCE v2, iWARP und OFED (fortgesetzt) Betriebssystem Eingang OFED 3.18-3 GA OFED 4.8-1 GA RHEL 7.3 RoCE v1, RoCE v2, iWARP, Nein RoCE v1, RoCE iSER v2, iWARP RHEL 7.4 RoCE v1, RoCE v2, iWARP, Nein Nein...
  • Seite 94: Vorbereiten Des Adapters

    6–RoCE-Konfiguration Vorbereiten des Adapters  Wenn Sie Benutzerbereichsanwendungen in Inbox-OFED ausführen ® möchten, müssen Sie die InfiniBand Support-Gruppe von yum groupinstall „InfiniBand Support“ installieren, das u.a. libibcm und libibverbs enthält. OFED- und RDMA-Anwendungen, die von libibverbs abhängig sind,  benötigen außerdem die QLogic RDMA-Benutzerbereichsbibliothek mit der Bezeichnung „libqedr“.
  • Seite 95: Vorbereiten Des Ethernet-Switches

    Z9100 Ethernet-Switch für RoCE konfigurieren.  Konfigurieren des Cisco Nexus 6000 Ethernet-Switches  Konfigurieren des Dell Z9100 Ethernet-Switches Konfigurieren des Cisco Nexus 6000 Ethernet-Switches Die Schritte zum Konfigurieren des Cisco Nexus 6000 Ethernet-Switches für RoCE umfassen das Konfigurieren von Klassenzuordnungen, das Anwenden der Richtlinie und das Zuweisen einer VLAN-ID zum Switch-Port.
  • Seite 96: Konfigurieren Des Dell Z9100 Ethernet-Switches

    1,5 Konfigurieren des Dell Z9100 Ethernet-Switches Um den Dell Z9100 Ethernet-Switch für RoCE zu konfigurieren, folgen Sie dem unter Anhang C Dell Z9100-Switch- Konfiguration beschriebenen Verfahren. Konfigurieren von RoCE auf dem Adapter für Windows Server Das Konfigurieren von RoCE auf dem Adapter für Windows Server umfasst das...
  • Seite 97: Erweiterte Eigenschaften Für Roce

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Tabelle 6-2. Erweiterte Eigenschaften für RoCE Eigenschaft Wert oder Beschreibung Network Direct-Funktionalität Enabled (Aktiviert) MTU-Größe für Network Die Network Direct-MTU-Größe muss unter der Größe Direct des Jumbo-Pakets liegen. RDMA-Modus RoCE v1 oder RoCE v2. Der Wert iWARP kann nur verwendet werden, wenn Sie Ports für iWARP gemäß...
  • Seite 98: Konfigurieren Der Roce-Eigenschaften

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Windows Server Abbildung 6-1. Konfigurieren der RoCE-Eigenschaften Überprüfen Sie unter Verwendung von Windows PowerShell, dass RDMA auf dem Adapter aktiviert ist. Der Befehl führt die Get-NetAdapterRdma Adapter auf, die RDMA unterstützen. Beide Ports sind aktiviert. ANMERKUNG Wenn Sie RoCE over Hyper-V konfigurieren, weisen Sie der physischen Schnittstelle keine VLAN-ID zu.
  • Seite 99: Konfigurieren Von Roce Auf Dem Adapter Für Linux

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux TaskOffload : Enabled NetworkDirect : Enabled NetworkDirectAcrossIPSubnets : Blocked PacketCoalescingFilter : Disabled Schließen Sie ein SMB-Laufwerk an (Server Message Block), führen Sie RoCE-Datenverkehr aus, und überprüfen Sie die Ergebnisse. Um ein SMB-Laufwerk einzurichten und zu verbinden, zeigen Sie die Informationen an, die online bei Microsoft verfügbar sind: https://technet.microsoft.com/en-us/library/hh831795(v=ws.11).aspx Standardmäßig werden in Microsoft SMB Direct zwei RDMA-Verbindungen...
  • Seite 100: Roce-Konfiguration Für Rhel

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux RoCE-Konfiguration für RHEL Zur Konfiguration von RoCE auf dem Adapter muss die Open Fabrics Enterprise Distribution (OFED) auf dem RHEL-Host installiert und konfiguriert sein. Gehen Sie wie folgt vor, um Inbox-OFED für RHEL vorzubereiten: Wählen Sie beim Installieren oder Aktualisieren des Betriebssystems die InfiniBand- und OFED-Support-Pakete aus.
  • Seite 101: Überprüfen Der Roce-Konfiguration Auf Linux

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux perftest-x.x.x.x86_64.rpm (erforderlich für Bandbreiten- und Latenzanwendungen) Installieren Sie die Linux-Treiber, wie unter „Installieren der Linux-Treiber mit RDMA“ auf Seite 14 beschrieben. Überprüfen der RoCE-Konfiguration auf Linux Überprüfen Sie nach dem Installieren von OFED, dem Installieren der Linux-Treiber und dem Laden der RoCE-Treiber, ob die RoCE-Geräte auf allen Linux-Betriebssystemen erkannt wurden.
  • Seite 102 6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux 2075255 2 qede,qedr ib_core 88311 qedr, rdma_cm, ib_cm, ib_sa,iw_cm,xprtrdma,ib_mad,ib_srp, ib_ucm,ib_iser,ib_srpt,ib_umad, ib_uverbs,rdma_ucm,ib_ipoib,ib_isert Konfigurieren Sie die IP-Adresse und aktivieren Sie den Port unter Verwendung eines Konfigurationsverfahrens, wie z. B. „ifconfig“: # ifconfig ethX 192.168.10.10/24 up Geben Sie den Befehl ein.
  • Seite 103: Vlan-Schnittstellen Und Gid-Indexwerte

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Im Folgenden sind Beispiele für erfolgreiche Ping-Pong-Tests auf dem Server und auf dem Client aufgeführt: Server-Ping: root@captain:~# ibv_rc_pingpong -d qedr0 -g 0 local address: LID 0x0000, QPN 0xff0000, PSN 0xb3e07e, GID fe80::20e:1eff:fe50:c7c0 remote address: LID 0x0000, QPN 0xff0000, PSN 0x934d28, GID fe80::20e:1eff:fe50:c570...
  • Seite 104: Konfiguration Von Roce V2 Für Linux

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux ANMERKUNG Der GID-Standardwert für die Einstellungen „Back-to-Back“ oder „Pause“ ist null (0). Bei Server/Switch-Konfigurationen müssen Sie den richtigen GID-Wert ausfindig machen. Falls Sie einen Switch verwenden, lesen Sie die entsprechende Dokumentation zur Switch-Konfiguration, um die richtigen Einstellungen zu ermitteln.
  • Seite 105: Überprüfen Des Gid-Indexes Für Roce V1 Oder Roce V2 Sowie Der Adresse Mithilfe Der System- Und Kategorieparameter

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux GID[ fe80:0000:0000:0000:020e:1eff:fec4:1b20 GID[ 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 0000:0000:0000:0000:0000:ffff:1e01:010a GID[ 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 3ffe:ffff:0000:0f21:0000:0000:0000:0004 GID[ 0000:0000:0000:0000:0000:ffff:c0a8:6403 GID[ 0000:0000:0000:0000:0000:ffff:c0a8:6403 Überprüfen des GID-Indexes für RoCE v1 oder RoCE v2 sowie der Adresse mithilfe der System- und Kategorieparameter Verwenden Sie eine der folgenden Optionen, um den GID-Index für RoCE v1 oder RoCE v2 sowie die Adresse mithilfe der unten angeführten System- und Kategorieparameter zu überprüfen:...
  • Seite 106: Überprüfen Der Roce V1- Oder Roce V2-Funktion Mithilfe Der Perftest-Anwendungen

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux ANMERKUNG Sie müssen die GID-Indexwerte für RoCE v1 oder RoCE v2 auf Basis der Server- oder Switch-Konfiguration spezifizieren (Pause/PFC). Verwenden Sie den GID-Index für die Link-local-IPv6-Adresse, die IPv4-Adresse oder die IPv6-Adresse. Zur Verwendung von VLAN-markierten Frames für den RoCE-Datenverkehr müssen Sie die GID-Indexwerte spezifizieren, die sich von der VLAN-IPv4-Adresse oder der VLAN-IPv6-Adresse ableiten.
  • Seite 107 6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Gehen Sie wie folgt vor, um RoCE v2 über verschiedene Teilnetze zu überprüfen: Stellen Sie mithilfe der DCBX-PFC-Konfiguration die Routenkonfiguration für Server und Client ein. Systemeinstellungen:  Server-VLAN-IP: 192.168.100.3 und Gateway:192.168.100.1 Client-VLAN-IP : 192.168.101.3 und Gateway:192.168.101.1 ...
  • Seite 108: Switch-Einstellungen, Server

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Server-Switch-Einstellungen: Abbildung 6-2. Switch-Einstellungen, Server Client-Switch-Einstellungen: Abbildung 6-3. Switch-Einstellungen, Client AH0054602-01 D...
  • Seite 109: Konfigurieren Der Rdma_Cm-Anwendungen: Server

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für Linux Konfigurieren der Einstellungen von RoCE v1 oder RoCE v2 für RDMA_CM-Anwendungen Verwenden Sie zum Konfigurieren von RoCE die folgenden Scripts aus dem FastLinQ-Quellpaket: # ./show_rdma_cm_roce_ver.sh qedr0 wird zu IB/RoCE V1 konfiguriert qedr1 wird zu IB/RoCE V1 konfiguriert # ./config_rdma_cm_roce_ver.sh v2 configured rdma_cm for qedr0 to RoCE V2...
  • Seite 110: Konfigurieren Von Roce Auf Dem Adapter Für Esx

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für ESX Konfigurieren von RoCE auf dem Adapter für ESX In diesem Abschnitt finden Sie die folgenden Verfahren und Informationen zur RoCE-Konfiguration:  Konfigurieren von RDMA-Schnittstellen  Konfigurieren von MTU  RoCE-Modus und Statistikdaten ...
  • Seite 111: Konfigurieren Von Mtu

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für ESX Zum Beispiel: # esxcli network vswitch standard add -v roce_vs Damit wird ein neuer virtueller Switch mit der Bezeichnung roce_vs erstellt. Um den QLogic NIC-Port mit dem virtuellen Switch zu verbinden, führen Sie den folgenden Befehl aus: # esxcli network vswitch standard uplink add -u <uplink device>...
  • Seite 112: Roce-Modus Und Statistikdaten

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für ESX Zum Beispiel: # esxcfg-vswitch -m 4000 roce_vs # esxcli rdma device list Name Driver State Speed Paired Uplink Description ------- ------- ------ ---- ------- ------------- ------------------------------- vmrdma0 qedrntv Active 2048 25 Gbps vmnic0 QLogic FastLinQ QL45xxx RDMA Interface vmrdma1...
  • Seite 113: Konfigurieren Eines Pravirtuellen Rdma-Geräts (Pvrdma)

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für ESX Completion queue events: 0 Shared receive queues allocated: 0 Shared receive queue events: 0 Protection domains allocated: 1 Memory regions allocated: 3 Address handles allocated: 0 Memory windows allocated: 0 Konfigurieren eines pravirtuellen RDMA-Geräts (PVRDMA) So konfigurieren Sie ein PVRDMA über die vCenter-Schnittstelle: Erstellen und konfigurieren Sie wie folgt einen neuen, verteilten virtuellen Switch:...
  • Seite 114: Konfigurieren Eines Neuen Verteilten Switches

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für ESX Abbildung 6-6. Konfigurieren eines neuen verteilten Switches Konfigurieren Sie einen verteilten virtuellen Switch wie folgt: Erweitern Sie im VMware vSphere-Web-Client den Knoten RoCE im linken Fensterbereich des Navigator-Fensters. Klicken Sie mit der rechten Maustaste auf RoCE-VDS und dann auf Add and Manage Hosts (Hosts hinzufügen und verwalten).
  • Seite 115: Zuweisen Eines Vmknic Für Pvrdma

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für ESX Setzen Sie den Wert Net.PVRDMAVmknic auf vmknic; Beispiel: vmk1. Abbildung 6-7 zeigt ein Beispiel. Abbildung 6-7. Zuweisen eines vmknic für PVRDMA Legen Sie die Firewall-Regel für PVRDMA fest: Klicken Sie mit der rechten Maustaste auf einen Host und dann auf Settings (Einstellungen).
  • Seite 116: Festlegen Der Firewall-Regel

    6–RoCE-Konfiguration Konfigurieren von RoCE auf dem Adapter für ESX Abbildung 6-8. Festlegen der Firewall-Regel Richten Sie die virtuelle Maschine für PVRDMA wie folgt ein: Installieren Sie eines der folgenden unterstützten Gastbetriebssysteme: RHEL 7.2  Ubuntu 14.04 (Kernel-Version 4.0)  Installieren Sie OFED-3.18. Kompilieren und installieren Sie den PVRDMA-Gastreiber und die zugehörige Bibliothek.
  • Seite 117: Iwarp-Konfiguration

    iWARP-Konfiguration iWARP (Internet Wide Area RDMA Protocol) ist ein Computernetzwerkprotokoll, das RDMA für eine effiziente Datenübertragung über IP-Netzwerke implementiert. iWARP wurde für mehrere Umgebungen konzipiert, darunter LANs, Speichernetzwerke, Rechenzentrumsnetzwerke und WANs. In diesem Kapitel finden Sie Anweisungen für Folgendes:  Vorbereiten des Adapters auf iWARP ...
  • Seite 118: Konfigurieren Von Iwarp Unter Windows

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Windows Setzen Sie das Feld RDMA Protocol Support (RDMA-Protokollunterstützung) auf iWARP. Klicken Sie auf Back (Zurück). Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf Finish (Fertigstellen). Wenn das Nachrichtenfeld „Warning - Saving Changes“ (Warnung – Änderungen werden gespeichert) angezeigt wird, klicken Sie zum Speichern der Konfiguration auf Yes (Ja).
  • Seite 119: Windows Powershell-Befehl: Get-Netadapterrdma

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Windows  Wählen Sie RDMA Mode (RDMA-Modus) und wählen Sie dann iWARP als Value (Wert). Klicken Sie auf die Schaltfläche OK, um die Änderungen zu speichern und das Dialogfeld mit den Adaptereigenschaften zu schließen. Überprüfen Sie unter Verwendung von Windows PowerShell, dass RDMA aktiviert ist.
  • Seite 120: Perfmon: Zähler Hinzufügen

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Windows Abbildung 7-3. Perfmon: Zähler hinzufügen Wenn der iWARP-Datenverkehr ausgeführt wird, werden Zähler gemäß dem Beispiel in Abbildung 7-4 angezeigt. Abbildung 7-4. Perfmon: Überprüfen des iWARP-Datenverkehrs AH0054602-01 D...
  • Seite 121: Konfigurieren Von Iwarp Unter Linux

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux So überprüfen Sie die SMB-Verbindung: Führen Sie an einer Befehlseingabe den Befehl wie folgt aus: net use C:\Users\Administrator> net use New connections will be remembered. Status Local Remote Network --------------------------------------------------------- \\192.168.10.10\Share1 Microsoft Windows Network The command completed successfully.
  • Seite 122: Installieren Des Treibers

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux Installieren des Treibers Installieren Sie die RDMA-Treiber wie unter Kapitel 3 Treiberinstallation beschrieben. Konfigurieren von iWARP und RoCE ANMERKUNG Dieses Verfahren gilt nur, wenn Sie zuvor im Rahmen der Konfiguration vor dem Start iWARP+RoCE als Wert für den Parameter für die RDMA-Protokollunterstützung unter Verwendung von HII ausgewählt haben (siehe Konfigurieren von...
  • Seite 123: Erkennen Des Geräts

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux # ibv_devinfo |grep iWARP transport: iWARP (1) transport: iWARP (1) transport: iWARP (1) transport: iWARP (1) transport: iWARP (1) transport: iWARP (1) transport: iWARP (1) transport: iWARP (1) Erkennen des Geräts So erkennen Sie das Gerät: Um zu überprüfen, ob RDMA-Geräte erkannt werden, prüfen Sie die folgenden -Protokolle:...
  • Seite 124: Unterstützte Iwarp-Anwendungen

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux Unterstützte iWARP-Anwendungen Zu den von Linux unterstützten RDMA-Anwendungen für iWARP gehören:  ibv_devinfo, ib_devices  ib_send_bw/lat, ib_write_bw/lat, ib_read_bw/lat, ib_atomic_bw/lat Bei iWARP müssen alle Anwendungen den RDMA-Kommunikationsmanager (rdma_cm) über die Option verwenden.  rdma_server, rdma_client rdma_xserver, rdma_xclient ...
  • Seite 125: Konfigurieren Von Nfs-Rdma

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux rdma_cm QPs : ON Data ex. method : rdma_cm ---------------------------------------------------------------------------- local address: LID 0000 QPN 0x0192 PSN 0xcde932 GID: 00:14:30:196:192:110:00:00:00:00:00:00:00:00:00:00 remote address: LID 0000 QPN 0x0098 PSN 0x46fffc GID: 00:14:30:196:195:62:00:00:00:00:00:00:00:00:00:00 ---------------------------------------------------------------------------- #bytes #iterations BW peak[MB/sec] BW average[MB/sec] MsgRate[Mpps] 65536...
  • Seite 126: Iwarp Rdma-Kernunterstützung Auf Sles 12 Sp3, Rhel 7.4 Und

    7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux So konfigurieren Sie den NFS-Client: ANMERKUNG Dieses Verfahren für die NFS-Client-Konfiguration gilt auch für RoCE. Laden Sie das Modul „xprtrdma“ wie folgt: # modprobe xprtrdma Mounten Sie das NFS-Dateisystem so, wie es sich für Ihre Version eignet: Für NFS Version 3: #mount -o rdma,port=20049 192.168.2.4:/tmp/nfs-server /tmp/nfs-client Für NFS Version 4:...
  • Seite 127 7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux Installieren Sie alle BS-abhängigen Pakete/Bibliotheken, wie in der Infodatei zum RDMA-Kern beschrieben. Führen Sie bei RHEL und CentOS den folgenden Befehl aus: # yum install cmake gcc libnl3-devel libudev-devel make pkgconfig valgrind-devel Installieren Sie für SLES 12 SP3 (ISO/SDK-Kit) die folgenden RPMs: cmake-3.5.2-18.3.x86_64.rpm (OS ISO) libnl-1_1-devel-1.1.4-4.21.x86_64.rpm (SDK ISO) (SDK ISO)
  • Seite 128 7–iWARP-Konfiguration Konfigurieren von iWARP unter Linux # /usr/bin/rping -c -v -C 5 -a 192.168.22.3 (or) rping -c -v -C 5 -a 192.168.22.3 ping data: rdma-ping-0: ABCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqr ping data: rdma-ping-1: BCDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrs ping data: rdma-ping-2: CDEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrst ping data: rdma-ping-3: DEFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstu ping data: rdma-ping-4: EFGHIJKLMNOPQRSTUVWXYZ[\]^_`abcdefghijklmnopqrstuv client DISCONNECT EVENT...
  • Seite 129: Iser-Konfiguration

    iSER-Konfiguration In diesem Kapitel wird das Verfahren für die Konfiguration von iSCSI-Erweiterungen für RDMA (iSER) für Linux (RHEL und SLES) beschrieben, darunter:  Vor dem Start  Konfigurieren von iSER für RHEL Konfigurieren von iSER für SLES 12   Verwenden von iSER mit iWARP auf RHEL und SLES ...
  • Seite 130: Konfigurieren Von Iser Für Rhel

    8–iSER-Konfiguration Konfigurieren von iSER für RHEL Konfigurieren von iSER für RHEL So konfigurieren Sie iSER für RHEL: Installieren Sie Inbox-OFED wie unter “RoCE-Konfiguration für RHEL” auf Seite 75 beschrieben. Vorkonfigurierte OFEDs werden nicht für iSER unterstützt, da das ib_isert-Modul nicht für die vorkonfigurierten OFED 3.18-2 GA/3.18-3 GA-Versionen verfügbar ist.
  • Seite 131: Rdma-Ping-Befehl Erfolgreich

    8–iSER-Konfiguration Konfigurieren von iSER für RHEL Abbildung 8-1 enthält ein Beispiel für einen erfolgreichen RDMA-Ping-Befehl. Abbildung 8-1. RDMA-Ping-Befehl erfolgreich Sie können ein Linux TCM-LIO-Ziel zum Testen von iSER verwenden. Das Setup ist für alle iSCSI-Ziele gleich, mit der Ausnahme, dass Sie den Befehl auf den jeweiligen Portalen ausführen enable_iser Boolean=true müssen.
  • Seite 132: Iface-Transport Bestätigt

    8–iSER-Konfiguration Konfigurieren von iSER für RHEL Um den Übermittlungsmodus in iSER zu ändern, führen Sie den Befehl aus. Zum Beispiel: iscsiadm iscsiadm -m node -T iqn.2015-06.test.target1 -o update -n iface.transport_name -v iser Um eine Verbindung mit dem iSER-Ziel herzustellen oder sich dort anzumelden, führen Sie den Befehl aus.
  • Seite 133: Konfigurieren Von Iser Für Sles 12

    8–iSER-Konfiguration Konfigurieren von iSER für SLES 12 Um zu überprüfen, ob ein neues iSCSI-Gerät vorhanden ist, wie unter Abbildung 8-4 dargestellt, führen Sie den Befehl aus. lsscsi Abbildung 8-4. Überprüfen auf neues iSCSI-Gerät Konfigurieren von iSER für SLES 12 Da das TargetCLI auf SLES 12.x nicht „inbox“ lautet, müssen Sie das folgende Verfahren ausführen.
  • Seite 134: Verwenden Von Iser Mit Iwarp Auf Rhel Und Sles

    8–iSER-Konfiguration Verwenden von iSER mit iWARP auf RHEL und SLES Starten Sie das TargetCLI-Dienstprogramm und konfigurieren Sie Ihre Ziele auf dem iSER-Zielsystem. ANMERKUNG Die TargetCLI-Versionen in RHEL und SLES unterscheiden sich. Stellen Sie sicher, dass Sie die richtigen Backstores für die Konfiguration Ihrer Ziele verwenden: ...
  • Seite 135: Lio-Zielkonfiguration

    8–iSER-Konfiguration Verwenden von iSER mit iWARP auf RHEL und SLES Abbildung 8-5 zeigt die Zielkonfiguration für LIO. Abbildung 8-5. LIO-Zielkonfiguration So konfigurieren Sie einen Initiator für iWARP: Um das iSER-LIO-Ziel über Port 3261 zu ermitteln, führen Sie den Befehl wie folgt aus: iscsiadm # iscsiadm -m discovery -t st -p 192.168.21.4:3261 -I iser 192.168.21.4:3261,1 iqn.2017-04.com.org.iserport1.target1...
  • Seite 136: Optimieren Der Linux-Leistung

    8–iSER-Konfiguration Optimieren der Linux-Leistung Optimieren der Linux-Leistung Berücksichtigen Sie die folgenden Verbesserungen der Linux-Leistungskonfiguration, wie in diesem Abschnitt beschrieben.  Konfigurieren von CPUs in den Modus für die maximale Leistung  Konfigurieren von Kernel-sysctl-Einstellungen  Konfigurieren der IRQ-Affinitätseinstellungen  Konfigurieren der Blockgerätestaffelung Konfigurieren von CPUs in den Modus für die maximale Leistung Setzen Sie „CPU Scaling Governor auf“...
  • Seite 137: Konfigurieren Der Irq-Affinitätseinstellungen

    8–iSER-Konfiguration Optimieren der Linux-Leistung Konfigurieren der IRQ-Affinitätseinstellungen In diesem Beispiel werden die CPU-Kerne 0, 1, 2 und 3 auf IRQ XX, YY, ZZ bzw. XYZ gesetzt. Führen Sie diese Schritte für jede IRQ aus, die einem Port zugewiesen ist (Standard: acht Warteschlangen je Port). systemctl disable irqbalance systemctl stop irqbalance zeigt die IRQs, die den einzelnen...
  • Seite 138: Iscsi-Konfiguration

    iSCSI-Konfiguration In diesem Abschnitt finden Sie die folgenden Informationen zur iSCSI-Konfiguration:  iSCSI-Start  Konfigurieren des iSCSI-Startvorgangs  Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs  Konfigurieren des iSCSI-Boot-Vorgangs über SAN für RHEL 7.4  iSCSI-Offload unter Windows Server  iSCSI-Offload in Linux-Umgebungen ...
  • Seite 139: Einrichten Von Iscsi-Boot

    9–iSCSI-Konfiguration iSCSI-Start Einrichten von iSCSI-Boot Das Einrichten von iSCSI-Boot umfasst:  Auswählen des bevorzugten iSCSI-Startmodus  Konfigurieren des iSCSI-Ziels  Konfigurieren der iSCSI-Bootparameter Auswählen des bevorzugten iSCSI-Startmodus Die Startmodusoption wird unter iSCSI Configuration (iSCSI-Konfiguration) (Abbildung 9-1) des Adapter aufgeführt und die Einstellung ist Port-spezifisch. Weitere Informationen zum Zugreifen auf das Konfigurationsmenü...
  • Seite 140: Konfigurieren Des Iscsi-Ziels

    9–iSCSI-Konfiguration iSCSI-Start Konfigurieren des iSCSI-Ziels Das Konfigurieren des iSCSI-Ziels erfolgt bei den Zielen der verschiedensten Hersteller auf unterschiedliche Weise. Informationen über das Konfigurieren des iSCSI-Ziels finden Sie in der vom Hersteller mitgelieferten Dokumentation. So konfigurieren Sie das iSCSI-Ziel: Wählen Sie das entsprechende Verfahren auf Basis Ihres iSCSI-Ziels aus: ®...
  • Seite 141: Beschreibung

    9–iSCSI-Konfiguration iSCSI-Start ANMERKUNG Die Verfügbarkeit des iSCSI-Startvorgangs für IPv6 ist plattform- und geräteabhängig. Tabelle 9-1. Konfigurationsoptionen Option Beschreibung Diese Option gilt nur für IPv4. Legt fest, ob die TCP/IP parameters via DHCP iSCSI-Boot-Host-Software die IP-Adresse über DHCP (Enabled (Aktiviert)) erhält oder eine statische IP-Konfiguration verwendet (Disabled (Deaktiviert)).
  • Seite 142: Adapterkonfiguration Für Den Uefi-Boot-Modus

    9–iSCSI-Konfiguration iSCSI-Start Adapterkonfiguration für den UEFI-Boot-Modus So konfigurieren Sie den Boot-Modus: Starten Sie das System neu. Rufen Sie das Menü „System Utilities“ (Systemdienstprogramme) (Abbildung 9-2) auf. ANMERKUNG „Booten über SAN“ wird nur in UEFI-Umgebungen unterstützt. Stellen Sie sicher, dass „UEFI“ als System-Startoption und nicht „Legacy“ eingestellt ist.
  • Seite 143: Systemeinrichtung: Konfigurationsdienstprogramm Für Die

    9–iSCSI-Konfiguration iSCSI-Start Wählen Sie im „System Setup“ (Systemeinrichtung) unter „Device Settings“ (Geräteeinstellungen) das QLogic-Gerät (Abbildung 9-3) aus. Weitere Informationen zum Zugriff auf das PCI-Geräte-Konfigurationsmenü finden Sie im OEM-Benutzerhandbuch. Abbildung 9-3. Systemeinrichtung: Konfigurationsdienstprogramm für die Geräteeinstellungen AH0054602-01 D...
  • Seite 144: Auswählen Der Nic-Konfiguration

    9–iSCSI-Konfiguration iSCSI-Start Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die Option NIC Configuration (NIC-Konfiguration) (Abbildung 9-4) aus und drücken dann auf ENTER (Eingabe). Abbildung 9-4. Auswählen der NIC-Konfiguration AH0054602-01 D...
  • Seite 145: Konfigurieren Des Iscsi-Startvorgangs

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) (Abbildung 9-5) die Option Boot Protocol (Boot-Protokoll) aus, und drücken Sie dann auf die EINGABETASTE, um UEFI iSCSI HBA auszuwählen (dafür ist der NPAR-Modus erforderlich). Abbildung 9-5. Systemeinrichtung: NIC-Konfiguration, Boot-Protokoll Fahren Sie mit einer der folgenden Konfigurationsoptionen fort: ...
  • Seite 146: Konfigurieren Einer Statischen Iscsi-Boot-Konfiguration

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Konfigurieren einer statischen iSCSI-Boot-Konfiguration In einer statischen Konfiguration müssen Sie die folgenden Daten eingeben:  System-IP-Adresse  System-Initiator IQN  Zielparameter (abrufbar über “Konfigurieren des iSCSI-Ziels” auf Seite 115) Informationen über Konfigurationsoptionen finden Sie unter Tabelle 9-1 auf Seite 116.
  • Seite 147: Systemeinrichtung: Auswählen Allgemeiner Parameter

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Wählen Sie auf der Seite „iSCSI Configuration“ (iSCSI-Konfiguration) die Option iSCSI General Parameters (Allgemeine iSCSI-Parameter) (Abbildung 9-7) aus und drücken dann auf ENTER (Eingabe). Abbildung 9-7. Systemeinrichtung: Auswählen allgemeiner Parameter Drücken Sie auf der Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter) (Abbildung 9-8) auf die Tasten UP ARROW (Pfeil nach...
  • Seite 148: Systemeinrichtung: Allgemeine Iscsi-Parameter

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs  Virtual LAN ID (Virtuelle LAN-ID): Standardwert oder nach Bedarf Virtual LAN Mode (Virtueller LAN-Modus): Disabled (Deaktiviert)  Abbildung 9-8. Systemeinrichtung: Allgemeine iSCSI-Parameter Kehren Sie zur Seite „iSCSI Configuration“ (iSCSI-Konfiguration) zurück und drücken Sie auf die Taste ESC. AH0054602-01 D...
  • Seite 149: Systemeinrichtung: Auswählen Von Iscsi Initiator-Parametern

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Wählen Sie die Option iSCSI Initiator Parameters (iSCSI-Initiatorparameter) (Abbildung 9-9) aus und drücken Sie ENTER (Eingabe). Abbildung 9-9. Systemeinrichtung: Auswählen von iSCSI Initiator-Parametern Wählen Sie auf der Seite „iSCSI Initiator Parameter“ (iSCSI-Initiatorparameter) (Abbildung 9-10) die folgenden Parameter aus und geben Sie einen Wert für jeden Parameter ein: ...
  • Seite 150: Systemeinrichtung: Iscsi-Initiatorparameter

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs ANMERKUNG Beachten Sie die folgenden für die vorgenannten Elemente mit einem Sternchen (*):  Die Bezeichnung ändert sich auf Basis der auf der Seite „iSCSI General Parameters“ (Allgemeine iSCSI-Parameter) (Abbildung 9-8 auf Seite 123) eingestellten IP-Version in IPv6 oder IPv4 (Standardeinstellung).
  • Seite 151: Systemeinrichtung: Auswählen Der Ersten Iscsi-Zielparameter

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Wählen Sie die Option iSCSI First Target Parameters (Erste iSCSI-Zielparameter) (Abbildung 9-11) aus und drücken Sie ENTER (Eingabe). Abbildung 9-11. Systemeinrichtung: Auswählen der ersten iSCSI-Zielparameter Setzen Sie auf der Seite „iSCSI First Target Parameters“ (Erste iSCSI-Zielparameter) die Option Connect (Verbinden) für das iSCSI-Ziel auf Enabled (Aktiviert).
  • Seite 152: Systemeinrichtung: Parameter Für Das Erste Iscsi-Ziel

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs  CHAP Secret (CHAP-Geheimschlüssel) ANMERKUNG Für die vorgenannten Parameter mit einem Sternchen (*) ändert sich die Bezeichnung auf Basis der IP-Version, die auf der Seite „iSCSI General Parameter“ (Allgemeine iSCSI-Parameter) festgelegt wurde, in IPv6 oder IPv4 (Standardeinstellung). Siehe Abbildung 9-12.
  • Seite 153: Systemeinrichtung: Parameter Für Das Zweite Iscsi-Ziel

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Wenn Sie ein zweites iSCSI-Zielgerät konfigurieren möchten, wählen Sie iSCSI Second Target Parameters (Zweite iSCSI-Zielparameter) (Abbildung 9-13) aus und geben Sie die Parameterwerte gemäß Schritt 10 ein. Fahren Sie ansonsten mit Schritt 13 fort. Abbildung 9-13. Systemeinrichtung: Parameter für das zweite iSCSI-Ziel Drücken Sie einmal ESC und ein zweites Mal zum Beenden.
  • Seite 154: Konfigurieren Einer Dynamischen Iscsi-Boot-Konfiguration

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Klicken Sie zum Speichern der Änderungen auf Yes (Ja) oder folgen Sie den OEM-Richtlinien zum Speichern der Konfiguration auf Geräteebene. Klicken Sie beispielsweise auf Yes (Ja), um das Ändern der Einstellung zu bestätigen (Abbildung 9-14). Abbildung 9-14. Systemeinrichtung: Speichern der iSCSI-Änderungen Nachdem Sie alle Änderungen vorgenommen haben, starten Sie das System neu, damit die Änderungen in die ausgeführte Konfiguration des Adapters übernommen werden.
  • Seite 155 9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs Informationen über Konfigurationsoptionen finden Sie unter Tabelle 9-1 auf Seite 116. ANMERKUNG Bei Verwendung eines DHCP-Servers werden die Einträge des DNS-Servers durch die vom DHCP-Server bereitgestellten Werte überschrieben. Dieses Überschreiben tritt selbst dann auf, wenn die lokal bereitgestellten Werte gültig sind und der DHCP-Server keine Daten über den DNS-Server zur Verfügung stellt.
  • Seite 156: Aktivieren Der Chap-Authentifizierung

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Startvorgangs  CHAP Authentication (CHAP-Authentifizierung): Nach Bedarf IP Version (IP-Version): Nach Bedarf (IPv4 oder IPv6)   CHAP Mutual Authentication (Gegenseitige CHAP-Authentifizierung): Nach Bedarf  DHCP Vendor ID (DHCP-Anbieter-ID): Nach Bedarf  HBA Boot Mode (HBA-Boot-Modus): Disabled (Deaktiviert) ...
  • Seite 157: Konfigurieren Des Dhcp-Servers Zur Unterstützung Des Iscsi-Boot-Vorgangs

    9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs  CHAP Secret (CHAP-Geheimschlüssel, wenn Authentifizierung erforderlich ist; muss 12 bis 16 Zeichen lang sein) Drücken Sie auf ESC, um zur Seite „iSCSI Boot configuration“ (iSCSI-Boot-Konfiguration) zurückzukehren. Wählen Sie auf der Seite „iSCSI Boot configuration“ (iSCSI-Startkonfiguration) die Option iSCSI First Target Parameters (Erste iSCSI-Zielparameter) aus.
  • Seite 158: Dhcp Option 17, Root Path

    9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs DHCP Option 17, Root Path Mit Hilfe von Option 17 werden Informationen über das iSCSI-Ziel an den iSCSI-Client übermittelt. Das Format für das Stammverzeichnis ist in IETC RFC 4173 definiert und lautet: "iscsi:"<servername>":"<protocol>":"<port>":"<LUN>":"<targetname>"...
  • Seite 159: Konfigurieren Des Dhcp-Servers

    9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs Tabelle 9-3 listet die Unteroptionen für DHCP Option 43 auf. Tabelle 9-3. Definitionen der Unteroption von DHCP Option 43 Unteroption Definition Informationen über das erste iSCSI-Ziel im Standardformat für das Stammverzeichnis: "iscsi:"<servername>":"<protocol>":"<port>":"<LUN>": "<targetname>"...
  • Seite 160: Konfigurieren Des Dhcp Iscsi-Startvorgangs Für Ipv4

    9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs Konfigurieren des DHCP iSCSI-Startvorgangs für IPv4 Der DHCPv6-Server stellt eine Anzahl von Optionen zur Verfügung, darunter eine zustandslose oder zustandbehaftete IP-Konfiguration sowie Informationen für den DHCPv6-Client. Die QLogic-Adapter unterstützen die folgenden DHCP-Konfigurationen für iSCSI-Boot: ...
  • Seite 161: Konfigurieren Von Vlans Für Den Iscsi-Startvorgang

    9–iSCSI-Konfiguration Konfigurieren des DHCP-Servers zur Unterstützung des iSCSI-Boot-Vorgangs Tabelle 9-4. Definitionen der Unteroption für DHCP Option 17 Unteroption Definition Informationen über das erste iSCSI-Ziel im Standardformat für das Stammverzeichnis: "iscsi:"[<Servername>]":"<Protokoll>":"<Port>":"<LUN> ": "<targetname>" Informationen über das zweite iSCSI-Ziel im Standardformat für das Stammverzeichnis: "iscsi:"[<Servername>]":"<Protokoll>":"<Port>":"<LUN>...
  • Seite 162: Konfigurieren Des Iscsi-Boot-Vorgangs Über San Für Rhel

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Boot-Vorgangs über SAN für RHEL 7.4 Wählen Sie VLAN ID (VLAN-ID) aus, um den VLAN-Wert einzugeben und festzulegen. Siehe dazu auch Abbildung 9-16. Abbildung 9-16. Systemeinrichtung: Allgemeine iSCSI-Parameter, VLAN-ID Konfigurieren des iSCSI-Boot-Vorgangs über SAN für RHEL 7.4 So installieren Sie RHEL ab Version 7.4: Starten Sie vom RHEL 7.x-Installationsdatenträger, wobei das iSCSI-Ziel bereits mit UEFI verbunden sein muss.
  • Seite 163: Aufforderung Zur Installation Des Vorkonfigurierten Treibers

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Boot-Vorgangs über SAN für RHEL 7.4 Sie können die Option statt der Option verwenden. inst.dd linux dd Während der Installation werden Sie dazu aufgefordert, den vorkonfigurierten Treiber gemäß dem Beispiel in Abbildung 9-17 installieren. Abbildung 9-17. Aufforderung zur Installation des vorkonfigurierten Treibers Falls in Ihrer Konfiguration erforderlich, laden Sie den Datenträger mit dem FastLinQ-Treiber-Update, wenn Sie dazu aufgefordert werden, weitere Treiber-Datenträger einzulegen.
  • Seite 164: Konfiguration Von Red Hat Enterprise Linux

    9–iSCSI-Konfiguration Konfigurieren des iSCSI-Boot-Vorgangs über SAN für RHEL 7.4 Wählen Sie im Fenster „Configuration“ (Konfiguration) (Abbildung 9-18) die Sprache aus, die während des Installationsvorgangs verwendet werden soll, und klicken Sie dann auf Continue (Weiter). Abbildung 9-18. Konfiguration von Red Hat Enterprise Linux 7.4 Klicken Sie im Fenster „Installation Summary“...
  • Seite 165: Iscsi-Offload Unter Windows Server

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Ändern Sie die Aussage in: if [ "$transport" = bnx2i ] || [ "$transport" = qedi ]; then Führen Sie einen Unmount-Vorgang des Dateisystems durch, indem Sie den folgenden Befehl ausgeben: # umount /sysroot Starten Sie den Server neu, und fügen Sie die folgenden Parameter zur Befehlszeile hinzu: rd.iscsi.firmware rd.driver.pre=qed,qedi (zum Laden aller Treiber...
  • Seite 166: Installieren Der Qlogic-Treiber

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Installieren der QLogic-Treiber Installieren Sie die Windows-Treiber, wie unter “Installieren der Windows-Treibersoftware” auf Seite 17 beschrieben. Installieren von Microsoft iSCSI Software Initiator Rufen Sie das Microsoft-iSCSI-Initiator-Applet auf. Beim ersten Start fordert Sie das System dazu auf, einen automatischen Dienststart einzurichten. Bestätigen Sie die Auswahl, damit das Applet gestartet wird.
  • Seite 167: Eigenschaften Des Iscsi-Initiators, Konfiguration (Seite)

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Klicken Sie auf der Seite „Configuration“ (Konfiguration) (Abbildung 9-19) zum Ändern des Initiatornamens auf Change (Ändern). Abbildung 9-19. Eigenschaften des iSCSI-Initiators, Konfiguration (Seite) AH0054602-01 D...
  • Seite 168: Änderung Des Iscsi-Initiator-Knotennamens

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Geben Sie im Dialogfeld „iSCSI Initiator Name“ (iSCSI-Initiatorname) den neuen Initiator-IQN-Namen ein und klicken Sie auf OK. (Abbildung 9-20) Abbildung 9-20. Änderung des iSCSI-Initiator-Knotennamens Klicken Sie unter „iSCSI Initiator Properties“ (Eigenschaften des iSCSI-Initiators) auf die Registerkarte Discovery (Ermittlung). AH0054602-01 D...
  • Seite 169: Iscsi-Initiator - Zielportal Ermitteln

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Klicken Sie auf der Seite „Discovery“ (Ermittlung) (Abbildung 9-21) unter Target portals (Zielportale) auf Discover Portal (Portal ermitteln). Abbildung 9-21. iSCSI-Initiator – Zielportal ermitteln AH0054602-01 D...
  • Seite 170: Ip-Adresse Für Das Zielportal

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Führen Sie im Dialogfeld „Discover Target Portal“ (Zielportal ermitteln) (Abbildung 9-22) die folgenden Schritte aus: Geben Sie in das Feld IP address or DNS name (IP-Adresse oder DNS-Name) die IP-Adresse des Ziels ein. Klicken Sie auf Advanced (Erweitert). Abbildung 9-22.
  • Seite 171: Auswählen Der Initiator-Ip-Adresse

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Klicken Sie auf OK. Abbildung 9-23. Auswählen der Initiator-IP-Adresse Klicken Sie auf der Seite „iSCSI Initiator Properties, Discovery“ (iSCSI-Initiator-Eigenschaften, Ermittlung) auf OK. AH0054602-01 D...
  • Seite 172: Herstellen Einer Verbindung Zum Iscsi-Ziel

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Klicken Sie auf die Registerkarte Targets (Ziele) und dann auf der Seite „Targets“ (Ziele) (Abbildung 9-24) auf Connect (Verbinden). Abbildung 9-24. Herstellen einer Verbindung zum iSCSI-Ziel AH0054602-01 D...
  • Seite 173: Häufig Gestellte Fragen (Faqs) Zu Iscsi-Offload

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Klicken Sie im Dialogfeld „Connect To“ (Verbinden mit) (Abbildung 9-25) auf Advanced (Erweitert). Abbildung 9-25. Mit Ziel verbinden – Dialogfeld Wählen Sie im Dialogfeld „Local Adapter“ (Lokaler Adapter) den QLogic <Name oder Modell> Adapter aus und klicken Sie dann auf OK. Klicken Sie erneut auf OK, um Microsoft Initiator zu schließen.
  • Seite 174: Installation Von Iscsi-Boot Für Windows Server 2012 R2 Und 2016

    9–iSCSI-Konfiguration iSCSI-Offload unter Windows Server Frage: Welche Werkzeuge soll ich verwenden, um die Verbindung mit dem Ziel herzustellen? Antwort: Verwenden Sie Microsoft iSCSI Software Initiator (ab Version 2.08). Frage: Woher weiß ich, dass sich die Verbindung im Offload-Modus befindet? Antwort: Verwenden Sie Microsoft iSCSI Software Initiator.
  • Seite 175: Iscsi-Absturzspeicherabbild

    9–iSCSI-Konfiguration iSCSI-Offload in Linux-Umgebungen Speichern Sie die Einstellungen, und starten Sie das System neu. Das Remote-System sollte eine Verbindung zum iSCSI-Ziel herstellen und dann vom DVD-ROM-Gerät starten. Booten Sie von der DVD, und starten Sie die Installation. Befolgen Sie die Anweisungen auf dem Bildschirm. Im Fenster, in dem die Liste der für die Installation verfügbaren Festplatten angezeigt wird, sollte auch das iSCSI-Ziellaufwerk angezeigt werden.
  • Seite 176: Unterschiede Zu Bnx2I

    9–iSCSI-Konfiguration Unterschiede zu bnx2i Diese Module müssen geladen werden, bevor qedi in Betrieb genommen werden kann. Ansonsten tritt möglicherweise ein Fehler der Art „unresolved symbol“ (nicht aufgelöstes Symbol) auf. Wenn das qedi-Modul im Aktualisierungspfad der Distribution installiert ist, wird die Erfordernis automatisch durch modprobe geladen.
  • Seite 177: Überprüfen Von Iscsi-Schnittstellen In Linux

    9–iSCSI-Konfiguration Überprüfen von iSCSI-Schnittstellen in Linux Überprüfen von iSCSI-Schnittstellen in Linux Nach der Installation und dem Laden des qedi-Kernel-Moduls müssen Sie sicherstellen, dass die iSCSI-Schnittstellen korrekt ermittelt wurden. So überprüfen Sie die iSCSI-Schnittstellen in Linux: Um zu überprüfen, ob qedi und die verknüpften Kernel-Module aktiv geladen wurden, führen Sie den folgenden Befehl aus: # lsmod | grep qedi qedi...
  • Seite 178 9–iSCSI-Konfiguration Überprüfen von iSCSI-Schnittstellen in Linux Um sicherzustellen, dass der iscsiuio-Dienst ausgeführt wird, führen Sie den folgenden Befehl aus: # systemctl status iscsiuio.service iscsiuio.service - iSCSI UserSpace I/O driver Loaded: loaded (/usr/lib/systemd/system/iscsiuio.service; disabled; vendor preset: disabled) Active: active (running) since Fri 2017-01-27 16:33:58 IST; 6 days ago Docs: man:iscsiuio(8) Process: 3745 ExecStart=/usr/sbin/iscsiuio (code=exited, status=0/SUCCESS)
  • Seite 179: Open-Iscsi Und Starten Über San - Überlegungen

    9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen Um zu überprüfen, ob die iSCSI-Sitzung erstellt wurde, führen Sie den folgenden Befehl aus: # iscsiadm -m session qedi: [297] 192.168.25.100:3260,1 iqn.2003-04.com.sanblaze:virtualun.virtualun.target-05000007 (non-flash) Um nach iSCSI-Geräten zu suchen, führen Sie den Befehl aus: iscsiadm # iscsiadm -m session -P3...
  • Seite 180 Open-iSCSI und Starten über SAN – Überlegungen So führen Sie einen Vorgang der Art „Booten über SAN“ über einen Software-Initiator mithilfe der Dell OEM-Lösungen aus: Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die Option Boot Protocol (Boot-Protokoll) aus, und drücken Sie dann auf EINGABE, um Legacy PXE (Legacy-PXE) auszuwählen.
  • Seite 181: Rhel 6.9 Iscsi L4 - Migration Für „Booten Über San

    9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen RHEL 6.9 iSCSI L4 – Migration für „Booten über SAN“ So migrieren Sie von einer Non-Offload-Schnittstelle auf eine Offload-Schnittstelle: Booten Sie auf das iSCSI-Non-Offload-/L2-Booten-über-SAN-Betriebssystem. Geben Sie die folgenden Befehle aus, um die open-iscsi- und iscsiuio-RPMs zu installieren: # rpm -ivh --force qlgc-open-iscsi-2.0_873.111-1.x86_64.rpm # rpm -ivh --force iscsiuio-2.11.5.2-1.rhel6u9.x86_64.rpm...
  • Seite 182 9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen # Default for Fedora and RHEL. (uncomment to activate). #iscsid.startup = /etc/rc.d/init.d/iscsid force-start # Default for upstream open-iscsi scripts (uncomment to activate). iscsid.startup = /sbin/iscsid Erstellen Sie einen Iface-Datensatz für eine L4-Schnittstelle: Geben Sie den folgenden Befehl aus: # iscsiadm -m iface -I qedi.14:02:ec:ce:dc:71 -o new New interface qedi.14:02:ec:ce:dc:71 added...
  • Seite 183 9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen Zum Beispiel: kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 ifname=eth5:14:02:ec:ce:dc:6d rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap ip=ibft KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root rhgb quiet initrd /initramfs-2.6.32-696.el6.x86_64.img kernel /vmlinuz-2.6.32-696.el6.x86_64 ro root=/dev/mapper/vg_prebooteit-lv_root rd_NO_LUKS iscsi_firmware LANG=en_US.UTF-8 rd_NO_MD SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_DM rd_LVM_LV=vg_prebooteit/lv_swap KEYBOARDTYPE=pc KEYTABLE=us rd_LVM_LV=vg_prebooteit/lv_root selinux=0 initrd /initramfs-2.6.32-696.el6.x86_64.img...
  • Seite 184: Rhel 7.2/7.3 Iscsi L4 - Migration Für „Booten Über San

    9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen Speichern Sie die Konfiguration, und starten Sie den Server neu. ANMERKUNG Das BS kann nun über die Offload-Schnittstelle gestartet werden. RHEL 7.2/7.3 iSCSI L4 – Migration für „Booten über SAN“ So migrieren Sie von einer Non-Offload-Schnittstelle auf eine Offload-Schnittstelle: Aktualisieren Sie die open-iscisi-Werkzeuge und iscsiuio, indem Sie die folgenden Befehle ausgeben:...
  • Seite 185 9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen # iscsiadm -m iface -I qedi.00:0e:1e:d6:7d:3a -n iface.bootproto -v static -o update Erstellen Sie wie folgt einen Zielknotendatensatz, um die L4-Schnittstelle zu verwenden: # iscsiadm -m node -T iqn.2003-04.com.sanblaze:virtualun.virtualun.target-050123456 -p 192.168.25.100:3260 -I qedi.00:0e:1e:d6:7d:3a -o new Bearbeiten Sie die Datei , und /usr/libexec/iscsi-mark-root-node...
  • Seite 186: Sles 11 Sp4 Iscsi L4 - Migration Für „Booten Über San

    9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung) NIC Partitioning Configuration (NIC-Partitionierungskonfiguration), Partition 3 Configuration (Konfiguration Partition 3) aus. Setzen Sie auf der Seite „Partition 3 Configuration“ (Konfiguration Partition 3) iSCSI Offload Mode (iSCSI-Offload-Modus) auf Enabled (Aktiviert).
  • Seite 187 9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen Bearbeiten Sie die Datei /etc/modprobe.d/unsupported-modules ändern Sie den Wert für in 1, und speichern allow_unsupported_modules Sie die Datei: allow_unsupported_modules 1 Suchen und löschen Sie die folgenden Dateien:  /etc/init.d/boot.d/K01boot.open-iscsi  /etc/init.d/boot.open-iscsi Erstellen Sie eine Sicherungskopie der initrd-Datei, und erstellen Sie anschließend eine neue initrd-Datei, indem Sie die folgenden Befehle ausgeben: # cd /boot/...
  • Seite 188: Sles 12 Sp1/Sp2 Iscsi L4 - Migration Für „Booten Über San

    9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“ So migrieren Sie von einer Non-Offload-Schnittstelle auf eine Offload-Schnittstelle: Starten Sie auf das iSCSI-Non-Offload-/L2-Boot-über-SAN-Betriebssystem. Geben Sie die folgenden Befehle aus, um die open-iscsi- und iscsiuio-RPMs zu installieren: # qlgc-open-iscsi-2.0_873.111.slessp2-3.x86_64.rpm # iscsiuio-2.11.5.3-2.sles12sp2.x86_64.rpm...
  • Seite 189 9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen Erstellen Sie eine neue -Datei, indem Sie den folgenden Befehl grub.cfg ausgeben: # grub2-mkconfig -o <new file name> Vergleichen Sie die alte Datei mit der Bezeichnung mit der neuen grub.cfg Datei mit der Bezeichnung , um Ihre Änderungen zu überprüfen.
  • Seite 190: Sles 12 Sp1/Sp2 Iscsi L4 - Migration Für „Booten Über San

    9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen SLES 12 SP1/SP2 iSCSI L4 – Migration für „Booten über SAN“ über MPIO Um von L2 auf L4 zu migrieren und die Einstellungen für Microsoft Multipfad-E/A (MPIO) zu konfigurieren, um das Betriebssystem über die Offload-Schnittstelle zu booten: Geben Sie zum Aktualisieren des open-iscsi-Werkzeugs den folgenden Befehl aus:...
  • Seite 191 9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen Passen Sie die UEFI-Konfiguration zur Verwendung des L4-iSCSI-Boot-Vorgangs an: Öffnen Sie das Fenster „System Setup“ (Systemeinrichtung), und wählen Sie dann Device Settings (Geräteeinstellungen) aus. Wählen Sie im Fenster „Device Settings“ (Geräteeinstellungen) den Adapter-Port aus, auf dem die iSCSI-Boot-Firmware-Tabelle (iBFT) konfiguriert ist, und drücken Sie dann auf EINGABE.
  • Seite 192 9–iSCSI-Konfiguration Open-iSCSI und Starten über SAN – Überlegungen Bearbeiten Sie die Datei auf der DUD, und fügen Sie die dud.config folgenden Befehle hinzu, um die Liste mit den defekten Module zu löschen: brokenmodules=-qed,qedi,qedf brokenmodules=dummy_xxx Starten Sie das System neu. Das BS muss nun über die Offload-Schnittstelle gestartet werden.
  • Seite 193: Fcoe-Konfiguration

    FCoE-Konfiguration In diesem Abschnitt finden Sie die folgenden Informationen zur Fibre Channel over Ethernet (FCoE)-Konfiguration:  FCoE – Starten über SAN  Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien  Konfigurieren von Linux FCoE-Offload Unterschiede zwischen qedf und bnx2fc  ...
  • Seite 194: Fcoe

    10–FCoE-Konfiguration FCoE – Starten über SAN Vorbereiten des System-BIOS auf den Aufbau und das Starten von FCoE Um das System-BIOS vorzubereiten, passen Sie die Systemstartreihenfolge an und definieren Sie, falls erforderlich, das BIOS-Startprotokoll. Definieren des BIOS-Startprotokolls Das Starten von FCoE von einem SAN wird nur im UEFI-Modus unterstützt. Setzen Sie die Plattform im Startmodus (Protokoll) über die System-BIOS-Konfiguration auf „UEFI“.
  • Seite 195: Systemeinrichtung: Geräteeinstellungen, Port-Auswahl

    10–FCoE-Konfiguration FCoE – Starten über SAN ANMERKUNG „Start Boot“ (Starten über SAN) wird nur in UEFI-Umgebungen unterstützt. Stellen Sie sicher, dass „UEFI“ als System-Startoption und nicht „Legacy“ eingestellt ist. Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) das QLogic-Gerät (Abbildung 10-2) aus.
  • Seite 196: Systemeinrichtung: Nic-Konfiguration

    10–FCoE-Konfiguration FCoE – Starten über SAN Abbildung 10-3. Systemeinrichtung: NIC-Konfiguration Wählen Sie auf der Seite „NIC Configuration“ (NIC-Konfiguration) die Option Boot Mode (Startmodus) aus und drücken Sie dann auf ENTER (Eingabe), um FCoE als bevorzugten Startmodus auszuwählen. ANMERKUNG FCoE wird nicht als Startoption aufgeführt, wenn die Funktion FCoE Mode (FCoE-Modus) auf der Port-Ebene deaktiviert wurde.
  • Seite 197: Systemeinrichtung: Fcoe-Modus Aktiviert

    10–FCoE-Konfiguration FCoE – Starten über SAN Abbildung 10-4. Systemeinrichtung: FCoE-Modus aktiviert So konfigurieren Sie die FCoE-Startparameter: Wählen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) die Option FCoE-Configuration (FCoE-Konfiguration) aus und drücken dann auf ENTER (Eingabe). Wählen Sie auf der Seite „FCoE Configuration“ (FCoE-Konfiguration) die Option FCoE General Parameters (Allgemeine FCoE-Parameter) aus und drücken dann auf ENTER (Eingabe).
  • Seite 198: Systemeinrichtung: Allgemeine Fcoe-Parameter

    10–FCoE-Konfiguration FCoE – Starten über SAN Abbildung 10-5. Systemeinrichtung: Allgemeine FCoE-Parameter Kehren Sie zurück zur FCoE-Konfigurationsseite zurück. Drücken Sie auf ESC und wählen Sie dann FCoE Target Parameter (FCoE-Zielparameter) aus. Drücken Sie ENTER (Eingabe). Aktivieren Sie im Menü „FCoE Target Parameters“ (FCoE-Zielparameter) die Option Connect (Verbinden) für das bevorzugte FCoE-Ziel.
  • Seite 199: Windows Fcoe - Starten Über San

    10–FCoE-Konfiguration FCoE – Starten über SAN Abbildung 10-6. Systemeinrichtung: Allgemeine FCoE-Parameter Windows FCoE – Starten über SAN Zu den Informationen für „FCoE Boot from SAN (FCoE – Starten über SAN) unter Windows sind die folgenden Informationen verfügbar:  Installation von FCoE-Boot für Windows Server 2012 R2 und 2016 ...
  • Seite 200: Konfigurieren Von Fcoe

    10–FCoE-Konfiguration FCoE – Starten über SAN Laden Sie die aktuellsten QLogic FCoE-Boot-Abbilder auf den NVRAM des Adapters. Konfigurieren Sie das FCoE-Ziel, um eine Verbindung vom Remote-Gerät zuzulassen. Vergewissern Sie sich, dass das Ziel über ausreichend Speicherplatz für die neue Betriebssysteminstallation verfügt. Konfigurieren Sie UEFI HII zum Festlegen des FCoE-Starttyps auf dem Adapter-Port, korrigieren Sie den Initiator und die Zielparameter für den FCoE-Start.
  • Seite 201: Einfügen (Slipstreaming) Der Adaptertreiber In Die Windows

    10–FCoE-Konfiguration Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien Einfügen (Slipstreaming) der Adaptertreiber in die Windows-Imagedateien So fügen Sie Adaptertreiber in die Windows-Imagedateien ein: Rufen Sie das aktuellste Treiberpaket für die jeweilige Windows Server-Version (2012, 2012 R2 oder 2016) ab. Extrahieren Sie dieses Treiberpaket in ein Arbeitsverzeichnis: Öffnen Sie eine Befehlszeilensitzung und navigieren Sie zu dem Ordner, der das Treiberpaket enthält.
  • Seite 202: Konfigurieren Von Linux Fcoe-Offload

    10–FCoE-Konfiguration Konfigurieren von Linux FCoE-Offload ANMERKUNG Beachten Sie den folgenden Hinweis zum Betriebssystem-Installationsmedium:  Das Betriebssystem-Installationsmedium muss ein lokales Laufwerk sein. Netzwerkpfade als Betriebssystem-Installationsmedien werden nicht unterstützt.  Das Script fügt die Treiberkomponenten in alle slipstream.bat SKUs ein, die durch das Betriebssystem-Installationsmedium unterstützt werden.
  • Seite 203: Unterschiede Zwischen Qedf Und Bnx2Fc

    10–FCoE-Konfiguration Unterschiede zwischen qedf und bnx2fc Unterschiede zwischen qedf und bnx2fc Zwischen qedf, dem Treiber für den QLogic FastLinQ 41xxx 10/25GbE Controller (FCoE), und dem vorherigen QLogic FCoE-Offload-Treiber, bnx2fc, bestehen signifikante Unterschiede. Unterschiede:  qedf verbindet sich direkt mit einer PCI-Funktion, die durch den CNA ermittelt wird.
  • Seite 204: Überprüfen Von Fcoe-Geräten In Linux

    10–FCoE-Konfiguration Überprüfen von FCoE-Geräten in Linux Überprüfen von FCoE-Geräten in Linux Führen Sie die folgenden Schritte aus, um zu überprüfen, ob die FCoE-Geräte nach der Installation und dem Laden des qedf-Kernelmoduls korrekt ermittelt wurden. So überprüfen Sie die FCoE-Geräte in Linux: Überprüfen Sie lsmod, um zu kontrollieren, ob qedf and die verknüpften Kernelmodule geladen wurden: # lsmod | grep qedf...
  • Seite 205: Starten Über San - Überlegungen

    10–FCoE-Konfiguration Starten über SAN – Überlegungen 5:0:0:5 disk SANBlaze VLUN P2T1L5 V7.3 fc 5:0:0:6 disk SANBlaze VLUN P2T1L6 V7.3 fc 5:0:0:7 disk SANBlaze VLUN P2T1L7 V7.3 fc 5:0:0:8 disk SANBlaze VLUN P2T1L8 V7.3 fc 5:0:0:9 disk SANBlaze VLUN P2T1L9 V7.3 fc Die Konfigurationsinformationen für den Host befinden sich unter , wobei für die Nummer des SCSI-Hosts steht.
  • Seite 206 10–FCoE-Konfiguration Starten über SAN – Überlegungen ANMERKUNG Um für SLES 12 SPx sicherzustellen, dass der Treiber ordnungsgemäß installiert wird, mounten Sie die DUD-ISO-Imagedatei über das virtuelle Laufwerk. AH0054602-01 D...
  • Seite 207: Sr-Iov-Konfiguration

    SR-IOV-Konfiguration SR-IOV (Single Root Input/Output-Virtualisierung) ist eine Spezifikation von PCI SIG, mit der ein einzelnes PCIe-Gerät als mehrere, separate physische PCIe-Geräte angezeigt werden kann. SR-IOV ermöglicht die Isolation von PCIe-Ressourcen zum Zwecke der Leistung, Interoperabilität und Verwaltbarkeit. ANMERKUNG Einige SR-IOV-Funktionen sind in der aktuellen Version möglicherweise nicht vollständig aktiviert.
  • Seite 208: Systemeinrichtung Für Sr-Iov: Integrierte Geräte

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Abbildung 11-1. Systemeinrichtung für SR-IOV: Integrierte Geräte Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) für den ausgewählte Adapter auf Device Level Configuration (Konfiguration auf Geräteebene). Führen Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) unter „Device Level Configuration“...
  • Seite 209: Adapter-Eigenschaften - Erweitert: Sr-Iov Aktivieren

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Wenn das Nachrichtenfeld „Warning - Saving Changes“ (Warnung – Änderungen werden gespeichert) angezeigt wird, klicken Sie zum Speichern der Konfiguration auf Yes (Ja). Klicken Sie im Nachrichtenfeld „Success - Saving Changes“ (Erfolg – Änderungen werden gespeichert) auf OK. So aktivieren Sie SR-IOV auf dem Miniport-Adapter: Rufen Sie den Geräte-Manager auf.
  • Seite 210: Manager Für Virtuellen Switch: Sr-Iov Aktivieren

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Aktivieren Sie das Kontrollkästchen Enable single-root I/O virtualization (SR-IOV) (Single-Root-E/A-Virtualisierung (SR-IOV) aktivieren) und klicken Sie dann auf Apply (Anwenden). ANMERKUNG Stellen Sie sicher, dass Sie bei der Erstellung des virtuellen Switches SR-IOV aktivieren. Diese Option ist nach der Erstellung des virtuellen Switches nicht mehr verfügbar.
  • Seite 211 11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Das Nachrichtenfeld „Apply Networking Changes“ (Netzwerkänderungen anwenden) zeigt an, dass ausstehende Änderungen die Netzwerkkonnektivität unterbrechen können. Klicken Sie zum Speichern Ihrer Änderungen und zum Fortfahren auf Yes (Ja). Um den Funktionsumfang des Switches für die virtuelle Maschine nutzen zu können, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator>...
  • Seite 212: Einstellungen Für Vm: Sr-Iov Aktivieren

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Abbildung 11-5. Einstellungen für VM: SR-IOV aktivieren Installieren Sie die QLogic-Treiber für die in der VM erkannten Adapter. Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers (verwenden Sie nicht die enthaltenen Treiber). ANMERKUNG Stellen Sie sicher, dass Sie dasselbe Treiberpaket auf der virtuellen Maschine und dem Host-System verwenden.
  • Seite 213: Geräte-Manager: Vm Mit Qlogic-Adapter

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Windows Nach der Installation der Treiber wird der QLogic-Adapter in der VM aufgelistet. Abbildung 11-6 zeigt ein Beispiel. Abbildung 11-6. Geräte-Manager: VM mit QLogic-Adapter Führen Sie zum Anzeigen der SR-IOV-VF-Details den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator>...
  • Seite 214: Konfigurieren Von Sr-Iov Unter Linux

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Konfigurieren von SR-IOV unter Linux So konfigurieren Sie SR-IOV unter Linux: Rufen Sie die Systemeinrichtung für das Server-BIOS auf und klicken dann auf System BIOS Settings (System-BIOS-Einstellungen). Klicken Sie auf der Seite „System BIOS Settings“ (Sytem-BIOS-Einstellungen) auf Integrated Devices (Integrierte Geräte).
  • Seite 215: Systemeinrichtung: Prozessoreinstellungen Für Sr-Iov

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-8. Systemeinrichtung: Prozessoreinstellungen für SR-IOV Wählen Sie auf der Seite „System Setup“ (Systemeinrichtung) die Option „Device Settings“ (Geräteeinstellungen) aus. Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) Port 1 für den QLogic-Adapter aus. Führen Sie auf der Seite „Device Level Configuration“...
  • Seite 216: Systemeinrichtung Für Sr-Iov: Integrierte Geräte

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-9. Systemeinrichtung für SR-IOV: Integrierte Geräte Klicken Sie auf der Seite „Main Configuration“ (Hauptkonfiguration) auf Finish (Fertigstellen), speichern Sie Ihre Einstellungen und starten Sie das System anschließend neu. So aktivieren und überprüfen Sie die Virtualisierung: Öffnen Sie die Datei und konfigurieren Sie den Parameter grub.conf...
  • Seite 217: Bearbeiten Der Datei „Grub.conf" Für Sr-Iov

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-10. Bearbeiten der Datei „grub.conf“ für SR-IOV Speichern Sie die Datei und starten Sie das System grub.conf anschließend neu. Um zu überprüfen, ob die Änderungen umgesetzt wurden, führen Sie den folgenden Befehl aus: dmesg | grep iommu Das Ergebnis eines erfolgreichen Befehls für die...
  • Seite 218 11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Aktivieren Sie für einen spezifischen Port eine VF-Menge. Führen Sie den folgenden Befehl aus, um beispielsweise 8 VFs auf der PCI-Instanz 04:00.0 (Bus 4, Gerät 0, Funktion 0) zu aktivieren: [root@ah-rh68 ~]# echo 8 > /sys/devices/pci0000:00/0000:00:02.0/0000:04:00.0/sriov_numvfs Überprüfen Sie die Befehlsausgabe (Abbildung...
  • Seite 219: Befehlsausgabe Für Den Befehl „Ip Link Show

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-12. Befehlsausgabe für den Befehl „ip link show“ Weisen Sie MAC-Adressen zu und überprüfen Sie diese: Führen Sie zum Zuweisen einer MAC-Adresse auf der VF den folgenden Befehl aus: ip link set <pf device> vf <vf index> mac <mac address> Stellen Sie sicher, dass die VF-Schnittstelle mit der zugewiesenen Schnittstelle betriebsbereit ist.
  • Seite 220: Rhel68 - Virtuelle Maschine

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter Linux Abbildung 11-13. RHEL68 – Virtuelle Maschine Klicken Sie im linken Fenster des Dialogfelds „Add New Virtual Hardware“ (Neue virtuelle Hardware hinzufügen) (Abbildung 11-14) auf PCI Host Device (PCI-Host-Gerät). Wählen Sie im rechten Fenster ein Host-Gerät aus. Klicken Sie auf Finish (Fertigstellen).
  • Seite 221: Konfigurieren Von Sr-Iov Unter Vmware

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware Abbildung 11-14. Neue virtuelle Hardware hinzufügen Schalten Sie die virtuelle Maschine ein und führen Sie dann den folgenden Befehl aus: check lspci -vv|grep -I ether Installieren Sie die Treiber für die in der VM erkannten Adapter. Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers (verwenden Sie nicht die enthaltenen Treiber).
  • Seite 222 11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware Wählen Sie auf der Seite „Device Settings“ (Geräteeinstellungen) einen Port für den 25-G-Adapter der 41xxx-Serie. Führen Sie auf der Seite „Device Level Configuration“ (Konfiguration auf Geräteebene) (Abbildung 11-2 auf Seite 183) die folgenden Schritte aus: Setzen Sie Virtualization Mode (Virtualisierungsmodus) auf SR-IOV.
  • Seite 223 11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware 0000:05:02.3 Network controller: QLogic Corp. QLogic FastLinQ QL41xQL41xxxxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_3] 0000:05:03.7 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.0_VF_15] 0000:05:0e.0 Network controller: QLogic Corp. QLogic FastLinQ QL41xxx Series 10/25 GbE Controller (SR-IOV VF) [PF_0.5.1_VF_0] 0000:05:0e.1 Network controller: QLogic Corp.
  • Seite 224 11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware false 005:03.6 false 005:03.7 Verbinden Sie VFs wie folgt mit der VM: Schalten Sie die virtuelle Schnitstelle ein und verbinden Sie die VF. (Einige Betriebssysteme unterstützen das Anschließen von VFs an die VM im laufenden Betrieb, also über das Hot-Plug-Verfahren.) Fügen Sie einen Host zur VMware vCenter Server Virtual Appliance (vCSA) hinzu.
  • Seite 225: Vmware-Host - Einstellungen Bearbeiten

    11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware Abbildung 11-15. VMware-Host – Einstellungen bearbeiten Schalten Sie die VM ein und führen Sie dann den Befehl aus, um ifconfig -a zu überprüfen, dass die hinzugefügte Netzwerkschnittstelle aufgeführt wird. AH0054602-01 D...
  • Seite 226 11–SR-IOV-Konfiguration Konfigurieren von SR-IOV unter VMware Installieren Sie die QLogic-Treiber für die in der VM erkannten Adapter. Verwenden Sie die neuesten Treiber Ihres Host-Betriebssystemherstellers (verwenden Sie nicht die enthaltenen Treiber). Es muss die gleiche Treiberversion auf dem Host und der VM installiert sein. Fügen Sie bei Bedarf weitere VFs zur VM hinzu.
  • Seite 227: Nvme-Of-Konfiguration Mit Rdma

    NVMe-oF-Konfiguration mit RDMA Mit der Funktion für den Zugriff auf den nicht-flüchtigen Speicher über Fabrics (NVMe-oF) ist es möglich, die Verwendung alternativer Transportmöglichkeiten auf PCIe zu aktivieren, um die Spanne zu erweitern, über die ein NVMe-Host-Gerät und ein NVMe-Speichertreiber oder Subsystem sich miteinander verbinden können. NVMe-oF definiert eine allgemeine Architektur, die einen Bereich von Speichernetzwerk-Fabrics für das NVMe-Block-Speicherprotokoll über einen Speichernetzwerk-Fabric unterstützt.
  • Seite 228: Nvme-Of-Netzwerk

    12–NVMe-oF-Konfiguration mit RDMA Abbildung 12-1 stellt ein Beispielnetzwerk dar. Adapter der 41xxx-Serie Adapter der 41xxx-Serie Abbildung 12-1. NVMe-oF-Netzwerk Der NVMe-oF-Konfigurationsprozess umfasst die folgenden Verfahren: Installieren von Gerätetreibern auf beiden Servern Konfigurieren des Zielservers Konfigurieren des Initiatorservers Vorbehandeln des Zielservers Testen der NVMe-oF-Geräte Optimieren der Leistung AH0054602-01 D...
  • Seite 229: Installieren Von Gerätetreibern Auf Beiden Servern

    12–NVMe-oF-Konfiguration mit RDMA Installieren von Gerätetreibern auf beiden Servern Installieren von Gerätetreibern auf beiden Servern Installieren Sie nach der Installation Ihres Betriebssystems (RHEL 7.4 oder SLES 12 SP3) die Gerätetreiber auf beiden Servern. Installieren und laden Sie die FastLinQ-Treiber (QED, QEDE, libqedr/QEDR), indem Sie allen Installationsanweisungen in der Infodatei folgen.
  • Seite 230: Beschreibung

    12–NVMe-oF-Konfiguration mit RDMA Konfigurieren des Zielservers Legen Sie die unter Tabelle 12-1 aufgelisteten Zielparameter fest. Tabelle 12-1. Zielparameter Befehl Beschreibung # echo 1 > attr_allow_any_host Ermöglichen Sie es allen Hosts, eine Verbindung aufzubauen. # mkdir namespaces/1 Erstellen Sie einen Namespace. Legen Sie den NVMe-Gerätepfad fest.
  • Seite 231: Konfigurieren Des Initiatorservers

    12–NVMe-oF-Konfiguration mit RDMA Konfigurieren des Initiatorservers Bestätigen Sie wie folgt, dass das NVMe-Ziel auf dem Port hört: # dmesg | grep nvmet_rdma [ 8769.470043] nvmet_rdma: enabling port 1 (1.1.1.1:4420) Konfigurieren des Initiatorservers Sie konfigurieren den Initiator-Server nach dem Neustartprozess. Sobald der Server betriebsbereit ist, ist für alle Änderungen an der Konfiguration ein Neustart erforderlich.
  • Seite 232: Subsystem-Nqn

    12–NVMe-oF-Konfiguration mit RDMA Konfigurieren des Initiatorservers Abbildung 12-2. Subsystem-NQN Stellen Sie anhand der NQN eine Verbindung zum ermittelten NVMe-oF-Ziel (nvme-qlogic-tgt1) her. Führen Sie den folgenden Befehl nach jedem einzelnen Server-Neustart aus. Zum Beispiel: # nvme connect -t rdma -n nvme-qlogic-tgt1 -a 1.1.1.1 -s 1023 Bestätigen Sie wie folgt die NVMe-oF-Zielverbindung mit dem NVMe-oF-Gerät: # dmesg | grep nvme...
  • Seite 233: Vorbehandeln Des Zielservers

    12–NVMe-oF-Konfiguration mit RDMA Vorbehandeln des Zielservers Vorbehandeln des Zielservers NVMe-Zielserver, die vorkonfiguriert getestet werden, zeigen eine höhere Leistung als erwartet. Bevor Sie einen Benchmarking-Test durchführen, muss der Zielserver zunächst vorausgefüllt oder vorbehandelt werden. So behandeln Sie den Zielserver vor: Führen Sie ein sicheres Löschen (Secure-Erase) des Zielservers mit anbieterspezifischen Werkzeugen (ähnlich dem Formatieren) durch.
  • Seite 234: Optimieren Der Leistung

    12–NVMe-oF-Konfiguration mit RDMA Optimieren der Leistung --ioengine=libaio --bs=4k --iodepth=1 --numjobs=1 --runtime=60 --group_reporting --name=temp.out FIO meldet zwei Latenztypen: Übermittlung und Fertigstellung. Die Übermittlungslatenz (submission latency, slat) misst die Latenz von der Anwendung zum Kernel. Die Fertigstellungslatenz (completion latency, clat) misst die durchgängige Kernel-Latenz. Das branchenweit anerkannte Verfahren muss clat percentiles im 99.
  • Seite 235: Irq-Affinität (Multi_Rss-Affin.sh)

    12–NVMe-oF-Konfiguration mit RDMA Optimieren der Leistung Konfigurieren Sie die Linux-Kernel-Parameter durch das Bearbeiten der Datei (/etc/default/grub). grub Fügen Sie Parameter an das Ende der Zeile GRUB_CMDLINE_LINUX hinzu: GRUB_CMDLINE_LINUX="nosoftlockup intel_idle.max_cstate=0 processor.max_cstate=1 mce=ignore_ce idle=poll" Speichern Sie die grup-Datei. Stellen Sie die -Datei wieder her. Um die -Datei für einen grub grub...
  • Seite 236: Cpu-Intervall (Cpufreq.sh)

    12–NVMe-oF-Konfiguration mit RDMA Optimieren der Leistung LASTCPU='cat /proc/cpuinfo | grep processor | tail -n1 | cut -d":" -f2' MAXCPUID='echo 2 $LASTCPU ^ p | dc' OFFSET='echo 2 $OFFSET ^ p | dc' FACTOR='echo 2 $FACTOR ^ p | dc' CPUID=1 for eth in $*;...
  • Seite 237 12–NVMe-oF-Konfiguration mit RDMA Optimieren der Leistung sysctl -w net.ipv4.tcp_rmem="4096 87380 16777216" sysctl -w net.core.wmem_max=16777216 sysctl -w net.core.rmem_max=16777216 sysctl -w net.core.wmem_default=16777216 sysctl -w net.core.rmem_default=16777216 sysctl -w net.core.optmem_max=16777216 sysctl -w net.ipv4.tcp_low_latency=1 sysctl -w net.ipv4.tcp_timestamps=0 sysctl -w net.ipv4.tcp_sack=1 sysctl -w net.ipv4.tcp_window_scaling=0 sysctl -w net.ipv4.tcp_adv_win_scale=1 ANMERKUNG Die folgenden Befehle gelten nur für den Initiatorserver.
  • Seite 238: Windows Server 2016

    Windows Server 2016 Dieser Abschnitt enthält die folgenden Informationen zu Windows Server 2016:  Konfigurieren von RoCE-Schnittstellen mit Hyper-V  RoCE über Switch – Eingebettetes Teaming  Konfigurieren von QoS für RoCE Konfigurieren von VMMQ   Konfigurieren von VXLAN ...
  • Seite 239: Erstellen Eines Virtuellen Hyper-V-Switches Mit Einer Virtuellen Rdma-Nic

    13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V Erstellen eines virtuellen Hyper-V-Switches mit einer virtuellen RDMA-NIC Führen Sie die in diesem Abschnitt beschriebenen Schritte aus, um einen virtuellen Hyper-V-Switch zu erstellen und RDMA in der VNIC zu aktivieren. So erstellen Sie einen virtuellen Hyper-V-Switch mit einer virtuellen RDMA-NIC: Starten Sie Hyper-V Manager.
  • Seite 240: Eigenschaften Für Den Virtuellen Hyper-V-Ethernet-Adapter

    13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V So aktivieren Sie RDMA auf einer virtuellen Host-NIC: Öffnen Sie das Fenster „Hyper-V Virtual Ethernet Adapter Properties“ (Eigenschaften für den virtuellen Hyper-V-Ethernet-Adapter). Klicken Sie auf die Registerkarte Advanced (Erweitert). Führen Sie auf der Seite „Advanced“ (Erweitert) (Abbildung 13-2) die folgenden Schritte aus:...
  • Seite 241: Hinzufügen Einer Vlan-Id Zu Einer Virtuellen Host-Nic

    13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V Hinzufügen einer VLAN-ID zu einer virtuellen Host-NIC So fügen Sie eine VLAN-ID zu einer virtuellen Host-NIC hinzu: Um den Namen der virtuellen Host-NIC zu ermitteln, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator>...
  • Seite 242: Hinzufügen Von Virtuellen Host-Nics (Virtuelle Ports)

    13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V Abbildung 13-4. Windows PowerShell-Befehl: Get-NetAdapterRdma Hinzufügen von virtuellen Host-NICs (virtuelle Ports) So fügen Sie virtuelle Host-NICs hinzu: Um eine virtuelle Host-NIC hinzuzufügen, führen Sie den folgenden Befehl aus: Add-VMNetworkAdapter -SwitchName "New Virtual Switch" -Name SMB - ManagementOS Aktivieren Sie RDMA auf den virtuellen Host-NICs wie unter „So aktivieren...
  • Seite 243: Zähler Hinzufügen - Dialogfeld

    13–Windows Server 2016 Konfigurieren von RoCE-Schnittstellen mit Hyper-V Abbildung 13-5. Zähler hinzufügen – Dialogfeld Wenn der RoCE-Datenverkehr ausgeführt wird, werden Zähler gemäß dem Beispiel in Abbildung 13-6 angezeigt. Abbildung 13-6. Leistungsüberwachung zeigt den RoCE-Datenverkehr AH0054602-01 D...
  • Seite 244: Roce Über Switch - Eingebettetes Teaming

    13–Windows Server 2016 RoCE über Switch – Eingebettetes Teaming RoCE über Switch – Eingebettetes Teaming Switch Embedded Teaming (SET) ist die alternative NIC-Teaming-Solution von Microsoft, die Sie in Umgebungen mit Hyper-V und dem Software-Defined Networking (SDN)-Stapel in Windows Server 2016 Technical Preview verwenden können.
  • Seite 245: Aktivieren Von Rdma Auf Set

    13–Windows Server 2016 RoCE über Switch – Eingebettetes Teaming Aktivieren von RDMA auf SET So aktivieren Sie RDMA auf SET: Führen Sie zum Anzeigen von SET auf dem Adapter den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator> Get-NetAdapter "vEthernet (SET)" Abbildung 13-8 zeigt die Befehlsausgabe.
  • Seite 246: Konfigurieren Von Qos Für Roce

    13–Windows Server 2016 Konfigurieren von QoS für RoCE Konfigurieren von QoS für RoCE Sie können aus den folgenden zwei Verfahren für die Konfiguration bei der Servicequalität (Quality of Service, QoS) auswählen:  Konfigurieren von QoS durch Deaktivieren von DCBX auf dem Adapter ...
  • Seite 247: Erweiterte Eigenschaften: Qos Aktivieren

    13–Windows Server 2016 Konfigurieren von QoS für RoCE Abbildung 13-9. Erweiterte Eigenschaften: QoS aktivieren Weisen Sie der Schnittstelle wie folgt die VLAN-ID zu: Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte Advanced (Erweitert). Wählen Sie auf der Seite „Advanced properties“ (Erweiterte Eigenschaften) des Adapters (Abbildung 13-10) unter Property...
  • Seite 248: Erweiterte Eigenschaften: Einstellen Der Vlan-Id

    13–Windows Server 2016 Konfigurieren von QoS für RoCE Abbildung 13-10. Erweiterte Eigenschaften: Einstellen der VLAN-ID Um die prioritätsbasierte Flusskontrolle für RoCE auf einer bestimmten Priorität zu aktivieren, führen Sie den folgenden Befehl aus: PS C:\Users\Administrators> Enable-NetQoSFlowControl -Priority 4 ANMERKUNG Weisen Sie bei der Konfiguration von RoCE über Hyper-V der physischen Schnittstelle keine VLAN-ID zu.
  • Seite 249 13–Windows Server 2016 Konfigurieren von QoS für RoCE True Global False Global False Global False Global Um QoS zu konfigurieren und jedem Datenverkehrstyp die relevante Priorität zuzuweisen, führen Sie die folgenden Befehle aus (wobei „Priority 4“ (Priorität 4) für RoCE und „Priority 0“ (Priorität 0) für TCP gekennzeichnet ist): PS C:\Users\Administrators>...
  • Seite 250: Konfigurieren Von Qos Durch Aktivieren Von Dcbx Auf Dem

    13–Windows Server 2016 Konfigurieren von QoS für RoCE Name Algorithm Bandwidth(%) Priority PolicySet IfIndex IfAlias ---- --------- ------------ -------- --------- ------- ------- [Default] 2-3,5-7 Global RDMA class Global TCP class Global Um die Servicequalität (QoS) für den Netzwerkadapter in der vorherigen Konfiguration anzuzeigen, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator>...
  • Seite 251 13–Windows Server 2016 Konfigurieren von QoS für RoCE So konfigurieren Sie QoS durch Aktivieren von DCBX: Aktivieren Sie DCBX (IEEE, CEE oder Dynamic (Dynamisch)). Setzen Sie den Wert für RoCE Priority (RoCE-Priorität) unter Verwendung von HII auf 0. Führen Sie zum Installieren der DCB-Rolle in den Host den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrators>...
  • Seite 252: Erweiterte Eigenschaften: Aktivieren Von Qos

    13–Windows Server 2016 Konfigurieren von QoS für RoCE Abbildung 13-11. Erweiterte Eigenschaften: Aktivieren von QoS Weisen Sie der Schnittstelle (für PFC erforderlich) wie folgt die VLAN-ID zu: Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte Advanced (Erweitert). Wählen Sie auf der Seite „Advanced properties“ (Erweiterte Eigenschaften) des Adapters (Abbildung 13-12) unter Property...
  • Seite 253: Erweiterte Eigenschaften: Einstellen Der Vlan-Id

    13–Windows Server 2016 Konfigurieren von QoS für RoCE Abbildung 13-12. Erweiterte Eigenschaften: Einstellen der VLAN-ID Um den Switch zu konfigurieren, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrators> Get-NetAdapterQoS Name : Ethernet 5 Enabled : True Capabilities Hardware Current -------- ------- MacSecBypass...
  • Seite 254: Konfigurieren Von Vmmq

    13–Windows Server 2016 Konfigurieren von VMMQ RemoteTrafficClasses : TC TSA Bandwidth Priorities -- --- --------- ---------- 0 ETS 0-3,5-7 1 ETS RemoteFlowControl : Priority 4 Enabled RemoteClassifications : Protocol Port/Type Priority -------- --------- -------- NetDirect 445 ANMERKUNG Das vorherige Beispiel gilt, wenn der Adapter-Port mit einem Arista 7060X-Switch verbunden ist.
  • Seite 255: Aktivieren Von Vmmq Auf Dem Adapter

    13–Windows Server 2016 Konfigurieren von VMMQ Aktivieren von VMMQ auf dem Adapter So aktivieren Sie VMMQ auf dem Adapter: Klicken Sie im Fenster „Miniport“ (Miniport) auf die Registerkarte Advanced (Erweitert). Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften) (Abbildung 13-13) unter Property (Eigenschaft) die Option Virtual Switch RSS (RSS für virtuellen Switch) und setzen Sie den Wert auf Enabled (Aktiviert).
  • Seite 256: Erstellen Eines Switches Für Eine Virtuelle Maschine Mit Oder Ohne

    13–Windows Server 2016 Konfigurieren von VMMQ Wählen Sie auf der Seite „Advanced Properties“ (Erweiterte Eigenschaften) (Abbildung 13-14) unter Property (Eigenschaft) eine der folgenden Optionen aus:  VMMQ Max QPs – Standard-VPort VMMQ Max QPs – Nicht-Standard-VPort  Passen Sie Wert für die ausgewählte Eigenschaften ggf. an. Abbildung 13-14.
  • Seite 257: Manager Für Virtuellen Switch

    13–Windows Server 2016 Konfigurieren von VMMQ Unter Connection type (Verbindungstyp): Klicken Sie auf External network (Externes Netzwerk). Aktivieren Sie das Kontrollkästchen Allow management operating system to share this network adapter (Verwaltungsbetriebssystem die Freigabe dieses Netzwerkadapters genehmigen). Abbildung 13-15. Manager für virtuellen Switch Klicken Sie auf OK.
  • Seite 258: Aktivieren Von Vmmq Auf Dem Switch Für Die Virtuelle Maschine

    13–Windows Server 2016 Konfigurieren von VMMQ Aktivieren von VMMQ auf dem Switch für die virtuelle Maschine So aktivieren Sie VMMQ auf dem Switch für die virtuelle Maschine:  Führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrators> Set-VMSwitch -name q1 -defaultqueuevmmqenabled $true -defaultqueuevmmqqueuepairs 4 Abrufen der Funktionen für den Switch der virtuellen Maschine So rufen Sie die Funktionen für den Switch der virtuellen Maschine ab:...
  • Seite 259: Erstellen Einer Vm Und Aktivieren Von Vmmq Auf Vm- Netzwerkadaptern In Der Vm

    13–Windows Server 2016 Konfigurieren von VMMQ Erstellen einer VM und Aktivieren von VMMQ auf VM-Netzwerkadaptern in der VM So erstellen Sie eine virtuelle Maschine (VM) und aktivieren VMMQ auf VM-Netzwerkadaptern in der virtuellen Maschine: Erstellen Sie eine VM. Fügen Sie den VM-Netzwerkadapter zur VM hinzu. Weisen Sie einen virtuellen Switch zum VM-Netzwerkadapter hinzu.
  • Seite 260: Virtuelle Standard- Und Maximum Vmmq-Nic

    13–Windows Server 2016 Konfigurieren von VMMQ Ethernet 3 00-15-5D-36-0A-05 Activated Adaptive Ethernet 3 00-15-5D-36-0A-06 Activated Adaptive Name MacAddress ProcMask State QPairs ---- ---------- -------- ----- ------ Ethernet 3 00-15-5D-36-0A-07 Activated Adaptive Ethernet 3 00-15-5D-36-0A-08 0:16 Activated Adaptive Ethernet 3 00-15-5D-36-0A-09 Activated Adaptive Ethernet 3...
  • Seite 261: Überwachen Der Datenverkehrsstatistik

    13–Windows Server 2016 Konfigurieren von VXLAN PS C:\Users\Administrator> Set-VMNetworkAdapter –ManagementOS –vmmqEnabled $false Eine VMMQ ist auch für den kürzesten, ersten offenen Multicast-Pfad (MOSPF) verfügbar. Überwachen der Datenverkehrsstatistik Um den Datenverkehr der virtuellen Funktion auf einer virtuellen Maschine zu überwachen, führen Sie den folgenden Windows PowerShell-Befehl aus: PS C:\Users\Administrator>...
  • Seite 262: Implementieren Eines Software Defined Network

    13–Windows Server 2016 Konfigurieren von VXLAN Abbildung 13-17. Erweiterte Eigenschaften: Aktivieren von VXLAN Setzen Sie das Feld Value (Wert) auf Enabled (Aktiviert). Klicken Sie auf OK. Implementieren eines Software Defined Network Um die Funktion der Offload-VXLAN-Verkapselung auf virtuellen Maschinen vollständig zu nutzen, müssen Sie einen Stapel für ein Software Defined Network (SDN) implementieren, das einen Microsoft-Netzwerk-Controller verwendet.
  • Seite 263: Konfigurieren Der Funktion „Direkte Speicherplätze

    13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Konfigurieren der Funktion „Direkte Speicherplätze“ Mit Windows Server 2016 wird die Funktion „Direkte Speicherplätze“ eingeführt. Mit dieser Funktion können Sie hoch verfügbare und skalierbare Speichersysteme mit lokalem Speicher aufbauen. Weitere Informationen finden Sie unter dem folgenden Microsoft TechnNet-Link: https://technet.microsoft.com/en-us/windows-server-docs/storage/storage-spaces /storage-spaces-direct-windows-server-2016 Konfigurieren der Hardware...
  • Seite 264: Implementieren Eines Hyper-Konvergenzsystems

    13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Implementieren eines Hyper-Konvergenzsystems In diesem Abschnitt finden Sie Anweisungen für die Installation und Konfiguration der Komponenten eines Hyper-Konvergenzsystems über Windows Server 2016. Die eigentliche Bereitstellung eines Hyper-Konvergenzsystems kann in die folgenden drei übergeordneten Phasen unterteilt werden: ...
  • Seite 265 13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Aktivieren Sie den Switch-Port und stellen Sie sicher, dass der Switch-Port den Switch-unabhängigen Teaming-Modus unterstützt und Teil mehrerer VLAN-Netzwerk ist. Beispiel für eine Dell Switch-Konfiguration: no ip address mtu 9416 portmode hybrid switchport...
  • Seite 266 13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_1 – managementOS Add-VMNetworkAdapter –SwitchName SETswitch –Name SMB_2 – managementOS ANMERKUNG Die vorherigen Befehle konfigurieren die virtuelle NIC aus dem virtuellen Switch, den Sie soeben für das zu verwendende Verwaltungsbetriebssystem konfiguriert haben.
  • Seite 267: Konfigurieren Der Funktion „Direkte Speicherplätze

    13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Konfigurieren der Funktion „Direkte Speicherplätze“ Die Konfiguration der Funktion „Direkte Speicherplätze“ in Windows Server 2016 umfasst die folgenden Schritte:  Schritt 1. Ausführen des Clustervalidierungswerkzeugs Schritt 2. Erstellen eines Clusters   Schritt 3.
  • Seite 268 13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Weitere Informationen finden Sie unter: https://blogs.msdn.microsoft.com/clustering/2014/03/31/configuring-a-file-share- witness-on-a-scale-out-file-server/ Schritt 4. Säubern der für die Funktion „Direkte Speicherplätze“ verwendeten Festplatten Die Festplatten, die für die Funktion „Direkte Speicherplätze“ verwendet werden sollen, müssen leer sein und dürfen keine Partitionen oder andere Daten aufweisen.
  • Seite 269 13–Windows Server 2016 Konfigurieren der Funktion „Direkte Speicherplätze“ Get-Disk |? Number -ne $null |? IsBoot -ne $true |? IsSystem -ne $true |? PartitionStyle -eq RAW | Group -NoElement -Property FriendlyName } | Sort -Property PsComputerName,Count Schritt 5. Aktivieren der Funktion „Direkte Speicherplätze“ Führen Sie nach der Erstellung des Clusters das cmdlet Windows PowerShell aus.
  • Seite 270: Implementieren Und Verwalten Eines Nano-Servers

    13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Implementieren und Verwalten eines Nano-Servers Windows Server 2016 bietet den Nano-Server als neue Installationsoption an. Nano-Server ist ein remote verwaltetes Server-Betriebssystem, das für private Clouds und Rechenzentren optimiert wurde. Es ähnelt Windows Server im Server Core-Modus, es ist jedoch deutlich kleiner, verfügt nicht über eine lokale Anmeldefunktion und unterstützt nur 64-Bit-Anwendungen, -Werkzeuge und -Agenten.
  • Seite 271 13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Tabelle 13-1. Rollen sowie Merkmale und Funktionen bei Nano-Servern (fortgesetzt) Rollen oder Merkmale und Funktionen Optionen DNS-Serverrolle -Packages Microsoft-NanoServer-DNSPackage (-Packages Microsoft-NanoServer-DNS- SNIA-API-Bibliothekspaket) Desired State Configuration (DSC) -Packages Microsoft-NanoServer-DSCPackage (-Packages Microsoft-NanoServer-DSC- SNIA-API-Bibliothekspaket) Internet Information Server (IIS) -Packages Microsoft-NanoServer-IISPackage (-Packages Microsoft-NanoServer-DSC-...
  • Seite 272: Implementieren Eines Nano-Servers Auf Einem Physischen Server

    13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers In den nächsten Abschnitten wird beschrieben, wie das Nano-Server-Image mit den erforderlichen Paketen konfiguriert wird und wie zusätzliche, für QLogic-Geräte spezifische Gerätetreiber hinzugefügt werden. Außerdem wird erläutert, wie die Nano-Server-Wiederherstellungskonsole verwendet, ein Nano-Server per remote verwaltet und der Ntttcp-Datenverkehr über einen Nano-Server ausgeführt wird.
  • Seite 273 13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers -DriversPath "<Path to Qlogic Driver sets>" Beispiel: New-NanoServerImage –DeploymentType Host –Edition Datacenter -MediaPath C:\tmp\TP4_iso\Bld_10586_iso -BasePath ".\Base" -TargetPath "C:\Nano\PhysicalSystem\Nano_phy_vhd.vhd" -ComputerName "Nano-server1" –Compute -Storage -Cluster -OEMDrivers -DriversPath "C:\Nano\Drivers" In den vorherigen Beispielen steht für den Pfad der C:\Nano\Drivers QLogic-Treiber.
  • Seite 274: Implementieren Eines Nano-Servers In Einer Virtuellen Maschine

    13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers So kopieren Sie das virtuelle Festplattenlaufwerk auf den physischen Server und konfigurieren es zum Starten über das neue virtuelle Festplattenlaufwerk: Gehen Sie zu Computer Management > Storage > Disk Management (Computerverwaltung > Speicher > Festplattenverwaltung). Klicken Sie mit der rechten Maustaste auf Disk Management (Festplattenverwaltung) und wählen Sie Attach VHD (Virtuelles Festplattenlaufwerk anhängen) aus.
  • Seite 275 13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Starten Sie Windows PowerShell als Administrator. Ändern Sie das Verzeichnis in einen Ordner, in den Sie die Dateien aus Schritt 3 einfügen. Importieren Sie das NanoServerImageGenerator-Script, indem Sie den folgenden Befehl ausführen: Import-Module .\NanoServerImageGenerator.psm1 -Verbose Führen Sie den folgenden Windows PowerShell-Befehl aus, um ein virtuelles Festplattenlaufwerk zu erstellen, das einen Computernamen...
  • Seite 276: Verwalten Eines Nano-Servers Über Eine Remote-Verbindung

    13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers INFO : Image 1 selected (ServerTuva)... INFO : Creating sparse disk... INFO : Attaching VHD... INFO : Initializing disk... INFO : Creating single partition... INFO : Formatting windows volume... INFO : Windows path (G:) has been assigned. INFO : System volume location: G: INFO...
  • Seite 277: Verwalten Eines Nano-Servers Über Die Windows Powershell-Remote-Verwaltung

    13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Verwalten eines Nano-Servers über die Windows PowerShell-Remote-Verwaltung So verwalten Sie einen Nano-Server über die Windows PowerShell-Remote-Verwaltung: Fügen Sie die IP-Adresse des Nano-Servers zur Liste der vertrauenswürdigen Hosts Ihres Verwaltungscomputers hinzu. ANMERKUNG Verwenden Sie die Wiederherstellungskonsole, um die Server-IP-Adresse zu ermitteln.
  • Seite 278: Verwalten Von Qlogic-Adaptern Auf Einem Windows-Nano-Server

    13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Sie können nun wie gewohnt Windows PowerShell-Befehle auf dem Nano-Server ausführen. Nicht alle Windows PowerShell-Befehle sind jedoch in dieser Version des Nano-Servers verfügbar. Um zu ermitteln, welche Befehle verfügbar sind, führen Sie den Befehl aus.
  • Seite 279: Windows Powershell-Befehl: Get-Netadapterrdma

    13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers Abbildung 13-19 zeigt ein Beispiel für die Ausgabe. Abbildung 13-19. Windows PowerShell-Befehl: Get-NetAdapter Führen Sie zum Überprüfen, ob RDMA auf dem Adapter aktiviert ist, den folgenden Windows PowerShell-Befehl aus: [172.28.41.152]: PS C:\Users\Administrator\Documents> Get-NetAdapterRdma Abbildung 13-20 zeigt ein Beispiel für die Ausgabe.
  • Seite 280: Windows Powershell-Befehl: New-Smbshare

    13–Windows Server 2016 Implementieren und Verwalten eines Nano-Servers [172.28.41.152]: PS C:\> New-SMBShare -Name "smbshare" -Path c:\smbshare -FullAccess Everyone Abbildung 13-22 zeigt ein Beispiel für die Ausgabe. Abbildung 13-22. Windows PowerShell-Befehl: New-SMBShare Um die SMB-Freigabe als Netzwerklaufwerk der Client-Maschine zuzuordnen, führen Sie den folgenden Windows PowerShell-Befehl aus: ANMERKUNG Die IP-Adresse einer Schnittstelle auf dem Nano-Server lautet 192.168.10.10.
  • Seite 281: Fehlerbehebung

    Fehlerbehebung In diesem Abschnitt finden Sie die folgenden Informationen zur Fehlerbehebung:  Fehlerbehebung – Checkliste  Überprüfen der geladenen Treiber  Testen der Netzwerkanbindung Microsoft Virtualization mit Hyper-V   Linux-spezifische Probleme  Sonstige Probleme  Erfassen von Fehlerbehebungsdaten Fehlerbehebung – Checkliste VORSICHT! Lesen Sie den Abschnitt „Sicherheitsvorkehrungen“...
  • Seite 282: Überprüfen Der Geladenen Treiber

    14–Fehlerbehebung Überprüfen der geladenen Treiber  Versuchen Sie, den Adapter in einem anderen Steckplatz zu installieren. Wenn die neue Installationsposition funktioniert, ist unter Umständen der ursprüngliche Systemsteckplatz defekt.  Tauschen Sie den nicht funktionierenden Adapter gegen einen Adapter aus, von dem Sie wissen, dass er korrekt funktioniert. Wenn der zweite Adapter in dem Steckplatz funktioniert, in dem der erste Adapter nicht betrieben werden konnte, ist der erste Adapter vermutlich defekt.
  • Seite 283: Überprüfen Von Treibern In Vmware

    14–Fehlerbehebung Testen der Netzwerkanbindung Sie können auch den folgenden Befehl ausgeben: [root@test1]# ethtool -i eth2 driver: qede version: 8.4.7.0 firmware-version: mfw 8.4.7.0 storm 8.4.7.0 bus-info: 0000:04:00.2 Wenn Sie einen neuen Treiber geladen, das System aber noch nicht neu gestartet haben, zeigt Ihnen der Befehl nicht die aktualisierten Treiberinformationen modinfo an.
  • Seite 284: Testen Der Netzwerkkonnektivität Für Windows

    14–Fehlerbehebung Testen der Netzwerkanbindung Testen der Netzwerkkonnektivität für Windows Testen Sie die Netzwerkkonnektivität über den Befehl ping Gehen Sie wie folgt vor, um zu bestimmen, ob die Netzwerkkonnektivität betriebsbereit ist: Klicken Sie auf Start und anschließend Run (Ausführen). Geben Sie in das Feld Open (Öffnen) cmd ein und klicken Sie dann auf OK. Geben Sie den folgen Befehl aus, um die zu testende Netzwerkverbindung anzuzeigen: ipconfig /all...
  • Seite 285: Microsoft Virtualization Mit Hyper-V

    14–Fehlerbehebung Microsoft Virtualization mit Hyper-V Microsoft Virtualization mit Hyper-V Microsoft Virtualization ist ein Hypervisor-basiertes Virtualisierungssystem für Windows Server 2012 R2. Weitere Informationen zu Hyper-V finden Sie unter: https://technet.microsoft.com/en-us/library/Dn282278.aspx Linux-spezifische Probleme Problem: Beim Kompilieren von Treiberquellcode werden Fehlermeldungen ausgegeben. Lösung: Bei einigen Installationen von Linux-Distributionen werden die Entwicklungs-Tools und Kernel-Quellen nicht standardmäßig mit installiert.
  • Seite 286 14–Fehlerbehebung Erfassen von Fehlerbehebungsdaten Tabelle 14-1. Befehle zum Erfassen von Fehlerbehebungsdaten (fortgesetzt) Fehlerbehe- Beschreibung bungsdaten Registerdump ethtool Systeminformationen; werden im Treiberbündel sys_info.sh bereitgestellt AH0054602-01 D...
  • Seite 287: Adapter-Leds

    Adapter-LEDS Tabelle A-1 führt die LED-Anzeigen für den Verbindungs- und Aktivitätsstatus des Adapter-Ports auf. Tabelle A-1. Adapter-Port – Verbindungs- und Aktivitäts-LED Port-LED LED-Anzeige Netzwerkstatus Link-LED Keine Verbindung (Kabel abgetrennt) Leuchtet konstant Verbindung Aktivitäts-LED Keine Port-Aktivität Blinkend Port-Aktivität AH0054602-01 D...
  • Seite 288: Kabel Und Optische Module

    Kabel und optische Module In diesem Anhang finden Sie die folgenden Informationen zu den unterstützten Kabeln und optischen Modulen:  Unterstützte Spezifikationen  Getestete Kabel und optische Module Unterstützte Spezifikationen Adapter der 41xxx-Serie unterstützt eine Vielzahl von Kabeln und optischen Modulen, die mit SFF8024 kompatibel sind.
  • Seite 289: Getestete Kabel Und Optische Module

    Komponenten getestet und stellt Ihnen diese Liste zur Verfügung. Tabelle B-1. Getestete Kabel und optische Module Geschwin- Kabel- digkeit/ Hersteller Teilenummer Breite länge Formfaktor Kabel 407-BBBK SFP+10G-an-SFP+10G Dell 407-BBBI SFP+10G-an-SFP+10G 10G DAC 407-BBBP SFP+10G-an-SFP+10G NDCCGF0001 SFP28-25G-an-SFP28-25G NDCCGF0003 SFP28-25G-an-SFP28-25G ® 25G DAC Amphenol...
  • Seite 290 Amphenol NDAQGF-0003 QSFP28-100G-an- 4xSFP28-25G NDAQGJ-0005 QSFP28-100G-an- 100G 4xSFP28-25G DAC-Splitter 026FN3 Rev A00 QSFP28-100G-an- (4 × 25G) 4XSFP28-25G 0YFNDD Rev A00 QSFP28-100G-an- Dell 4XSFP28-25G 07R9N9 Rev A00 QSFP28-100G-an- 4XSFP28-25G 10130795-4050LF QSFP28-100G-an- 4XSFP28-25G Optische Lösungen AFBR-703SMZ SFP+ SR k.A. k.A. Avago AFBR-701SDZ SFP+ LR k.A.
  • Seite 291: Getestete Switches

    Produktveröffentlichung verfügbar waren, und unterliegt Änderungen, sollten neue Switches in den Markt eingeführt oder nicht mehr angeboten werden. Tabelle B-2. Auf Interoperabilität getestete Switches Hersteller Ethernet-Switch-Modell Arista 7060X Nexus 3132 Cisco Nexus 5548 und 5596T Nexus 6000 Dell EMC Z9100 FlexFabric 5950 Mellanox SN2700 AH0054602-01 D...
  • Seite 292 Verhandlungsprozesses muss der Switch jedoch explizit für die Verbindung mit dem Adapter mit 25 GBit/s konfiguriert werden. So konfigurieren Sie einen Dell Z9100-Switch-Port für die Verbindung mit dem Adapter der 41xxx-Serie mit 25 GBit/s: Stellen Sie eine serielle Portverbindung zwischen Ihrer Verwaltungs-Workstation und dem Switch her.
  • Seite 293 9416 switchport flowcontrol rx on tx on no shutdown no intf-type cr4 autoneg Weitere Informationen zur Konfiguration des Dell Z9100-Switch finden Sie im entsprechenden Konfigurationshandbuch Dell Z9100 Switch Configuration Guide auf der Dell Support-Website: support.dell.com AH0054602-01 D...
  • Seite 294: Einschränkungen Bei Merkmalen Und Funktionen

    Einschränkungen bei Merkmalen und Funktionen Dieser Anhang bietet Informationen zu den in der aktuellen Version vorhandenen Einschränkungen bei den Merkmalen und Funktionen. Die folgenden Einschränkungen in Bezug auf nebeneinander existierende Merkmale werden möglicherweise mit einer künftigen Version gelöst. Sie können die Kombinationen aus Merkmalen und Funktionen künftig ohne zusätzliche Konfigurationsschritte verwenden und müssen nur die zur Aktivierung dieser Merkmale und Funktionen gewöhnlich erforderlichen Schritte ausführen.
  • Seite 295: Npar-Konfiguration Wird Nicht Unterstützt, Wenn Sr-Iov Bereits Konfiguriert Wurde

    D–Einschränkungen bei Merkmalen und Funktionen NPAR-Konfiguration wird nicht unterstützt, wenn SR-IOV bereits konfiguriert wurde Wenn SR-IOV bereits konfiguriert wurde, ist die NPAR-Konfiguration nur zulässig, wenn SR-IOV zunächst deaktiviert wird.  NPAR wird entweder über HII- oder QLogic-Verwaltungswerkzeuge konfiguriert. Wenn NPAR aktiviert ist, wird die Konfiguration auf Geräte- und Adapterebene für mehrere PCIe-Funktionen auf allen Ports des Adapters aufgelistet.
  • Seite 296 Glossar ACPI Bandbreite Die Spezifikation Advanced Configuration Die Bandbreite ist eine Maßeinheit für das and Power Interface (ACPI) (Schnittstelle Datenvolumen, das bei einer bestimmten für erweiterte Konfiguration und Übertragungsrate übertragen werden Stromversorgung) bietet einen offenen kann. Abhängig vom angeschlossenen Standard für einheitliche/s Gerät kann ein Fibre-Channel-Port mit betriebssystembezogene/s 1 GBit oder 2 GBit Daten mit nominalen...
  • Seite 297 Benutzerhandbuch—Converged Network Adapters 41xxx-Serie BIOS DCBX Basis-Eingabe/Ausgabe-System Data Center Bridging-Austausch. Programm (oder Dienstprogramm), das in Protokoll, das von DCB-Geräten der Regel im Flash PROM als Schnittstelle verwendet wird, um zwischen Hardware und Betriebssystem Konfigurationsinformationen mit direkt fungiert und das Starten über den Adapter angeschlossenen Peers auszutauschen.
  • Seite 298 Benutzerhandbuch—Converged Network Adapters 41xxx-Serie Energieeffizientes Ethernet. Eine Reihe Verbesserte Übertragungsauswahl. von Verbesserungen an der Familie der Standard, der die erweiterte Computer-Netzwerkstandards für Ethernet Übertragungsauswahl festlegt, um die mit verdrillten Kabeln und Backplanes, die Zuteilung von Bandbreite für die einen geringen Stromverbrauch in Zeiten verschiedenen Datenverkehrsklassen zu geringer Datenaktivität ermöglichen.
  • Seite 299 Benutzerhandbuch—Converged Network Adapters 41xxx-Serie Gerät Ziel, in der Regel ein Plattenlaufwerk. Qualifizierter iSCSI-Name. Hardware, wie z. B. Festplattenlaufwerke, iSCSI-Knotenname auf Basis des Bandlaufwerk, Drucker oder Tastatur, die Initiator-Herstellers und einem eindeutigen auf einem verbundenen System installiert Gerätenamen-Abschnitt. ist. In Fibre Channel ein Zielgerät. iSCSI Internet Small Computer Human Interface-Infrastruktur.
  • Seite 300 Benutzerhandbuch—Converged Network Adapters 41xxx-Serie LLDP MSI, MSI-X Ein lieferantenunabhängiges Per Meldung angeforderte Interrupts Eine Schicht-2-Protokoll, mit dem ein von zwei PCI-definierten Erweiterungen Netzwerkgerät seine Identität und für die Unterstützung von per Meldung Funktionen auf dem lokalen Netzwerk angeforderten Interrupts (Message bekannt machen kann.
  • Seite 301 Benutzerhandbuch—Converged Network Adapters 41xxx-Serie NIC-Partitionierung PCI™ Siehe NPAR. Peripheriekomponentenschnittstelle (PCI). Eine lokale 32-Bit-Busspezifikation, die NPAR ® von Intel eingeführt wurde. Partitionierung. Die Aufteilung eines Per Meldung angeforderte Interrupts einzelnen NIC-Ports in mehrere physische Funktionen oder Partitionen, wobei jeder Siehe MSI, MSI-X.
  • Seite 302 Benutzerhandbuch—Converged Network Adapters 41xxx-Serie RISC SCSI Computer mit reduziertem Befehlssatz. Small Computer System-Schnittstelle. Ein Computer-Mikroprozessor, der Eine Hochgeschwindigkeitsschnittstelle, weniger Typen von die zum Anschließen von Geräten an Computeranweisungen durchführt und einen Computer verwendet wird, darunter dadurch schneller arbeitet. Festplattenlaufwerke, CD-Laufwerk, Drucker und Scanner.
  • Seite 303 Benutzerhandbuch—Converged Network Adapters 41xxx-Serie Übertragungssteuerungsprotokoll. Ein User Datagram-Protokoll Ein Regelsatz zum Senden von Daten in verbindungsloses Übertragungsprotokoll Paketen über das Internetprotokoll. ohne Garantie, dass das Paket in der gewünschten Reihenfolge oder überhaupt TCP/IP geliefert wird. Es arbeitet direkt oberhalb Übertragungssteuerungsprotokoll/Internet des IP.
  • Seite 304 Benutzerhandbuch—Converged Network Adapters 41xxx-Serie Virtuelle Maschine Ziel Siehe VM. Der Speichergeräteendpunkt einer SCSI-Sitzung. Die Initiatoren fordern Virtuelle Schnittstelle Daten von Zielen an. Ziele sind in der Siehe VI. Regel Festplattenlaufwerke, Bandlaufwerke oder sonstige Virtuelles logisches Netzwerk Datenträgergeräte. In der Regel ist ein Siehe VLAN.
  • Seite 305 Firmenzentrale Cavium, Inc. 2315 N. First Street San Jose, CA 95131 408-943-7100 Internationale Niederlassungen Großbritannien | Irland | Deutschland | Frankreich | Indien | Japan | China | Hongkong | Singapur | Taiwan | Israel Copyright © 2017, 2018 Cavium, Inc. Weltweit alle Rechte vorbehalten. Die QLogic Corporation ist eine hundertprozentige Tochtergesellschaft im Eigentum von Cavium, Inc. QLogic, FastLinQ, QConvergeConsole und QLogic Control Suite sind eingetragene Markenzeichen vonCavium, Inc.

Inhaltsverzeichnis