40 Gigabit Ethernet: Die Migration hat begonnen

Datennetze verlangen nach immer mehr Geschwindigkeit und größeren Kapazitäten. Nach Ethernet-Verbindungen mit 10 Gigabit kommt 40 Gigabit Ethernet.

Der Bedarf nach mehr Geschwindigkeit und Kapazität in Datennetzen ist nie wirklich befriedigt. Viele Unternehmen...

sind noch dabei, in ihren Netzwerken Ethernet-Verbindungen mit 10 Gigabit zu realisieren, doch Netzwerk-Architekten und -Techniker bereiten bereits die nächste Stufe vor: Frühanwender testen und installieren die erste Generation von Switches und Routern für 40 Gigabit Ethernet (GbE), um dem ewigen Wachstum des Datenvolumens einen Schritt voraus zu sein.

„Wir sehen gelegentliche Traffic-Spitzen, die sich 10 Gbps nähern“, sagt Jeroen van Ingen, Netzwerk-Techniker an der Universität Twente in der niederländischen Stadt Enschede. „Angesichts der Zunahme des Datenverkehrs in den vergangenen Jahren gehen wir davon aus, dass wir innerhalb von 12 bis 24 Monaten mehr Kapazität brauchen. Aus diesem Grund haben wir entschieden, dass das neue Kern-Equipment 40 GbE unterstützen sollte.“

Van Ingen ist nicht der Einzige, der Bedarf nach 40 GbE und mehr prognostiziert. Nach einer Studie der Dell'Oro Group wird der Gesamtmarkt für Ethernet-Switches der Layer 2 und 3 bis 2016 ein Volumen von 25 Milliarden US-Dollar erreichen; 40- und 100-GbE-Produkte sollen sich 3 Milliarden Umsatz annähern. Und nach Daten von Infonetics Research ist der Umsatz mit 40-GbE-Technologie im ersten und im zweiten Quartal dieses Jahres um je 50 Prozent gestiegen. Das Wachstum ergibt sich vor allem durch größere Rechenzentren und den Trend zur Cloud, so die Marktforscher.

Die Universität Twente hat den Kern des Wohnhaus-Teils ihres Campus-Netzwerks vor kurzem mit zwei Catalyst 6500-E Switches von Cisco modernisiert. Diese Switches sind heute mit mehreren 10-GbE-Links vernetzt, aber der Datenverkehr nimmt sprunghaft zu, so dass bald 40 GbE gebraucht werden. Van Ingen testet bereits eine 40-GbE-Verbindung zwischen den beiden Catalyst 6500 und will bald zwei davon in Betrieb nehmen.

Die Nachfrage nach derart hoher Bandbreite ergibt sich aus drei Faktoren: Die Universität nutzt zunehmend Cloud-Dienste und Cloud-Storage, der Video-Traffic in die Studenten-Unterkünfte nimmt zu, und auf Servern der Universität werden mehrere sehr beliebte Open-Source-Projekte gespiegelt.

„Wenn wir nicht immer weiter aufrüsten, wird die Netzwerk-Erfahrung immer schlechter“, sagt van Ingen, „wenn die Verbindungen ausgelastet sind, bevor wir ein Upgrade machen, führt der erhöhte Paket-Verlust zu Fehlermeldungen bei den Anwendungen, zu nicht beendeten Aktionen und allgemein zu weniger Produktivität“.

Bei Verisign Inc. im US-Bundesstaat Virginia werden 2 der 13 Root-Server für das Internet verwaltet. Dort will man voraussichtlich innerhalb von zwei Jahren auf 40 GbE umsteigen, sagt Mike Gibbs, der Netzwerk-Architekt des Unternehmens. Er und sein Team haben schon Beta-Tests der 40-GbE-Funktionen der Catalyst 6500 Supervisor Engine von Cisco vorgenommen. „Als erstes werden die Leute 40 GbE sicher in ihren Qualitätssicherungs- und Labor-Umgebungen installieren“, sagt Gibbs. Denn es sei einfach bequemer, Werkzeuge für Tests und Lasterzeugung über einzelne Verbindungen mit hoher Kapazität zu vernetzen statt über mehrere aggregierte Verbindungen.

Auch Verisign wird bald aggregierte 10-GbE-Verbindungen durch 40 GbE ersetzen müssen, insbesondere zu Geräten für Netzwerk-Dienste wie Load-Balancer oder Firewalls. Bislang sind die meisten dieser Appliances auf dem Markt dafür noch gar nicht ausgelegt, doch die Migration ist unvermeidbar: „Die Kapazität für unsere Infrastruktur muss wachsen, das DNS wächst, und unser Produkt gegen Denial-of-Service wächst, also brauchen wir mehr Bandbreite zwischen den Geräten“, sagt Gibbs.

40 Gigabit Ethernet: Wenn Link-Aggregation nicht mehr ausreicht

Viele Jahre lang war Link-Aggregation ein unverzichtbares Hilfsmittel für Netzwerk-Techniker, ob bei Gigabit- oder 10-GbE-Verbindungen. Ab einem bestimmten Punkt aber ist Aggregation nicht mehr praktikabel, und eine Migration zur nächsten Ethernet-Generation wird erforderlich. Unternehmen, deren Geschäft von Netzwerk-Performance und -Verlässlichkeit abhängt, werden zuerst an diesen Punkt gelangen. Ihnen bleibt dann keine Wahl, als auf 40 GbE zu aktualisieren.

„Es gibt eine Grenze dafür, wie viele 10-Gigabit-Links wir zu einer aggregierten Verbindung zusammennehmen können“, sagt Gibbs. Bei Link-Aggregation gebe es einen Hashing-Mechanismus, damit der Datenverkehr so gut wie möglich verteilt wird, doch der funktioniere nicht bei jedem Anbieter gleich gut. Gibbs: „Vor allem wenn mehrere unterschiedliche Hersteller beteiligt sind, kann man nicht garantieren, dass die Geschwindigkeit über alle Verbindungen gleich ist. Ein einzelner 40-GbE-Link ist deshalb klar zu bevorzugen“.

Link-Aggregation basiert auf dem Standard IEEE 802.1ax, doch der verwendete Hashing-Algorithmus zur Last-Verteilung über mehrere Links ist bei jedem Anbieter anders, erklärt Dhritiman Dasgupta, Leiter des Produkt-Marketings bei Juniper Networks. „Mit 40 Gigabit Ethernet bekommt man garantierte und dedizierte 40 Gigabit Bandbreite, also spielen Hashing-Algorithmen keine Rolle mehr“, so Dasgupta. Wenn Zuverlässigkeit Teil des Geschäfts sei, würden Netzwerk-Profis deshalb zu 40 GbE übergehen – „sie können es sich nicht erlauben, dass Hashing-Algorithmen mit darüber bestimmen, wie lange Transaktionen dauern“.

Der Übergang zu 40 Gigabit Ethernet

Wie bislang bei jedem Ethernet-Standard der nächsten Generation wird auch der Übergang von 10 GbE zu 40 GbE nicht disruptiv verlaufen, sagt Dasgupta. Aus Protokoll-Sicht bleiben TCP, UDP sowie die Protokolle für Layer 2 und Layer 3 unverändert. „Änderungen gibt es nur bei den Kabeln und der Optik an beiden Enden“, erklärt der Juniper-Manager.

Für Verbindungslängen bis zu 100 Meter werden Unternehmen neue Glasfaser-Kabel – OM3 oder OM4 – verlegen müssen, für Verbindungen bis zu 10 Kilometern Duplex-Monomode-Glasfasern. Natürlich werden dadurch auch neue Transceiver nötig, ob SR4 oder LR4.

Viele Unternehmen, die heute noch 10 GbE installieren, denken dabei schon an den Schritt zu 40 GbE. Beispielsweise verwenden sie Glasfaser-Bänder, die auch höhere Bandbreiten übertragen können.

Die Installation von Infrastruktur, die bereit ist für 40 GbE, soll später Zeit und Geld sparen. Dieses Sparpotenzial lässt sich jedoch nur dann realisieren, wenn das Netzwerk-Team die Verkabelung gut in Schuss hält. Denn die Toleranz für Signal-Verluste ist in 40-GbE-Netzen verglichen mit Gigabit-Ethernet und 10 GbE extrem gering, und es kann schwierig sein, Verluste so weitgehend auszuschließen.

„Manche Leute schließen Glasfaser an und lassen sie anschließend nie reinigen oder untersuchen“, sagt Ed Gastle, Produktlinien-Manager bei JDS Uniphase, einem Anbieter von Tests und Messungen an optischer Ausrüstung aus Kalifornien. In solchen Fällen lasse sich die 40-GbE-Verbindung zwar meist noch herstellen und nutzen. Doch es komme zu Fehlern, weil nicht alle Daten intakt eintreffen.

Schlechte Glasfaser-Wartung war auch ein Thema bei der Konferenz Interop Las Vegas im Jahr 2011, berichtet Gastle. Damals wurde das Netzwerk von Gigabit Ethernet auf 10 GbE modernisiert, und JDSU übernahm Tests und Messungen dafür..

„Sie hatten jede Menge Glasfaser verlegt, sie aber nicht sehr gut behandelt“, berichtet Gastle, „nichts wurde je gereinigt oder inspiziert, und dann sollten 10 Gigabit darüber laufen. Und raten Sie mal, was passiert ist: Es hat nicht funktioniert. Dann musste man also dafür sorgen, dass die Stirnflächen nur noch so viele Verluste zulassen, dass 10 Gigabit möglich sind. Ein paar davon konnten wir durch intensives Reinigen retten, aber das hat lange gedauert. Und wenn man die Glasfasern neu terminieren muss, kostet das auch viel Geld.“

Die Migration zu 40 GbE ist bei schlecht gepflegten Glasfasern noch heikler. Weil diese neueste Ethernet-Generation deutlich weniger Verlust-tolerant ist, müssen Unternehmen die Stirnflächen ihrer Glasfaser-Verbindungen genauestens überprüfen und reinigen.

„Wir hören immer häufiger, dass die Systeme bei steigenden Geschwindigkeiten erst gar nicht ins Laufen kommen oder wenn doch, dann mit Problemen“, berichtet Gastle. „Dann beginnen wir mit der Problemsuche und stellen fest, dass das Problem eine schlecht gepflegte Stirnfläche ist. Sie wurde vielleicht so oft verbunden, dass sich Schmutz und Ablagerungen festgesetzt haben. Man muss diese Glasfaser dann neu terminieren.“

Schmutzige Glasfasern an aktive Technik anzuschließen könne zudem Schäden verursachen, warnt Gastle. So sei alles außer blütenreiner Glasfaser eine Gefahr für empfindliche Optiken.

40-GbE-Verbindungen sichern und überwachen

Wenn Netzwerk-Techniker Switches und Router auf 40 GbE umstellen, müssen sie das irgendwann auch für Appliances der Layer 4 bis 7 tun, also etwa für Controller zur Application Delivery, Firewalls oder Controller zur WAN-Optimierung. Ebenfalls müssen sie prüfen, wie gut sich alte Technik noch zur Netzwerk-Überwachung eignet, sei es für Sicherheit oder für Performance.

„Es ist nicht die Link-Geschwindigkeit, um die man sich hier sorgen muss“, erklärt Gibbs von Verisign, der aktuell 40-GbE-Firewalls evaluiert. Stattdessen sei die Frage, ob Systeme wie vor allem Firewalls es schaffen, die Verarbeitung des zwischen ihnen laufenden Datenverkehrs schnell genug zu erledigen. Immerhin müsse jedes Paket mindestens von Layer 3 an bis hinauf zu Layer 7 zumindest kurz überprüft werden – „dafür braucht man eine enorme Menge Rechenleistung“.

Manche Organisationen werden die Übertragungsrate direkt am 40-GbE-Link ablesen wollen. Die University of Texas in Austin etwa hat Paare von hochverfügbaren (HA) Switches des Typs Cisco Nexus 7000 in zwei Rechenzentren installiert. Die Verbindungen zwischen den HA-Paaren und den Rechenzentren sind dabei über 40 GbE realisiert, erklärt Brent Boggan, regionaler Verkaufsmanager bei Ixia, einem kalifornischen Anbieter für Netzwerk-Monitoringtechnik. Ixia hat der Universität dabei geholfen, das Netzwerk für gute Einsehbarkeit auszustatten.

Nach den Worten von Boggan verfügt die Universität in ihren beiden Rechenzentren in Austin über 40-GbE-Links. Ixia hat auf jeder dieser Verbindungen passive optische Taps für 40 GbE angebracht. Deren Monitoring-Ports sind mit einem Switch für die Netzwerk-Überwachung verbunden: dem Anue Net Tool Optimizer (NTO) 5288, der bis zu 40 Gbps an Daten im Vollduplex-Modus verarbeiten kann. Dieser filtert und repliziert den 40 Gbps-Strom und verteilt ihn weiter auf unterschiedliche Werkzeuge für 10 Gbps, darunter mehrere Appliances für Intrusion Detection wie etwa Real-time Network Awareness von SourceFire.

Trotzdem haben es frühe Anwender immer mit Beschränkungen der neu verfügbaren Technologien zu tun. Viele Organisationen dürften für Netzwerk-Visibilität deshalb weiterhin mit NetFlow oder SNMP arbeiten.

Die Universität Twente zum Beispiel plant zur Sicherstellung den Einsatz von Open-Source-Zählern für SNMP und von NetFlow-Analysern, sagt van Ingen. Für Informationen auf Paket-Ebene nimmt er derzeit vollständige Paket-Erfassungen auf den 10-GbE-Links vor, die vom Catalyst 6500 aggregiert werden. „Wenn wir wirklich volle Paket-Analysen auf dem 40-Gbps-Link machen müssen, werden wir wahrscheinlich einen Highend-Server mit einer Multiport-Karte für 10 GbE ausstatten und mal sehen, wie weit wir damit kommen“, so van Ingen.

Auch Versign überwacht sein heutiges 10-GbE-Netzwerk mit NetFlow und SNMP und wird wohl auch nach der Migration zu 40 GbE dabei bleiben, sagt Gibbs. Dass dies Lücken lässt, räumt er  ein – manche Ereignisse würden damit unbemerkt bleiben. So würden die Protokolle nicht immer zeigen, wenn  der Datenverkehr stoßweise zu- oder abnimmt. Und in Bezug auf Sicherheit könne es leicht passieren, dass etwas Bösartiges durchschlüpft.

„Um ein Bild zu bekommen, schaut man sich Muster an, anstatt im Inneren von Paketen nach Auffälligkeiten zu suchen“, sagt Gibbs. Das bedeute auch, dass man Test-Angriffe mit nur einem oder wenigen Paketen übersehen dürfte, weil sie außerhalb der Stichproben liegen. „Das ist ein bekanntes Risiko, mit dem jeder irgendwie umgehen muss. Das ist eben eine Nebenwirkung von mehr Bandbreite und Geschwindigkeit“.

In den Griff bekommen lasse sich dieses Risiko zum Beispiel mit einer mehrstufigen Lösung für Überwachung und Sicherheit, so Gibbs. Netzwerk-Techniker sollten mit NetFlow und anderen Stichproben-Technologien weiter beobachten, was sich abspielt. Hinzukommen müsse aber eine weitere Verteidigungsstufe bestehend aus Prüfgeräten für das Netzwerk.

„Achten Sie nicht nur auf die Core-Router“, rät Gibbs. „Wenn Sie hier etwas übersehen, können Sie es vielleicht noch in einem Netz weiter unten in der Kette erwischen“.

Artikel wurde zuletzt im November 2012 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Ethernet im Data Center

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchDataCenter.de

SearchEnterpriseSoftware.de

Close