Best Practices für die Auslegung von optischen Netzen

Dem Wachstum bei Breitband für Privatkunden ist nur mit Glasfaser-Technologie zu begegnen. Sie nun auch in Metro- und Access-Netzwerken zum Einsatz.

Glasfaser-Technologie wurde bis vor kurzer Zeit nur in Langstrecken-Netzen verwendet, kommt zunehmend aber auch...

in Metro- und Access-Netzwerken zum Einsatz. Verantwortlich dafür ist das globale Wachstum bei Breitband für Privatkunden und die Notwendigkeit, enorme Mengen an Inhalten zu verteilen, ohne sie um die halbe Welt zu befördern.

Dieser Leitfaden enthält Informationen über Best Practices zur Einrichtung optischer Netzwerke für die Bereiche Access, Metro und Core mit den Themen:

  • aktuelle Entwicklungen bei der Einrichtung von FTTX („Fiber to Whatever“, also Glasfaser bis zu unterschiedlichen Netz-Elementen) und passive optische Technologien für Access-Netzwerke
  •  Faktoren mit Einfluss auf die Verwendung von SONET, WDM oder Ethernet bei Metro-Netzwerken und auf die von Glasfaser-Netzen unterstützten Diensten
  • Konkrete Design-Überlegungen für optische Core-Netzwerke einschließlich Aggregation, Geographie und Rekonfigurierbarkeit.

Der Leitfaden besteht aus den folgenden drei Abschnitten:

  • Optische Netzwerke: Auslegung von Access-Netzwerken
  • Optische Netzwerke: Best Practices für die Auslegung von Metro-Netzwerken
  • Optische Netzwerke: Best Practices für die Auslegung von Core-Netzwerken

Optische Netzwerke: Auslegung von Access-Netzwerken

von Tom Nolle

Das heutige rapide Wachstum bei Breitband-Anschlüssen für Endverbraucher wäre nicht möglich ohne bedeutende Änderungen bei der Provisionierung der Access-Infrastruktur. Einst waren Kupferleitungen und Kabel-TV die einzigen Möglichkeiten für den Transport von Daten von der Vermittlungsstelle des Providers zum Endkunden. Heute werden die von diesen beiden Medien zu überwindenden Strecken durch optische Technologien verkürzt oder ganz ersetzt.

Glasfaser ist bei Access-Netzwerken keine neue Entwicklung. Für die Versorgung von Enterprise-Kunden mit hohen Geschwindigkeiten wird die Technologie schon seit fast zwei Jahrzehnten eingesetzt. In den 1990er Jahren bemerkten Internet-Provider zudem, dass sich Dienste stabiler machen und Kosten senken lassen, wenn man dicke Kupfer-Bündel durch wenige Glasfasern ersetzt. BellSouth ging damals bei Access-Glasfasern voran, was sich allein durch niedrigere Kosten auszahlte.

Traditionell wurde für Access-Infrastrukturen mit Glasfaser die Architektur Fiber Remote eingesetzt. Bei dieser handelt es sich um einen schnellen Glasfaser-Trunk (SONET oder Ethernet), der in einem elektro-optischen Multiplexer terminiert wird. Zu Zeiten analoger Telefone wurden diese als „digital loop carriers“ (DLCs) bezeichnet, später eine Weile als „DLC der neuen Generation“. Doch weil die meisten davon heute auch DSL-Dienste ermöglichen, ist inzwischen meist von „Remote DSLAMs“ die Rede. Der Hauptvorteil eines Remote DSLAM besteht darin, dass mit seiner Hilfe die Kupferstrecke verkürzt wird, was höhere DSL-Geschwindigkeiten und mehr Stabilität ermöglicht. Die meisten Provider würden davon abraten, Premium-DSL bei Endleitungen von mehr als 2,5 Kilometern Länge anzubieten, für die höchsten DSL-Geschwindigkeiten sind sogar Längen von maximal 300 Metern ratsam.

Glasfasern näher an den Endkunden zu bringen, wird allgemein als „deep fiber“ (tiefe Glasfaser) bezeichnet, und mehrere Abkürzungen zeigen an, wie nah sie wirklich kommt. FTTH steht für die Extremvariante „fiber to the home“, also Glasfaser bis ins Haus, bei der jeder Nutzer eine eigene optisch-elektrische Terminierung bekommt. FTTC bedeutet „fiber to the curb“, also bis zum Fußweg zur Versorgung mehrerer Häuser einer Straße. FTTN steht für „fiber to the node“, also für Glasfaser bis zum Knoten; hier versorgt jede Glasfaser-Strecke eine größere Zahl von Haushalten.

Das Problem bei allen Strategien zu „deep fiber“ liegt in den Kosten – diese sind auch der Grund dafür, warum die Provider nicht jedes Haus direkt optisch anbinden. Wenn die lokalen Anbindungen bis zu 1,5 Kilometer lang sein dürfen, lässt sich mit einer Remote-Einheit ein Gebiet von gut 8 Millionen Quadratmetern Fläche versorgen – bei maximal 300 Meter langen Leitungen sinkt dieser Wert rapide auf nicht einmal mehr 300.000 Quadratmeter. Weil die Zahl der Nutzer meist proportional zur versorgten Fläche ist, bedeutet die Verkürzung zugleich eine Steigerung der Kosten pro Nutzer um den Faktor 50 und mehr. Jedoch ermöglichen kürzere Anbindungen höhere Geschwindigkeiten, und für Video over IP verlangen die meisten Betreiber mindestens Verbindungen von 24 Megabit pro Sekunde (entsprechend ADSL2). In Asien und manchen anderen Regionen kommt sogar VDSL mit Geschwindigkeiten von 50 Mbps und mehr zum Einsatz, doch dafür sind deutlich kürzere Anbindungen erforderlich (als Optimum für ADSL2 gelten 2,5 Kilometer, für VDSL mit mehr als 50 Mbps sind nur wenige hundert Meter möglich).

Eine gute Balance zwischen Kosten und Performance zu ermöglichen, ist das Ziel von unterschiedlichen Technologien für passive optische Netzwerke (PONs). PON schafft mit Hilfe von Spleißen eine Baum-Struktur von Glasfaser-Verbindungen ohne elektrische Terminierung oder Verarbeitung. In den meisten Fällen unterstützt PON 32 Abzweige, die theoretisch für jeweils einen Hausanschluss oder ein Remote-Gerät verwendet werden könnten. Zu einem PON-Baum für 32 Abzweige gehören also einschließlich der Kopfstelle 33 elektrische Geräte. 32 Standorte mit direkten Glasfaser-Anbindungen auszustatten, würde 64 elektrische Geräte erfordern und zugleich höhere Kosten und mehr Risiken in Bezug auf die Zuverlässigkeit bringen.

PON-Systeme nutzen für den Glasfaser-Teil eine einheitliche Architektur, aber sehr unterschiedliche Ansätze für den Optoelektrischen. Das ursprüngliche Breitband-PON (BPON) und sein Nachfolger Gigabit-PON (GPON) basieren beide auf ATM. Der neue Standard Ethernet PON (EPON) ist bereits ratifiziert, und die meisten Netzbetreiber, die über größere neue PON-Installationen nachdenken, nehmen Bewertungen und Beschaffungsvorbereitungen für EPON vor. Die Kapazität von GPON und EPON reicht aus für Video-Auslieferung und schnelles Internet. Manche Provider schätzen das ATM-Framework von GPON dafür, dass sich damit über virtuelle Schaltkreise mehrere voneinander unabhängige Dienst-Kanäle erstellen lassen. Andere bevorzugen EPON, weil es besser zu Ethernet-basierten Metro-Infrastrukturen passt.

Die Planung für Access-Netzwerke mit Glasfaser erfordert sorgfältige Überlegungen zu den folgenden Punkten:

1. Die Demographie des zu bedienenden Gebiets einschließlich Haushaltseinkommen, Familiengrößen und Altersverteilung. Diese Daten sind entscheidend dafür, Chancen auf dem jeweiligen Markt zu erkennen. Allgemein gesagt, spricht eine günstige Demographie für Glasfaser-Installationen.

2. Geographie und Topologie des zu versorgenden Gebiets, darunter die durchschnittliche Haushaltsdichte, die verfügbaren Wegerechte und die Frage, ob Verkabelung über- oder unterirdisch verlegt werden kann. Diese Daten sind unverzichtbar dafür, die Kosten für die unterschiedlichen Ansätze zu ermitteln. Offensichtlich können schlechte Werte hier Herausforderungen für die möglichen Gewinne bringen, vor allem wenn sie nicht richtig berücksichtigt werden. Studien aus Japan zeigen, dass selbst hügeliger oder ebener Boden mit darüber entscheidet, wie hoch die Kosten des Ausbaus werden.

3. Die vorgesehene Mischung an Diensten über mindestens fünf Jahre, wobei sowohl Nachfrage- als auch Wettbewerbstrends beachtet werden müssen. Das schlimmste, was bei einem Glasfaser-Ausbau passieren kann, ist das spätere Aufkommen von neuen Anforderungen, die sich mit der gewählten Glasfaser-Architektur nicht erfüllen lassen.

Im Stadium der Installation und Wartung bringen Access-Netzwerke besondere Probleme mit sich, weil es sehr teuer ist, einen Lastwagen zur Lösung von Problemen loszuschicken. Bei einem Breitband-Kunden kann es drei Jahre dauern, bis die Kosten eines einzigen Service-Anrufs wieder hereingespielt sind. Aus diesem Grund ist es absolut entscheidend, dass jeder Glasfaser-Strang korrekt installiert wird und dass vor allem das Spleißen bei PON-Installationen sehr sorgfältig vorgenommen und überprüft wird. Vor einer Zusage an Kunden sollten die Glasfasern außerdem von einem Ende bis zum anderen getestet werden. Anders als bei Kupfer, bei dem sich viele Probleme erst mit der Zeit einstellen, berichten Betreiber bei Glasfaser, dass die meisten Probleme hier kurz nach der Installation auftreten und mit unsauberer Arbeit zu tun haben.

Optische Netzwerke: Best Practices für die Auslegung von Metro-Netzwerken

von Tom Nolle

Wie die heutigen Trends in der Telekommunikation zeigen, wird es den stärksten Zuwachs bei Glasfaser-Installationen im nächsten Jahrzehnt nicht in Core-Netzwerken geben, sondern bei Access- und Metro-Netzwerken. Getrieben wird dieses Wachstum der Nachfrage nach Endverbraucher-Breitband von Inhalten, und hier werden relativ wenige Filme oder TV-Programme an eine große Zahl von Nutzern ausgeliefert. In den meisten Fällen bedeutet das, dass die Inhalte auf Metro-Ebene gecachet werden können und dass sich der Großteil des Traffic-Wachstums im Metro-Bereich abspielen wird.

Metro-Glasfaser basiert heute meist auf SONET, einer Installation mit einer einzelnen Wellenlänge von 1310 Nanometern. SONET-Netzwerke sind meist als eine Reihe von geschützten Ringen realisiert, die bei einem durchtrennten Strang ein rasches Failover ermöglichen. Die Ringe sind dabei über Add/Drop-Multiplexer (ADMs) miteinander verbunden.

Durch das Aufkommen von – weitem oder dichtem – Wavelength Division Multiplexing (WDM) im Bereich um 1550 Nanometer hat Metro-Optik mehr Flexibilität bekommen: Pro Strang sind damit mehrere Wege für das Licht und eine deutlich höhere Kapazität möglich. Zugleich hat das erhöhte Volumen an Paket-Verkehr, für das eine synchrone SONET-Auslieferung nicht erforderlich ist, das Traffic-Profil für die Metro-Netzwerke der Zukunft verändert. Heute wird bei der Planung von Metro-Netzwerken für die elektrische Schicht meist Ethernet gewählt, für die optische WDM. Durch diesen Wandel ergibt sich ein neues Gleichgewicht bei den Aufgaben für elektrische und optische Komponenten und den Best Practices für die Installation.

SONET-Ringe lassen sich in Metro-Ethernet und Netzwerken mit engem (dense) WDM replizieren, indem auf einer Glasfaser eine Wellenlängen-Trennung zum Einsatz kommt oder über WDM mehrere SONET-Pfade betrieben werden. Wahrscheinlich gibt es auf der ganzen Welt keine größeren Metro-Netzwerke ohne traditionellen synchronen TDM-Datenverkehr, so dass Planer mit einer Mischung aus SONET- und Ethernet-Technologie rechnen sollten. Wo es schon eine große installierte Basis an SONET-Ausrüstung, keine Pläne zum Abbau von PSTN-Switches und große Kunden mit direktem SONET-Zugang gibt, könnte im optischen Metro-Netzwerk zunächst ein Übergang von SONET-over-1310 zu SONET/WDM sinnvoll sein. Im nächsten Schritt ließe sich Stück für Stück Ethernet-over-SONET integrieren, bis schließlich Teile des Netzwerks ganz auf Ethernet-over-WDM umgestellt sind.

Die Veränderungen bei der Wirtschaftlichkeit von WDM scheinen für Durcheinander beim Thema „SONET-Ersatz“ zu sorgen. Die meisten Betreiber gehen heute davon aus, für PSTN-Transport SONET so lange zu behalten, wie solche Dienste angeboten werden. Der Übergang zu Nicht-SONET-Architekturen soll nur in dem Maß erfolgen, wie Paket-Sprachdienste traditionelle TDM-Sprache ablösen. Diese graduelle Entwicklung dürfte jedoch fast sicher von der explodierenden Breitband-Nutzung durch Konsumenten gestört werden, insbesondere durch IP-Fernsehen. Wie Betreiber berichten, ist das Volumen von Sprachverkehr stabil, während Datenverkehr oft mit dreistelligen Raten wächst. Und je schneller das Datenvolumen im Vergleich zu „geschaltetem“- oder TDM-Datenverkehr zunimmt, desto wahrscheinlicher wird, dass Hybrid-Lösungen mit SONET und Ethernet (Ethernet über SONET) zu wenig Wert bieten, um die Investition zu rechtfertigen. Dies dürfte der Grund dafür sein, warum mehr und mehr Anbieter von optischer Technik Hybridprodukte mit rekonfigurierbaren Add/Drop-Multiplexern (ROADM) und Ethernet ins Programm nehmen.

Ein WDM-Thema, das viel Aufmerksamkeit in den Medien bekommt, ist die Art und Weise, wie optische Transit-Verbindungen ausgelegt werden. Die meisten Produkte haben hier bislang eine Umwandlung zwischen optisch und elektrisch vorgenommen (O-E-O), weil eine rein optische Zusammenschaltung (O-O-O) zu teuer war. Mittlerweile sind O-O-O-Produkte zwar seit fast fünf Jahren verfügbar, doch die meisten Anbieter nutzen immer noch O-E-O-Technologie.

Das wichtigste Thema aber sind auch heute noch die Kosten. Service-Provider gehen davon aus, dass künftige ROADM-Produkte rein optische Transit-Verbindungen ermöglichen werden. Entscheidend für Planer ist hier, dass Wellenlängen unabhängig vom verwendeten Mechanismus im Switch zu anderen Wellenlängen „transcodiert“ werden können. Ein System, das dies nicht leistet, ist zu komplex zu verwalten, weil die Wellenlängen-Zuweisungen auf unterschiedlichen Glasfasern dann voneinander abhängig werden; dies macht manche Rekonfigurierungen aufgrund von Kollisionen unmöglich.

Die Einrichtung von optischen Metro-Netzwerken wird auch vom geplanten Service-Mix beeinflusst. Ebenso wichtig oder noch wichtiger aber ist die Service-Topologie. Eine der wichtigsten Fragen betrifft hier das Volumen an Verkehr innerhalb des Metro-Netzwerks im Vergleich zu dem Verkehr, der für einen Weitertransport außerhalb des Metro-Bereichs einfach an einen MetroPOP geleitet werden kann.

In Gebieten, in denen Breitband-Verkehr von Konsumenten den Großteil des Gesamtvolumens ausmacht, werden sich Glasfaser-Installationen auf die Verbindung von Service-Stellen mit einem POP für den Anschluss an das Core-Netzwerk konzentrieren. Diese Verbindungen müssen zwar widerstandsfähig sein, doch sie werden nur selten den SONET-Standard für ein Failover innerhalb von 50 Millisekunden erfüllen müssen, weil sie ja Ethernet-Verkehr unterstützen. Die Einführung von IPTV könnte dieses Bild wieder verändern, weil Verbindungsverluste hier zu pixeligen Darstellungen führen können, mit denen sich die Nutzer vor allem bei Pay-per-View nicht zufrieden geben. Soweit Pufferung für die Nutzer möglich ist, sollte die Failover-Zeit maximal rund zwei Drittel des Puffer-Intervalls betragen. Oft wird Failover bei Consumer-Breitband am besten auf der Ethernet-Ebene realisiert.

In Fällen, wo viel synchroner (TDM-) Datenverkehr und viel Paket-Verkehr von Unternehmen anfällt, kann es notwendig sein, optisches Failover auf dem SONET-Niveau von 50 Millisekunden zu bieten. Hier wäre SONET oder Resilient Packet Ring (RPR) erforderlich. Wie erwähnt können Netzwerk-Planer Datenverkehr mittels WDM für Failover-Anforderungen separieren und nur dort besseres Failover realisieren, wo es wirklich gebraucht wird.

Rekonfigurierbarkeit bezeichnet die Möglichkeit, durch die Zusammenschaltung von Wellenlängen auf unterschiedliche Weise unterschiedliche optische Topologien entstehen zu lassen. Gebraucht wird sie am ehesten, um große Mengen an geschäftlichem Datenverkehr (Metro-Ethernet-Dienste) zu verarbeiten oder um ein alternatives Routing zwischen Dienst-Stellen und den MetroPOPs zu ermöglichen, in denen die Anbindung an das Core-Netzwerk erfolgt. Bei IPTV kann derartiges Multi-Homing auch für Inhalt-Servicestellen erforderlich sein.

In der optischen Schicht sind Rekonfigurierbarkeit und schnelles Failover zwei vollkommen unterschiedliche Dinge. ROADMs bringen ein hohes Maß an Topologie-Flexibilität zur Anpassung an Änderungen in den Verkehrsmustern – bis zu dem Punkt, dass Metro-Kunden Wellenlängen-Dienste angeboten und selbst Kunden mit Gigabit Ethernet schnell versorgt werden können. Schnelle und mehrfach verzweigte Bäume zu Ethernet hinzuzufügen, kann mehr Widerstandsfähigkeit in der elektrischen Schicht bewirken, die für fast alle Failover-Anforderungen ausreichend ist.

Geschalteter und TDM-Verkehr macht einen immer geringeren Anteil der Netzwerk-Last aus. Dies weckt bei vielen die Erwartung, dass sich optische Metro-Technik von den 50 Millisekunden Failover von SONET wegbewegen wird. Wenn es so kommt, dann könnte eine Lösung nur mit ROADM und Ethernet langfristig die beste sein, insbesondere wenn dabei Optik und Elektrik im selben Gehäuse untergebracht werden.

Optische Netzwerke: Best Practices für die Auslegung von Core-Netzwerken

von Tom Nolle

Optische Netzwerke sind heutzutage die einzige Technologie-Option für den Netzwerk-Core – außer bei sehr ungewöhnlichen Markt- oder geografischen Umständen, bei denen auch terrestrische Mikrowellen-Übertragungen zum Einsatz kommen. In manchen Gebieten kann es wortwörtlich unmöglich sein, Glasfaser-Installationen für den Netzwerk-Core von Metro-Glasfaser zu unterscheiden, in anderen aber können sich die Anforderungen grundlegend unterscheiden. Damit betrifft die erste Frage für Entscheidungen zu Design und -Installation von Core-Netzwerken die Natur des Netzwerks selbst und wie sich die Anforderungen von Core und Metro unterscheiden.

Der „Core“ oder Kern eines Netzwerks ist der Bereich, in dem aggregierter Datenverkehr über breite Auf- und Abfahrten zusammenkommt. Weil dieser Traffic hochgradig aggregiert ist, steht er für tausende oder Millionen von Nutzern, und die Core-Knoten dürften Verkehr für so gut wie jeden anderen Core-Knoten bekommen; sie sind also stark untereinander vernetzt. Dies kann in deutlichem Gegensatz zu Metro-Netzwerken stehen, wo Vermittlungsstellen gerne nur mit Points of Presence (POPs) für die Anbindung an den Core verbunden werden – dies ist statt eines Netzes (Mesh) eine Stern-Topologie.

Die Aggregation von Traffic hat ein weiteres Unterscheidungsmerkmal von optischen Core-Netzwerken zur Folge: Es ist unwahrscheinlich, dass ein einzelner Nutzer des Netzwerks für einen Großteil des Datenverkehrs verantwortlich ist, so dass die Aufnahme eines weiteren keine bedeutenden Änderungen für den Core bringt. Ein großer Metro-Nutzer dagegen könnte durchaus Anlass für eine Neukonfigurierung der Netzwerk-Bandbreite sein. Aus diesem Grund und wegen des oben genannten „Mesh“-Faktors ist Rekonfigurierbarkeit für Core-Netzwerke seltener ein Thema.

Ebenso ist für Core-Netzwerke das Thema „schnelles Failover“ meist nicht relevant, also das alternative optische Routing innerhalb von 50 Millisekunden, wie es SONET ermöglicht. In Core-Netzwerken sind Ring-Konfigurationen mit vollständig redundanten Glasfaser-Pfaden schwieriger zu realisieren und teurer zu warten, so dass die Widerstandsfähigkeit meist der elektrischen Schicht überlassen wird.

Der letzte Unterschied zu Metro-Netzwerken betrifft die geografische Ausdehnung. Ein großes Metro-Netzwerk umfasst vielleicht 50 bis 100 Kilometer, ein großes Core-Netzwerk kann den ganzen Erdball umspannen. Dadurch müssen Glasfasern manchmal große Strecken ohne Repeater überwinden, darunter auch Meeresgebiete, Wüsten und anderes. Glasfaser-Technologie für besonders lange Distanzen ist deshalb für Core-Netzwerke oft der wichtigste Faktor. Die größere geografische Ausdehnung bedeutet zudem, dass es Tage oder Wochen dauern kann, bis Reparaturtrupps zur Behebung von Problemen am richtigen Ort eintreffen. Aus diesem Grund kommt es entscheidend auf Notfall-Planungen an, mit denen sich Ausfälle so stark wie möglich verkürzen lassen.

Eine Thema, das für Core- und Metro-Netzwerke gleichermaßen relevant ist, ist die Frage von synchronem oder geschaltetem Datenverkehr. Wenn PSTN-Anrufe und T1/E1-Leitungen über den Core unterstützt werden sollen, dürfte es zur Sicherstellung synchroner Ablieferung von Anfang bis Ende unverzichtbar sein, zumindest für einen Teil der optischen Wege SONET/SDH-Transport vorzusehen. Dabei erfordern SONET/SDH-Dienste über globale Entfernungen einen sehr genauen Zeittakt, damit sich keine Bit-Fehler ergeben. Derartige SONET/SDH-Trunks können entweder die Standard-Wellenlänge von 1310 Nanometern verwenden oder eine der WDM-Wellenlängen bei 1550 Nanometern. Paket-Datenverkehr erfordert kein SONET/SDH, trotzdem verwenden viele Netzwerk-Betreiber weiterhin ADMs mit SONET/SDH und Switching im Core, um sich die Option von geschalteten Diensten zu erhalten.

Ein „reiner Paket-Core“ kann aus Glasfasern mit nur einer Wellenlänge oder WDM-Glasfasern bestehen. Dadurch ist es möglich, zur Vermeidung von elektrischer Verarbeitung eine virtuelle optische Topologie zu schaffen, die einem Mesh ähnelt. Allerdings bekommen Router dabei oft das „Nachbarschaftsproblem“, das bei Ausfällen zu sehr langen Konvergenzzeiten führt. Zusammen mit der Tatsache, dass Rekonfigurierbarkeit in Core-Netzwerken oft keine große Bedeutung hat, bedeutet dies, dass Core-Netzwerke häufiger sehr schnelle Glasfaser-Pfade (zum Beispiel OC-768 oder 40 Gbps) nutzen – jedenfalls dann, wenn diese elektrischen Schnittstellen wirtschaftlicher sind als die Summe der Kosten für WDM und eine größere Zahl langsamerer Schnittstellen (4 mal 10GbE).

Die Frage der Router-Nachbarschaft ist ein Beispiel für einen allgemein wichtigen Punkt bei der Auslegung von Core-Glasfasertechnik: Auch die Erfordernisse der elektrischen Schicht und sogar die Service-Ziele müssen berücksichtigt werden. Aktuell geht der Trend bei Service-Providern zu Ethernet, was von der Arbeit der IEEE und des Metro Ethernet Forum vorangetrieben wird. Dies macht Ethernet zu einem aussichtsreichen Kandidaten für die Installation in Core-Netzwerken – sowohl um flexible virtuelle Routen für Protokolle höherer Ebenen wie IP zu schaffen, als auch als Basis für konkrete Kunden-Dienste. Mit diesem Ansatz können Betreiber optische Netzwerke für mehr Widerstandsfähigkeit in Mesh-Strukturen anlegen und Paket-Routing und sogar Multicasting hinzufügen, ohne zusätzliche Router-Nachbarschaften zu schaffen.

Ein wichtiger Aspekt bei optischen Core-Netzwerken ist auch die Frage des Standorts für größere Punkte der Service-Interconnection. Je größer das Gebiet ist, das ein Core-Netzwerk eines Providers abdeckt, desto eher braucht es eine Zusammenschaltung mit den Netzwerken anderer Provider, vor allem für lokalen Access in anderen Gegenden. Diese Interconnection-Punkte sind offensichtlich sowohl Orte mit hohem Verkehr, die spezielle Berücksichtigung bei der Planung verlangen, als auch   bedeutende Schwachstellen. Kein Interconnection-Punkt mit einem anderen Betreiber sollte über eine einzelne Glasfaser-Verbindung realisiert sein, und ebenso wenig sollten Metro-Verbindungen mit dem Core desselben Providers nach diesem „Single-Homing“-Prinzip erfolgen.

Der letzte Punkt bei der Auslegung von optischen Core-Netzwerken betrifft das Management. Core-Netzwerke befördern aggregierten Traffic von Millionen von Nutzern, so dass Ausfälle zu einer Flut von Beschwerden führen dürften. Zudem lösen optische Ausfälle eine Lawine von Fehlern in höheren Protokoll-Schichten aus, was zu so vielen Warnmeldungen führt, dass das Personal im Netzwerk-Betrieb überfordert sein kann. Bei vielen Betreibern gibt es eine unzureichende Integration des Managements von Paket- und optischer Schicht. Dies erhöht die Anfälligkeit für „Alarm-Stürme“ und macht es unwahrscheinlicher, dass Kunden-Betreuer schnelle Antworten auf Beschwerden bieten können. Der beste optische Core ist also immer nur so gut wie die Fähigkeit seines Betreibers, ihn effizient zu verwalten.

Über den Autor: Tom Nolle ist President der CIMI Corporation, einer seit 1982 tätigen strategischen Beratungsfirma mit den Spezialgebieten Telekommunikation und Daten-Kommunikation. Er ist Mitglied von IEEE, ACM, Telemanagement Forum und IPsphere Forum sowie Herausgeber von Netwatcher, einem Online-Magazin über Strategiefragen in der Telekommunikation. Nolle ist aktiv beteiligt bei der Lösung von LAN-, MAN- und WAN-Fragen von Großunternehmen wie Service-Providern und berät Hersteller von Ausrüstung zu Standards, Märkten und neuen Technologien. Außerdem schreibt er im Blog Uncommon Wisdomvon SearchTelecom Beiträge über Netzwerk-Themen.

Artikel wurde zuletzt im November 2008 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Netzwerk-Design

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchDataCenter.de

SearchEnterpriseSoftware.de

Close