3dmentat - Fotolia

Wie SDN und SDS künftige Cloud-Architekturen gestalten

Software-defined Networking und Storage erlauben eine Trennung von Workloads sowie hohe Agilität und schnelle Skalierbarkeit der Infrastruktur.

Anwender von Clouds – egal ob in der Public oder Hybrid Cloud – erwarten die gleichen Kontrollmechanismen wie im eigenen (in-house) Rechenzentrum. Meist wollen diese Anwender nicht auf ihre virtuellen SANs, Firewall, Access Controls, Governance und Compliance sowie andere Security- und Kontrollsysteme verzichten. Gleichzeitig wollen sie aber die versprochene Agilität, schnelle Skalierbarkeit und Kosteneffizienz erhalten, was oft die Gründe dafür sind, dass sie sich für die Cloud entschieden haben.

Software-defined Networking (SDN) ist eine Antwort der Cloud-Service-Provider auf dieses Dilemma, da die Orchestrierungssoftware oftmals vieles des Netzwerkmanagements vor dem Kunden verbirgt. Der Bedarf nach Skalierbarkeit, kombiniert mit den Kosten von Standard-Switches sowie der Bedarf an mehr Flexibilität für den Kunden führt zu dem Konzept, nur einfache Switche zu nutzen, deren Data-Services und Management vom Switch abstrahiert ist und auf gehosteten virtuellen Maschinen innerhalb der Server-Farm laufen.

Eine gute Analogie hierfür ist das Anfertigen eines Modellobjekts. Man kann sich einen Holzblock nehmen und so lange schnitzen, bis das Modell fertig ist oder aber einfach Legos verwenden. Die Lego-Version lässt sich schneller bauen und ebenso schnell verändern. Das ist der Unterschied zwischen einem fest strukturiertem Switch und dem SDN-Lego-Ansatz.

Da die hybride Cloud immer beliebter wird, erfreut sich auch der SDN-Ansatz immer größerer Popularität, auch wenn wir hier erst in einer frühen technischen Evolutionsstufe sind. Es gibt bereits jetzt einige Lösungen, die sinnvoll und gut im privaten Bereich der hybriden Cloud funktionieren. Die Industrie macht sich bereit, mehr Angebote auf den Markt zu bringen und flächendeckend Services, Software- und Hardwareplattformen über die nächsten Jahre einzuführen.

SDN zusammen mit Network Functions Virtualization (NFV) ermöglichen den Cloud-Kunden, die Teile des Networkings für sich zusammenzusetzen und zu nutzen, die sie für ihre Arbeit benötigen. Der Anwender wählt die Data-Services und verbindet sie. Hierfür stehen Policies und Vorlagen zur Verfügung, um diesen Prozess zu vereinfachen. Da die Data-Services erweiterbare virtuelle Instanzen auf VMs sind, stehen quasi uneingeschränkte Ressourcen zur Verfügung, so dass sich das Anpassen oder Fine-Tuning für eine bestimmte Aufgabe recht leicht umsetzen lässt.

Es ist abzusehen, dass es für jede Klasse an Datenservices konkurrierende Lösungen geben wird. Das bedeutet, dass ein bestimmter Grad an Standardisierung zwischen den Modulen vorhanden sein muss und Tools wie OpenFlow zielen darauf ab, hier die Verbindung – quasi als Klebemittel – zwischen den Modulen zu agieren.

Außer bei Cloud-Service-Providern gibt es derzeit nur wenige abgeschlossene Projekte, obwohl das Feedback zu SDN generell immer positiv ausfällt. Allerdings gibt es auch ernsthafte Befürchtungen, Unsicherheiten und Zweifel von Herstellern wie Cisco, da sie einen potenziellen Umsatzverlust für die nächsten Jahren auf sich zukommen sehen. Andere Firmen nehmen den Software-defined-Begriff sehr wörtlich in existierenden Ansätzen, die wiederum nicht die hohe Agilität bieten.

Storage-Startups haben sich das Service-Abstraktions-Konzept ebenso angesehen, was zu Software-defined Storage-Angeboten führte. Auch dies ist ein relativ neuer Ansatz, der sich jetzt erst in konkreten Architekturen niederschlägt.

Auch hier ist die Idee, die Datenservices zu abstrahieren. Allerdings hat dies mehr und komplexere Auswirkungen auf die darunter liegende Hardware, was an den zahlreichen unterschiedlichen Storage-Ansätzen liegt. Letztendlich wird das SDS-Modell wohl ähnlich dem Ceph Open Source Universal-Storage-Software-Konzept sein. Dieses umfasst einfach strukturierte Storage-Nodes mit Laufwerken, die die Kapazität bieten, alle Services hingegen – wie Komprimierung, Replikation, Erasure Coding und Verschlüsselung – operieren auf virtuellen Maschinen.

Dieses Konzept reduziert die Hardwareumsätze mit Storage-Appliances sehr drastisch und sehr wahrscheinlich werden wir hier eine Menge komplexer Lösungen, aber auch einige Verwirrung auf dem Markt sehen. Es wird wohl einige Jahre dauern, bis der Markt sich beruhigt und festigt. Trotzdem bringen derzeitige oder auch Teillösungen bereits eine signifikante Reduzierung der Storage-Kosten.

Ein beliebtes und oft eingesetztes Beispiel ist Ceph. Hier kaufen Unternehmen günstige Hardware von Original Device Manufacturers (ODMs) aus China, integrieren Drives aus Distributionskäufen und bauen eine OpenStack-kompatible Scale-out-Storage-Infrastruktur auf. Derzeit dürfte das ODM-Geschäft etwa zehn Prozent des Gesamtumsatzes und 20 Prozent der Stückzahlen bei Storage ausmachen, was den günstigen Kostenpunkt dieser Hardware verdeutlicht.

Die Storage- und Switch-Nodes nutzen spezialisierte Hardware, während alles andere auf virtualisierten Serverinstanzen läuft. Es existieren Datenintegritäts- und Latenzprobleme in solchen Systemen, die noch nicht zur Gänze erkannt beziehungsweise eliminiert werden können. Demzufolge wird ein Fine-Tuning hier einen großen Mehrwert für dieses Marktsegment darstellen.

Ebenso wird Netzwerk-Performance ein großer Teil dieses Tuning-Prozesses sein. Demnächst kommen neue Performance-Levels an Ethernet auf den Markt. Diese bringen ein wenig Entspannung, aber die Anzahl der Transfers zwischen den Nodes innerhalb einer verteilten SDN- oder SDS-Architektur ist problematisch.

Datenfluss ist nicht wie Server-Virtualisierung. Latenzen sind ein kritischer Faktor. Eine Datenbank beispielsweise wird eine Transaktion nicht als abgeschlossen markieren, bis multiple Kopien der neuen Daten auf permanenten Storage geschrieben wurden. Es reicht nicht aus, dass nur eine Node bestätigt, dass die Daten geschrieben, da ein Stromausfall zu Datenverlust führen könnte. Das bedeutet ein anderer Umgang mit den Daten oder Storage, der die Daten bei Stromausfall nicht verliert, sind erforderlich.

Sowohl SDN als auch SDS bieten Kosteneffizienz und hohe Skalierbarkeit. Setzt man sie sinnvoll um, so fließen die meisten System-Management-Funktionen in die Orchestrierungssoftware und Anwender sind in der Lage, ihre eigenen virtuellen Rechenzentren zu kontrollieren. Dazu muss man aber auch verstehen, dass nicht alle Instanzen gleich sind und dass es Einschränkungen seitens der Hardware gibt. Und genau dieses Verständnis wird die Weiterentwicklungen der Hardwarelösungen und der Datenservice-Software weiter vorantreiben.

Folgen Sie SearchNetworking.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im November 2015 aktualisiert

Pro+

Premium-Inhalte

Weitere Pro+ Premium-Inhalte und andere Mitglieder-Angebote, finden Sie hier.

Erfahren Sie mehr über Software Defined Networking (SDN)

Diskussion starten

Schicken Sie mir eine Nachricht bei Kommentaren anderer Mitglieder.

Mit dem Absenden dieser Daten erklären Sie sich bereit, E-Mails von TechTarget und seinen Partnern zu erhalten. Wenn Ihr Wohnsitz außerhalb der Vereinigten Staaten ist, geben Sie uns hiermit Ihre Erlaubnis, Ihre persönlichen Daten zu übertragen und in den Vereinigten Staaten zu verarbeiten. Datenschutz

Bitte erstellen Sie einen Usernamen, um einen Kommentar abzugeben.

- GOOGLE-ANZEIGEN

SearchSecurity.de

SearchStorage.de

SearchDataCenter.de

SearchEnterpriseSoftware.de

Close