Brücken in der Technologie bauen

Jeder kann eine Brücke bauen: Aber ein Ingenieur ist per Definition dazu fähig, eine stabile Brücke zu bauen, die ihrem Zweck entspricht und gleichzeitig nicht überdimensioniert ist oder unnötig Ressourcen verschwendet. Von Eric Jorgensen VP Sales EMEA, Virtual Instruments.

  • 11 years ago Posted in

 

 

Daher der Begriff Ingenieurswesenim Gegensatz zum Bauwesen. Das Einkommen des Architekten, der eine Brücke designt, und des Ingenieurs, der sich um die funktionalen Aspekte kümmert, ist wesentlich höher als das der Arbeiter, die den Bau ausführen und sich um Pflege und Wartung kümmern. Die Materialien machen einen großen Teil der Baukosten aus, weshalb sie so sparsam wie möglich eingesetzt werden sollten. Am effizientesten ist folglich eine stabile, leichte Brücke. Das Gleiche gilt auch für Rechenzentren. Die Person, die die Forth Bridge in Schottland regelmäßig streicht, hält ihre Arbeit mit Sicherheit für unersetzlich. Und das ist auch tatsächlich der Fall, da Wartung und Pflege nicht vernachlässigt werden dürfen. Im Bezug auf die Gesamtkosten ist diese Arbeit dennoch nur ein kleiner Posten.

Das Einrichten eines neuen oder die Modernisierung eines bestehenden Rechenzentrums ähneln in gewisser Weise dem Bau einer Brücke. Die Kunst liegt im Design: ein schlecht designtes System verbraucht unausweichlich mehr Ressourcen, verursacht höherer Pflege- und Wartungskosten, ist schwieriger zu benutzen und unterliegt einer erhöhten Ausfallwahrscheinlichkeit.

Der Zweck eines Rechenzentrums besteht darin, die Anwendungen eines Unternehmens möglichst effizient auszuführen. Wir alle wissen das, doch im Gespräch mit Technologieanbietern wird das manchmal vergessen. In einer perfekten Welt würden alle IT-Infrastrukturen mit einem Service Level Agreement (SLA) ergänzt, das das Leistungsniveau der Anwendungen garantiert. Doch die Welt ist leider nicht perfekt: Hardwarehersteller können das Leistungsniveau von Anwendungen nicht garantieren, da sie nicht für das gesamte System verantwortlich sind. Das beste Angebot, das sie machen können, ist eine Verfügbarkeitsgarantie für ihre jeweilige Lösung. Ganz ähnlich sieht es aus, wenn Sie Ihre Anwendungen an einen Host auslagern. Die meisten Anbieter können keine Leistungs-SLAs anbieten, sodass nach wie vor Sie für die Leistung Ihrer Anwendungen verantwortlich sind und nicht Ihr Host.

Früher liefen Programme in realen Umgebungen und man wusste, auf welche Server und auf welche Switches und Speicher sie zugriffen. Die Systeme waren so designt, dass Sie mit Lastspitzen ohne Probleme zurechtkamen und  die meiste Zeit nicht einmal zur Hälfte ausgelastet waren. Falls man sich darum sorgte, dass das System Leistungsspitzen nicht gewachsen war, wurde die Hardware überdimensioniert, um so über ausreichend Puffer zu verfügen. Diese Strategie stellte sicher, dass Programme stets gut funktionierten, Probleme schnell gefunden und Upgrades eingeplant werden konnten. Der Nachteil war der hohe Ressourcenverbrauch. In der Folge bahnte sich die Virtualisierung ihren Weg, mit der die Hardwareauslastung verbessert werden sollte: Server, Switches und Speicher konnten nun effizienter gemanagt und damit Kosten eingespart werden.

Allerdings wurden die Systemumgebungen komplexer, wodurch ihr Management erschwert wurde. Dieses Problem führte dazu, dass große, geschäftskritische Anwendungen oft nicht virtualisiert wurden, sondern nur weniger wichtige Anwendungen, um dadurch Kosten einzusparen. Die nächste technische Neuerung war die private Cloud. Cloud-Computing machte Systeme noch effizienter und ermöglichte noch mehr Kostenersparnisse. Doch führte diese Neuerung auch zu noch mehr Komplexität. Das Ergebnis war, dass Cloud-Systeme und Hardwarekapazitäten überdimensioniert wurden, um das Leistungsniveau von Anwendungen sicherzustellen. Damit schloss sich der Kreis. Weshalb das so ist? Die erhöhte, durch Virtualisierung und Cloud-Computing verursachte Komplexität führt dazu, dass man nicht mehr vollständig einsehen kann, was mit einer Anwendung passiert. Für alle Elemente gibt es Tools, die anzeigen, wie gut sie funktionieren. Doch was fehlt, ist ein Einblick in das System als Ganzes, und vor allem, wie die Nutzer die Leistung von Anwendungen wahrnehmen. Dieses Problem kann mit einem Infrastructure Performance Management

(IPM) Tool gelöst werden, da es ermöglicht, Daten systemweit, kontinuierlich und in Echtzeit zu erheben, abzugleichen und zu analysieren. Dadurch ist nun auch möglich, einen Leistungs-SLA zu erstellen. Von Bedeutung ist außerdem, dass ein entsprechendes Tool die Auslastung und den Zustand von heterogenen Umgebungen mit realen, virtuellen und Cloud-Elementen anzeigt, wodurch es möglich wird, die zu Grunde liegende Infrastruktur, auf der die Anwendungen laufen, zu optimieren und geringe Auslastungen und Überdimensionierungen zu reduzieren.

Wenn Sie eine private Cloud implementieren wollen, sollten Sie ebenfalls an eine IPM-Lösung denken, denn Cloud-basierte Infrastrukturen können ansonsten nicht erfolgreich genutzt werden. Kehren wir noch einmal zu unserer Brücke zurück: Sie würden bestimmt nicht versuchen, eine komplexe Brücke mit verbundenen Augen zu bauen. Ebenso umfasst eine gut designte private Cloud eine durchgehende, objektive Überwachung in Echtzeit, die das gesamte, heterogene System abdeckt.

Die Überwachung in Echtzeit ist ein unverzichtbares Element jeder Rechenzentrumsinfrastruktur. Mit Echtzeit meine ich die Überwachung des Leistungsniveaus aller Anwendungstransaktionen in der gesamten geteilten Infrastruktur entsprechend der jeweiligen Übertragungsrate. Verzögerungen bei der Anwendungsausführung werden normalerweise durch viele kleine Probleme hervorgerufen, die gemeinsam zu einem großen werden. Daher gilt, je höher die Granularität, desto höher die Frequenz und desto besser die Daten und somit die Fähigkeit, Probleme (oder Katastrophen) vorherzusehen und zu vermeiden. Herkömmliche Tools zum Management der verschiedenen Elemente neigen dazu, nur den Durchschnitt der Daten zu berechnen, die während mehrerer Minuten erhoben werden. Das ist so, weil diese Tools Abfragetechnologien verwenden, die die Systemleistung beeinträchtigen, wenn sie regelmäßig angewendet werden. Diese Durchschnittsergebnisse spiegeln allerdings nur ein verzerrtes Bild der Realität wieder. Nehmen wir als Beispiel Autos, die über eine Brücke fahren. Wenn man die Durchschnittsgeschwindigkeit von fünf Minuten berechnet, kommt man zu dem Ergebnis, dass sie alle gleich schnell fahren. In Wirklichkeit fährt aber jedes Auto mit einer anderen Geschwindigkeit und wenn eins langsamer wird, kann das im Durchschnittsergebnis nicht erkannt werden. Das Gleiche gilt für den Datenverkehr von Anwendungen. Eine IPM-Lösung liefert Ihnen genauere, bessere Daten und damit mehr Wissen, das Ihnen dazu dienen kann, die Rentabilität Ihrer Investitionen zu verbessern.

Die erhobenen Daten sollten sich auf die Leistungen der Anwendungen beziehen. Mit dieser Strategie - und es gibt tatsächlich keine andere Lösung, um eine Infrastruktur, die aus realen, virtuellen und Cloud-basierten Elementen besteht, effizient zu gestalten - ist es nun möglich, individuelle, auf Unternehmen zugeschnittene SLAs zu erstellen. Systeme können nun als Ganzes optimiert werden, da die Auslastung und Leistung aller Elemente sichtbar wird und Protokolle die geringeren Investitions- und Betriebskosten sowie die neu erlangte Effizienz belegen. Die Einrichtung von Rechenzentren ist - ebenso wie der Brückenbau - eine komplizierte Angelegenheit. Doch mit den richtigen Informationen wird der Prozess wesentlich effizienter und liefert sichere Ergebnisse. Die richtige Strategie hilft auch dabei, die Lücke zwischen der IT und der eigentlichen Geschäftstätigkeit zu überbrücken, und mit einem IPM-Tool können Sie die Vorteile von Virtualisierung und Cloud-Computing nun wirklich nutzen.