10 Irrtümer über Hochverfügbarkeit


Der Begriff "Hochverfügbarkeit" wird in der IT heute inflationär gebraucht. Mehr und mehr Systeme behaupten hoch verfügbar zu sein, ohne tatsächlich den hohen Ansprüchen an Hochverfügbarkeit gerecht werden zu können. Stratus, Hersteller fehlertoleranter Server, stellt nun zehn verbreitete falsche Auffassungen über den Begriff Hochverfügbarkeit richtig.
Für die meisten Unternehmen ist die ständige Verfügbarkeit ihrer Server-Systeme unverzichtbar. Hochverfügbarkeit ist daher in der IT State-of-the-Art geworden. Viele Unternehmen haben allerdings keine konkreten Vorstellungen darüber, welche Anforderungen Systeme erfüllen müssen, um tatsächlich "hoch verfügbar" zu sein. Im Gegenteil: In der IT-Praxis trifft man immer wieder auf abenteuerliche Vorstellungen über das, was Hochverfügbarkeit sein könnte. Für Unternehmen stellen solche Irrtümer ein nicht unerhebliches Risiko für den reibungslosen Betrieb ihrer IT dar. Hochverfügbarkeit ist nicht 99,5 Prozent
Im 7*24-Stunden-Dauerbetrieb erlaubt eine Verfügbarkeit von 99,5 Prozent eine durchschnittliche Ausfallzeit von über 43 Stunden pro Jahr - wobei die Ausfälle immer dann passieren, wenn man sie am wenigsten brauchen kann. Für unternehmenskritische Aufgaben ist dies viel zu wenig. Dafür muss ein Verfügbarkeitsniveau von mindestens 99,99 Prozent - mit einer durchschnittlichen Ausfallzeit von etwa 52 Minuten pro Jahr - erreicht werden.

Hochverfügbarkeit ist nicht Disaster Recovery
Disaster Recovery ist Katastrophenschutz für die IT: Unternehmen schützen damit ihre Systeme vor Bränden, Erdbeben, Flugzeugabstürzen oder Anschlägen, beispielsweise indem sie Rechenzentren räumlich getrennt platzieren. Hochverfügbarkeit sorgt dagegen für den Schutz der IT bei Betriebsstörungen. Verantwortungsvolle Unternehmen werden daher immer beide Aspekte in ihrem Sicherheitskonzept berücksichtigen.

Hochverfügbarkeit ist nicht Stand-By
Bei redundanten Systemen sind durch Umschalten und Übergabe der Prozesse Ausfallzeiten technisch unvermeidlich. Die Konsistenz von Daten und Transaktionen muss daher separat sichergestellt werden. Auch wenn es dafür heute unterstützende Software gibt, so ist auf diese Weise eine Verfügbarkeit von höchstens 99,5 bis 99,9 Prozent erreichbar, was einer ungeplanten Downtime von 8,7 bis 43 Stunden pro Jahr entspricht - deutlich zu wenig für echte Hochverfügbarkeit.

Hochverfügbarkeit ist nicht RAID
Mit RAID-Systemen werden Datenspeicher vor Ausfällen geschützt. Hochverfügbarkeit sorgt dagegen für einen ausfallsicheren Betrieb der Server. In kritischen Umgebungen muss man daher immer beides implementieren.

Hochverfügbarkeit ist nicht Backup
Backup-Lösungen sichern wichtige Unternehmensdaten vor Verlusten und sind daher für einen professionellen IT-Betrieb unverzichtbar. Backups müssen für alle, nicht nur für hoch verfügbare Systeme erstellt werden.

Hochverfügbarkeit ist nicht USV
Natürlich geht ohne Strom gar nichts - aber mit Strom allein geht dennoch nicht sehr viel. Keine USV kann Server-Abstürze verhindern oder abfangen. Für Hochverfügbarkeit ist der Betrieb einer USV daher zwar eine Voraussetzung aber keineswegs ausreichend.

Hochverfügbarkeit ist nicht ein zweites Netzteil
Netzteile sind besonders störungsanfällig, deshalb verbessert ein zweites Netzteil die Verfügbarkeit eines Servers. Doch damit lassen sich natürlich nicht andere Hardware-Fehler, etwa in der CPU oder im RAM, abfangen. In fehlertoleranten Servern sind dagegen alle wichtigen Komponenten, also auch CPU und RAM, doppelt vorhanden. Auf diese Weise lässt sich echte Hochverfügbarkeit realisieren.

Hochverfügbarkeit ist nicht Virtualisierung
Die Verfügbarkeit wird durch die Virtualisierung von Servern sogar verschlechtert, weil hier ein einziger defekter physischer Server eine ganze virtuelle Server-Gruppe lahm legt. Für jedes System müssen dann mehr oder weniger aufwändige Maßnahmen zur Wiederherstellung des Betriebs vorgenommen werden. Auch wenn diese Maßnahmen mit Software- Unterstützung automatisch ablaufen, so muss dafür stets eine gewisse Zeitspanne einkalkuliert werden. Daher müssen gerade virtuelle Server mit unternehmenskritischen Applikationen auf einer hoch verfügbaren Hardware-Plattform betrieben werden, beispielsweise fehlertoleranten Systemen.

Hochverfügbarkeit ist nicht teuer
Natürlich kostet eine IT-Lösung mehr, wenn sie hoch verfügbar ist - schließlich muss Hochverfügbarkeit durch einen zusätzlichen technischen Aufwand hergestellt werden. Diese Kosten müssen jedoch im Verhältnis zum möglicherweise entstehenden Schaden gesehen werden. Eine einzige Stunde Server-Ausfall kann heute mehr kosten als eine komplette Hochverfügbarkeitslösung. Mittlerweile ist Hochverfügbarkeit aber auch für kleinere und mittlere Unternehmen erschwinglich. Fehlertolerante Server kosten unterm Strich sogar weniger als Cluster- Lösungen, weil sie keine zusätzlichen Kosten für Software-Anpassung, zusätzliche Lizenzen oder eine aufwändige Administration verursachen. Lösungen wie Stratus Avance können handelsübliche x86-Server per Software zu einer hoch verfügbaren Plattform verbinden.

Hochverfügbarkeit ist nicht Continuous Availability
Für einige Anwendungen ist selbst echte Hochverfügbarkeit nicht mehr ausreichend, beispielsweise in der Kraftwerkssteuerung, für Notfallsysteme in Krankenhäusern oder in der Produktionssteuerung. Hier muss eine Verfügbarkeit von 99,999 oder sogar bis zu 99,9999 Prozent ("Six Nine") erreicht werden, was eine durchschnittliche Ausfallzeit von etwa 5 Minuten beziehungsweise einer halben Minute pro Jahr gewährleistet. Diese Werte sind auch von Cluster-Systemen nicht erreichbar; Anwender kommen hier nicht an fehlertoleranten Systemen vorbei. Echte Hochverfügbarkeit ist erst ab einem Verfügbarkeitsniveau von mindestens 99,99 Prozent gegeben. Hier beträgt die durchschnittliche Ausfallzeit höchstens 52 Minuten pro Jahr. Fehlertolerante Server, die komplett redundant aufgebaut sind, erreichen auf Basis von Standard- Technologien eine Verfügbarkeit von mehr als 99,999 Prozent. Da sie dem Anwender als "Black-Box" gegenübertreten, lassen sie sich außerdem wesentlich leichter implementieren und administrieren als leistungsmäßig vergleichbare Cluster-Systeme. "Der Begriff Hochverfügbarkeit wurde in den letzten Jahren aufgeweicht, weil viele Anbieter Hochverfügbarkeit einfach entsprechend der Möglichkeiten ihrer eigenen Systeme definieren", erklärt Timo Brüggemann, Director Business Development EMEA bei Stratus in Eschborn. "Viele Unternehmen glauben daher fälschlicherweise, dass sie hoch verfügbare Server einsetzen, während sie tatsächlich bei Störungen mit nicht unerheblichen Ausfallzeiten rechnen müssen. Im Ernstfall kann sich das als sehr teurer Irrtum erweisen."

Quelle: http://www.de.stratus.com/Uber_Uns/Presse/Pressemitteilungen/20100825