1 / 17

Studiengang Informatik FHDW

Vorlesung: Betriebssysteme Hochverfügbarkeit (DRBD Einführung) 4. Quartal 2011. Studiengang Informatik FHDW. Einführung DRBD.

ivy
Download Presentation

Studiengang Informatik FHDW

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Vorlesung: Betriebssysteme Hochverfügbarkeit (DRBD Einführung) 4. Quartal 2011 Studiengang Informatik FHDW

  2. Einführung DRBD DRBD steht für Distributed Replicated Block Device. Als Kernel-Modul zusammen mit einer Management-Applikation im Userspace und einem Skript, dient es dazu, ein Blockgerät auf einem produktiven (primary) Server in Echtzeit auf einen anderen (secondary) Server zu spiegeln. Dieses Verfahren wird verwendet, um Hochverfügbarkeit(HA) im UNIX/Linux Umfeld zu realisieren und somit eine gute Verfügbarkeit verschiedener Dienste zu erreichen.

  3. Übersicht DRBD

  4. Funktionsweise DRDB Es werden alle Schreibzugriffe über das Netzwerk an den zweiten Server übermittelt. Erst wenn der zweite Server den erfolgreichen Schreibvorgang an den ersten Server zurückgemeldet hat, meldet dieser der Applikation das Ende des Schreibvorgang (diese Technik ist vergleichbar mit einem RAID 1 über TCP/IP). Falls der erste Server ausfällt, wird dieser als inaktiv gemeldet. Durch eine Serverüberwachungssoftware wie Heartbeat kann der zweite Server die Funktion des ersten Servers übernehmen und mit denselben Daten weiterarbeiten.

  5. Funktionsweise DRDB Jede DRBD Komponente (lokal auch als Partition bezeichnet) besitzt einen Status, welcher entweder primär oder sekundär sein kann. Zwischen allen Systemen erzeugt DRBD eine Verbindung von der lokalen Partition zu einem virtuellen Gerät /dev/drbdX, welches nicht direkt angesprochen werden kann. Schreibzugriffe auf das primäre System werden über das low-level Blockgerät (die Partition) und gleichzeitig an das sekundäre System propagiert. Das sekundäre System übermittelt dann die Daten an sein eigenes lokales low-level Blockgerät. Alle Lese-Zugriffe werden stets lokal durchgeführt.

  6. Funktionsweise DRDB Sollte das primäre System ausfallen, versetzt ein Cluster-Management Prozess das sekundäre System in den primären Systemzustand. Dieser Übergang macht es evtl. erforderlich die Integrität des auf DRBD überliegenden Dateisystems zu überprüfen. Dies geschieht entweder durch einen Dateisystemcheck(fsck) oder durch zurückspielen eines Dateisystemjournals. Wenn das ehemals primäre System wieder verfügbar ist, wird dieses nach einer Resynchronisation der Gerätedaten wieder in den primär Status versetzt (oder auch nicht). Der Algorithmus der DRBD Synchronisation arbeitet dadurch effizient, dass nur während des Ausfalls geänderte Datenblöcke wieder resynchronisiert werden müssen, nicht das ganze Gerät.

  7. Funktionsweise DRDB In der im Januar 2007 erschienenen Version 8 der DRBD, wurde eine Unterstützung für Konfigurationen mit Lastverteilung eingeführt, welches beiden Systemen ermöglicht, einzelne DRBD's im Lese-/Schreib-Modus wie bei gemeinsam genutzten Speicher(shared storage) zu nutzen. Diese Art der Nutzung erfordert die Verwendung eines Sperrmechanismus, dem "distributed lock manager".

  8. Vorteile versus gemeinsam genutztem Cluster-Speicher Konventionelle Computer-Cluster-Systeme benutzen in der Regel eine Art gemeinsamen Speicher, der für die Clusterressourcen benutzt wird. Dieser Ansatz hat jedoch eine Reihe von Nachteilen, die DRBD umgeht.

  9. Vorteile versus gemeinsam genutztem Cluster-Speicher Gemeinsam genutzte Speicher (shared storage) bringen typischerweise eine einzelne Fehlerstelle (Single Point of Failure) mit sich, da beide Clustersysteme vom gleichen gemeinsamen Speicher abhängig sind. Bei der Verwendung von DRBD besteht hier keine Gefahr, da die benötigten Clusterressourcen lokal repliziert werden und nicht auf einem eventuell wegfallenden gemeinsamen Speicher liegen.

  10. Vorteile versus gemeinsam genutztem Cluster-Speicher Gemeinsam genutzter Speicher ist außerdem sehr anfällig für sogenannte "split brain" Situationen, bei denen zwar beide Clustersysteme verfügbar sind, diese sich jedoch aufgrund etwa fehlerhafter Netzwerkkommunikationen nicht mehr abstimmen können und jeweils davon ausgehen, dass das andere System nicht mehr verfügbar sei. In diesem Fall würde jedes der beiden Systeme in den primären Status wechseln und alle Clusterressourcen übernehmen. Dies kann fatale Folgen haben, wenn z.B. beide Systeme versuchen sollten die selben Dateisysteme zu benutzen und zu beschreiben. Clusteradministratoren sollten deshalb eine Systembegrenzungspolicy festlegen um dies zu vermeiden. DRBD verhindert dies indem es zwei getrennte Datensätze anstelle eines gemeinsam genutzten verwendet.

  11. Vorteile versus gemeinsam genutztem Cluster-Speicher Gemeinsam genutzter Speicher wird in der Regel über ein SAN oder ein NAS adressiert, was einen gewissen Mehraufwand beim Lesezugriff erfordert. Bei DRBD wird dieser Aufwand signifikant reduziert, da Lesezugriffe immer lokal stattfinden.

  12. Anwendungen DRBD arbeitet innerhalb des Linux-Kernels auf Blockebene und ist damit für darauf aufsetzende Schichten transparent. DRBD kann somit als Grundlage verwendet werden für: • konventionelle Dateisysteme • gemeinsam genutzte Cluster-Dateisysteme wie z.B. GFS or OCFS2 • ein weiteres logisches Blockgerät wie z.B. LVM • jede Applikation die den direkten Zugriff auf ein Blockgerät unterstützt.

  13. Anwendungen DRBD-basierende Cluster werden häufig eingesetzt um Dateiserver und relationale Datenbanken (wie MySQL) um synchrone Replikation und Hochverfügbarkeit zu erweitern.

  14. Hochverfügbarkeit

  15. Hochverfügbarkeit

  16. Hochverfügbarkeit

  17. ENDE Fragen?

More Related