1 / 27

Algorithmentheorie 03 – Randomisierung (Closest Pair)

Algorithmentheorie 03 – Randomisierung (Closest Pair). Prof. Dr. Th. Ottmann. Randomisierung. Klassen von randomisierten Algorithmen Randomisierte r Quicksort Randomisierter Algorithmus für Closest Pair Randomisierter Primzahltest Exkurs: Kryptographie.

keahi
Download Presentation

Algorithmentheorie 03 – Randomisierung (Closest Pair)

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Algorithmentheorie03 – Randomisierung(Closest Pair) Prof. Dr. Th. Ottmann WS 2006-07

  2. Randomisierung • Klassen von randomisierten Algorithmen • Randomisierter Quicksort • Randomisierter Algorithmus für Closest Pair • Randomisierter Primzahltest • Exkurs: Kryptographie WS 2006-07

  3. Klassen von randomisierten Algorithmen • Las Vegas Algorithmen immer korrekt; erwartete Laufzeit Beispiel: randomisierter Quicksort • Monte Carlo Algorithmen (mostly correct): wahrscheinlich korrekt; garantierte Laufzeit Beispiel: randomisierter Primzahltest WS 2006-07

  4. Das Closest Pair Problem Gegeben: Menge von n Punkten in der Ebene Gesucht: die zwei Punkte mit geringstem Abstand zueinander WS 2006-07

  5. Ansätze Naiver Ansatz: Berechne für jedes Paar von Punkten den jeweiligen Abstand und wähle das Paar mit minimalem Abstand. Laufzeit: O(n2 ) Divide-and-Conquer Ansatz: vgl. frühere Vorlesung Laufzeit: O(n log n) WS 2006-07

  6. Zielsetzung Entwerfe Las-Vegas-Typ Algorithmus mit erwarteter Laufzeit O(n). Idee: Verbessere Laufzeit mit Hilfe von Input Randomisierung und Implementation von Dictionaries durch universelles Hashing. Unterscheide zwischen Operationen an Dictionaries und anderen. Konstruiere Algorithmus, der O(n) Distanzberechnungen und Lookup Operationen ausführt und zusätzlich eine erwartete Anzahl von O(n)MakeDictionary- und Einfüge-Operationen. Also: Zweifache Verwendung von Randomisierung: • Reihenfolge der Punkte • Universelles Hashing WS 2006-07

  7. Notationen Menge der Punkte: P = {p1, ..., pn}, wobei pi = (xi , yi ) euklidischer Abstand: d (pi, pj ) OBdA: alle Punkte liegen im Einheitsquadrat, d.h. i = 1, ..., n : 0 ≤ xi, yi< 1 WS 2006-07

  8. Die Idee • betrachte die n Punkte in zufälliger Reihenfolge p1 , ..., pn und merke jeweils  = min{d(pi , pj )}, d.h. beginne mit  = d(p1 , p2 ) • für jeden neuen Punkt pi prüfe, ob „in der Nähe“ von pieiner der bereits betrachteten Punkte p1, ..., pi-1 in einer geringeren Entfernung als  von pi entfernt liegt • falls ja, muss aktualisiert werden • Problem: • Was heißt „in der Nähe“ von pi ? WS 2006-07

  9. Inkrementeller Algorithmus Ordne Punkte in zufälliger Reihenfolge p1, ..., pn. Algorithmus geht stufenweise (mit jeweils festem δ) vor: • Beginne mit dem closest pair (p1 , p2 ) und  = d(p1 , p2). • Ziel in jeder Stufe ist es, entweder zu verifizieren, dass  tatsächlich der kleinste Abstand ist, oder ein neues Paar (pi , pj) mit d(pi , pj ) <  zu finden. • In jeder Stufe werden Punkte der Reihenfolge nach betrachtet. Sobald ein Punkt pi erreicht wird, so dass für ein j < i d(pi , pj ) <  gilt, springe zur nächsten Stufe. • Setze= minj :j <i {d(pi , pj )} Wird der letzte Punkt erreicht, so ist der Algorithmus fertig und das  nach Betrachtung dieses Punktes ist der tatsächliche minimale Abstand. WS 2006-07

  10. Überlegungen Offensichtlich terminiert der Algorithmus. Die Anzahl der benötigten Schritte hängt stark von der Reihenfolge der Punkte ab: • Im besten Fall, wenn p1und p2 bereits das closest pair sind, wird nur eine Stufe benötigt. • Im schlimmsten Fall wird  für jeden Punkt geändert und man benötigtn - 2 Stufen. Wir werden sehen, dass die erwartete Laufzeit des Algorithmus (für eine zufällig gewählte Reihenfolge der n Punkte) nur um einen konstanten Faktor von der Laufzeit im besten Fall abweicht. WS 2006-07

  11. Der Trick (1) • Hauptteil des Algorithmus ist der Test, ob ein closest pair erhalten bleibt, wenn ein neuer Punkt hinzugefügt wird. • Dazu müssen Abstände zwischen dem neuen Punkt und den bereits vorhandenen berechnet werden, fürwelche? • Hilfsmittel: Unterteile das Einheitsquadrat in kleinere Quadrate der Seitenlänge /2. N2Teilquadrate mit N = • Für 0 ≤ s ≤ N-1 und 1 ≤ t ≤ N-1 definieren wir das Teilquadrat Sst:= {(x,y ) : s/2 ≤ x< (s+1)/2; t/2 ≤ y< (t+1)/2} WS 2006-07

  12. Rasterung WS 2006-07

  13. Der Trick (2) 2 Vorteile: • Für zwei Punkte p, q im gleichen Teilquadrat gilt:d (p, q) < δ • Gilt für zwei Punkte d (p, q) < δ, so liegen sie ”nahe“ beisammen,d.h. höchstens 2 Quadrate entfernt. WS 2006-07

  14. Der Trick (3) Beweis: (1) Jeweils die x- als auch die y-Koordinaten der beiden Punkte unterscheiden sich um höchstens δ/2. (2) Seien p und q in Quadraten, die nicht „nahe“ beisammen liegen, p  Sst und q  Ss 't 'mit || s - s' || > 2 oder ||t - t' || > 2.  in der x- oder y-Koordinate unterscheiden sich p und q um mindestens δ, also kann nicht d(p, q)  δ sein. WS 2006-07

  15. ”in der Nähe“ von p Für einen beliebigen Punkt p liegen also alle Punkte q mit d (p, q) <d in einem 5 mal 5 Felder großen Gitter um das Quadrat Sst , in dem p liegt. WS 2006-07

  16. closest pair-Test Idee: • Merke zu jedem Punkt das Quadrat Sst, in dem er sich befindet. (Speichere dazu alle Punkte in einem von δ abhängigen Dictionary.) • Für jeden neuen Punkt pi : Bestimme das Quadrat, in dem er sich befindet. • Überprüfe die höchsten 25 „nahen“ Quadrate auf andere Punkte. Dabei kann man wegen Vorteil 2 höchstens 25 Punkte finden. • Zu jedem solchen Punkt: Berechne den Abstand zu pi. • Falls kein Abstand kleiner als d ist, bleibt d unverändert und piwird gespeichert (zusammen mit Sst). WS 2006-07

  17. δ-abhängiges Dictionary zur Speicherung von Punkten Anfragemöglichkeiten: Gegeben s, t: Finde Sst und stelle fest, ob überhaupt und ggfs. welchen Punkt Sst enthält. Gegeben p = (px, py): Finde das Feld Sst, das p enthält. WS 2006-07

  18. Hash-Tabellen • Wie kann pi - zusammen mit Sst - effizient gespeichert werden? • Verwende Wörterbuch (Dictionary, z.B. als Hash-Tabelle implementiert). • Benutze s, t als 2-dimensionalen Index (Schlüssel) zur Bestimmung des Quadrate Sst . • Wird d geändert, so werden die Hash-Tabelle und alle δ-abhängigen Quadrate Sst nutzlos und wir brauchen eine neue Hash-Tabelle für neue Quadrate der Kantenlänge d ‘/2. • Für jeden Punkt, der bisher betrachtet wurde, wird sein neues Quadrat berechnet und in die neue Hash-Tabelle eingefügt. • Danach wird mit dem nächsten Punkt in der zufälligen Reihenfolge fortgefahren. WS 2006-07

  19. MakeDictionary - Operation Kosten von MakeDictionary für ein gegebenes δ und Einfügen einer Menge von i Punkten in das Dictionary: WS 2006-07

  20. Zusammenfassung des Algorithmus ordne die Punkte in einer zufälligen Reihenfolge p1,...,pn sei d = minimale (bisher gefundene) Distanz initialisiere d = d(p1, p2) MakeDictionary für Quadrate der Kantenlänge d/2 fori = 1, 2, ..., n : finde das Quadrat Sst im aktuellen Dictionary, das pi enthält; finde die 25 nahen Quadrate von pi; berechne die Abstände von pi zu jedem Punkt in diesen Quadraten; if ein Punkt pj mit (j < i) und d´ = d(pj, pi) < d existiert, dann: lösche aktuelles Dictionary (die aktuelle hash-table) MakeDictionary für Quadrate der Kantenlänge d´/2 for jeden Punkt p {p1, ..., pi}: finde das Quadrat der Kantenlänge d ´/2, das den Punkt p enthält füge p in das Quadrat im Dictionary (in die neue hash-table) ein endfor else füge pi (zusammen mit Sst) in aktuelles Dictionary (die aktuelle hash-table) ein endif endfor WS 2006-07

  21. Laufzeitanalyse (1) Für jeden neuen Punkt pi werden nur konstant viele Suche Operationen benötigt, ebenso nur konstant viele Abstandsberechnungen. Insgesamt höchstens O(n) viele MakeDictionary-Operationen. Satz: Der randomisierte Closest-Pair Algorithmus liefert das korrekte Ergebnis und führt für eine Menge von n Punkten höchstens O(n) Distanzberechnungen, O(n) Finde-Operationen und O(n) MakeDictionary Operationen aus. Es fehlt noch: Erwartungswert der Gesamtlaufzeit des Algorithmus unter Berücksichtigung der Einfügungen in neue Dictionaries, wenn das closest pair geändert wird. WS 2006-07

  22. Laufzeitanalyse (2) Behauptung: Die erwartete Anzahl für alle benötigten Einfüge-Operationen ist inO(n) Beweis: Sei X = Zufallsvariable für Anzahl der Einfüge-Operationen gesucht:E(X ) Sei XiZufallsvariable mit Wert 1, wenn der i -te Punkt in der zufälligen Reihenfolge ein Update von d erzwingt, 0 sonst.  Lemma 1: Die Gesamtanzahl von Einfüge-Operationen ist höchstens WS 2006-07

  23. Laufzeitanalyse (3) Lemma 2:P[Xi= 1] ≤ 2/i Beweis: Betrachte die i ersten Punkte p1, ..., pi in der zufälligen Reihenfolge. Sei  = d(p, q) der minimale Abstand unter diesen Punkten. pi kann nur dann eine Änderung des minimalen Abstands erzwingen, wenn pi = p oder pi = q da die ersten i Punkte in zufälliger Reihenfolge angeordnet sind, ist jeder von ihnen mit gleicher Wahrscheinlichkeit der letzte  die Wahrscheinlichkeit, dass entweder p oder q letzter Punkt ist, ist demnach also 2/i WS 2006-07

  24. Laufzeitanalyse (4) Lemma 1: Die Gesamtanzahl von Einfüge-Operationen ist höchstens Lemma 2: P[Xi = 1] ≤ 2/i Folgerung: Der Erwartungwert für die Gesamtzahl aller Einfüge Operationen in Dictionaries ist in O(n). WS 2006-07

  25. Zusammenfassung der Laufzeitanalyse des randomisierten inkrementellen Algorithmus • Für eine zufällig gewählte Folge von n Punkten kann man erwarten, dass der Algorithmus ausführt: O(n) Finde-Operationen O(n) Distanzberechnungen O(n) MakeDictionary-Operationen O(n) Einfüge-Operationen • Gesamtlaufzeit hängt ab von der Implementation der Dictionaries, Möglichkeiten: Hashtabellen, Universal Hashing: Erwartete Gesamtlaufzteit O(n) Dynamische Tabellen, balanzierte Bäume: O(n log n) (im worst case!) WS 2006-07

  26. Zusammenfassung • Mittels Randomisierung lässt sich zur Lösung des Closetst-Pair-Problems eine erwartete Laufzeit von O(n) erreichen. Wichtigste Ideen: • Inkrementeller Algorithmus mit Input Randomisierung • Gitteraufteilung des Universums, aus dem die Punkte stammen • Universelles Hashing WS 2006-07

  27. Literatur Kleinberg, Jon M.; Tardos, Éva:Algorithm Design, Addison Wesley, 2005 Ottmann, Thomas; Widmayer, Peter:Algorithmen und Datenstrukturen, Spektrum, 2002 Smid, Michiel:Closest-Point Problems in Computational Geometry, Universität Magdeburg, 1997 http://citeseer.ist.psu.edu/167339.html Kirkpatrick, David:Fundamentals of Algorithm Design and Analysis, Universitiy of British Columbia, 2005 http://www.cs.ubc.ca/ romanh/courses/cpsc500/lectures/L03- 0920.pdf WS 2006-07

More Related