1 / 23

TOP 500

TOP 500. -Die schnellsten Computer der Welt- Christoph Elstermeier Christian Ege. TOP 500. Einführung Hersteller Prozessoren Anwendungen Zukunftsaussichten. Einführung. Seit 1986 Expertentreffen in Mannheim Gründe für Mannheim: Lokale Infrastruktur

linda-brady
Download Presentation

TOP 500

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. TOP 500 -Die schnellsten Computer der Welt- Christoph Elstermeier Christian Ege

  2. TOP 500 • Einführung • Hersteller • Prozessoren • Anwendungen • Zukunftsaussichten

  3. Einführung • Seit 1986 Expertentreffen in Mannheim • Gründe für Mannheim: • Lokale Infrastruktur • Produkte des einheimischen Winzergewerbes  • Hans Meuer • „Neutrales“ Territorium

  4. EinführungTOP500 • Seit 1993 von Erich Strohmeier & Jack Dongarra • Halbjährlich aktualisiert • Winterausgabe: Supercomputer-Jahrestagung USA • Rangliste leistungsstärkster PC´s • Zuverlässiges Spiegelbild des Marktgeschehens • Überblick jüngste Vergangenheit d. Computer Spitzentechnologie

  5. Einführung • Leistung Nr.1 bestätigt Mooresches Gesetz • Alle 1 ½ Jahre verdoppelt sich die Leistung eines Mikrochips (gegebene Größen- und Leistungsklasse) • Zuwachs pro Jahr für Nr.1 größer als Faktor 1,5874 (= Mooresches Gesetz) • Leistung der Letzten noch schneller! • Mittelfeld holt auf  mehr Wettstreiter als früher  Bei vorderen Plätzen schwieriger voranzukommen als bei unteren

  6. TOP500 – Juli 1993

  7. TOP500 – November 2000

  8. TOP500 – Juli 1993

  9. TOP500 – November 2000

  10. Hersteller • Verschiebung: Generalisten verdrängen Spezialisten • Unternehmen wie Thinking Machines, CDC & Convex Bankrott oder aufgekauft • große Firmen zu größeren Rechnern hingearbeitet: • IBM 144 Installationen (TOP500 Juni 2000); aktuell: 215 Inst. • Knapp dahinter Sun • Hewlett-Packard 5.er (durch Kauf von Convex) • Convex: Anfang 90`er Jahre „Mini-Supercomputer“ hatte 1/3 der Leistung einer Cray – aber nur 1/10 des Preises!

  11. HerstellerSonderfall Cray • 70`er Jahre Seymour Cray: Vektorrechner • Finanzielle Schwierigkeiten – 1996 aufgekauft von Silicon Graphics  1997 wieder ausgeschieden • Jetzt mit Tera zusammen (vielfädige Architektur – multithreaded architecture) 4.er in der Häufigkeitsliste • Hinter SGI (neuer Name von Silicon Graphics)

  12. Prozessoren • Mit Aufstieg der Generalisten: Wechsel der Technologie • Früher: spezielle Mikrochips für Höchstleistungsrechner • Heute: Massenware • Bsp.: ASCI Red (New Mexico) • 9632 Pentium Chips von Intel • Gleiche Anzahl spezieller Chips unbezahlbar: enorme Kosten für geringe Stückzahl • Frage: einfach 1000 Pentiums besorgen & verdrahten? • Ja, aber nicht einfach (in TOP500 4 Eigenbau-Maschinen)

  13. Prozessoren • Große Rechenaufgabe zerlegen – Prozessoren rechnen einsam an Teilaufgabe • Auch möglich: beteiligte Prozessoren in mehreren PC`s über die Welt verteilt – rechnen dann, wenn Besitzer keine Aufgaben hat. • Bsp.: 2 große Primfaktoren einer ca. 150stelligen Zahl versammelte Rechenleistung aller PC`s  vorderer Platz TOP500

  14. Prozessoren • ABER: Suche nach sehr vielen Unbekannten (ca. 100.000) & jede hängt von allen anderen ab? • Im Prinzip aufteilbar, aber beteiligte Chips in Interaktion miteinander • Anzahl Verbindungen wächst quadratisch mit Anzahl Prozessoren  massiv-parallele Systeme = Mehrheit unter TOP500

  15. Prozessoren • Minderheit: älteres Prinzip Vektorrechner • große Menge Rechenarbeit nicht in Einzelteile, sondern ein größerer Prozessor rechnet sehr viel Gleichzeitig (z.B. 1000 Multiplikationen) • Prozessor teuer • Normalerweise mehrere Exemplare in einer Maschine  Parallelrechner aus Vektorrechnern • Japanische Hersteller (Fujitsu, Hitachi, NEC) stark

  16. Anwendungen • Warum Supercomputer? • Seit 2000 erstmals kleine Mehrheit (260) für kommerzielle Zwecke • Richtig großen Anlagen aber vom Staat finanziert • Forschungszentren, Uni`s, Geheimdienste • Bsp.: Bundesregierung auf Platz 356 (80 Prozessoren) • Ersten 4 Plätze von amerik. Energieministerium: • ASCI (accelerated strategic computing initiative) • Ziel: Atomwaffenversuche durch Computersimulation • Energieministerium – Atomwaffenversuche? • Bei Kernwaffenexplosion wird Energie frei 

  17. Anwendungen • Explosion = Paradebeispiel • Es passiert sehr viel sehr schnell • Sehr schnell: viele Zahlen (10 hoch 5 bis 10 hoch 6) beschreiben Zustand des Systems zum Zeitpunkt t • Sehr viel: viele Bilder pro Sekunde • Typische Vorgehensweise aus Filmbild nächstes berechnen (Gleichungssystem), Unbekannte = Zahlen, die neues Filmbild bestimmen Funktioniert nur, wenn zwischen 2 Bildern nichts passiert, was absehbar ist Unbekannte (Bsp. Temperatur) hängt von vielen Faktoren ab: - Temperatur in Umgebung, Druck-, Strömungs-, Strahlungsverhältnisse  Unbekannten verflochten (massiv-parallele Rechner)

  18. Anwendungen • Ähnliche Beispiele: Erdbeben, Fahrzeugkollision (Autohersteller – simulierte Aufpralltests), Erdölindustrie • Verfahren ähnlich bei längerem Zeitraum (Bsp.: Entstehung von Akkretionsscheiben in Doppelsternsystemen) • Hauptsächliche Aufgaben für Supercomputer Aber nicht nur!!

  19. Anwendungen • Bsp.: Deutschland • In Europa meisten Supercomputer • Bundesland Hessen mit den Meisten: • Deutscher Wetterdienst (Offenbach) • Deutsche Telekom (Darmstadt) • Banken (Frankfurt) • Viel Masse an Daten lasten Computer aus Auch weit oben: Investmentbroker-Firma Charles Schwab (Platz 19) - Data Mining? - höherer Aufwand für Börsenkursprognosen?

  20. Zukunftsaussichten • Wird dieser Boom zum Stillstand kommen? Nein (laut Experten): • Technische Möglichkeiten nicht ausgereizt • Keine zu grossen Computer – zu kleine Probleme • Mehr Rechenleistung: aufgreifen schwierigerer Probleme oder Annahmen ersetzen durch realitätsnähere • Ziel teraflops (10 hoch 12 floating point operations per second)  längst erreicht (ASCI) • Jetzt: 3 Zehnerpotenzen weiter (Petaflops) • 1 Millionen Prozessoren : Größe eines Tennisplatzes • Anwender: Projekt „Blue Gene“ • Wie falten sich Ketten von Aminosäuren zu aktionsfähigen Proteinen?

  21. Zukunftsaussichten • Aktuell: • Weiterer Supercomputer für München (Max-Planck-Institut) • 1000 Mikroprozessoren (IBM Power4-Generation) • Größe: ¼ Fußballplatz • 3,8 Teraflops; nur ASCI White schneller (12,3 Teraflops) • Nutzung: hauptsächlich medizinische Forschung • Power4-Generation: Taktfrequenz über 1 Gigahertz • Übertragungsgeschwindigkeit über 100 Gigabit/s  Download von 20 DVD´s pro Sekunde!

  22. Zukunftsaussichten • 20-22 Juni Konferenz in Heidelberg • Bei Interesse: • www.top500.org • www.supercomp.de • www.sc2000.org

  23. Vielen Dank für die Aufmerksamkeit!

More Related