bild-mit-logo
unilogo Universität Stuttgart
Presse- und Öffentlichkeitsarbeit

Uni-Kurier >>>> Forschen >>>>

 
 

Optimierte Methoden für das Verteilte Rechnen >>>>>>>>>>>>>>>>>>>>>>>

Laufzeit wird abschätzbar

Ob bei der Simulation von Enzymreaktionen in verschiedenen Substraten oder von Verbrennungsvorgängen in Brennkammern, bei simulierten Crash-Versuchen oder dem Geschehen beim Wiedereintritt einer Rakete in die Erdatmosphäre: Dreh- und Angelpunkt bei der Modellierung und Simulation komplexer Systeme ist die zur Verfügung stehende Rechnerleistung. Je mehr Variablen zu berücksichtigen sind und je schneller die zu simulierenden Vorgänge ablaufen, umso mehr ist davon gefragt. Gelöst wird diese Herausforderung mit den Methoden des Verteilten Rechnens. Im Rahmen des Projekts „Methods for large-scale and real-time simulations on distributed heterogeneous resources“ arbeiten Wissenschaftler am Höchstleistungsrechenzentrum der Uni Stuttgart (HLRS) daran, dieses zu optimieren.

simtech Um für die Bewältigung großer Datenmengen auf mehr Rechenleistung zurückgreifen zu können, ist Arbeitsteilung bei den „elektronischen Kollegen“ angesagt. So können mehrere Prozessoren zu so genannten Parallelrechnern zusammengefasst werden, die gleichzeitig ein Programm abarbeiten. Möglich ist es aber auch, das große, rechenintensive Projekt in viele kleine Aufgaben zu zerlegen und an viele verschiedene, „gleichzeitig“ arbeitende Computer zu verteilen – Distributed Computing oder Verteiltes Rechnen genannt.

Um dieses verteilte Rechnen möglichst optimal zu gestalten, bedarf es zunächst einmal einer Software, durch die sich die unterschiedlichen Computer „verstehen“. Dann gilt es, für die Verwaltung der Aufgaben ein möglichst effizientes Vorgehen zu entwickeln, das den gesamten Ablauf bis hin zur Zusammenführung der einzelnen Ergebnisse zum gemeinsamen Endergebnis umfasst. Schließlich muss jederzeit klar sein, was schon berechnet ist, was gerade bearbeitet wird und was noch berechnet werden muss.
„Die Nutzer brauchen sich um all diese Dinge keine Gedanken machen“, sagt Dr. Natalia Currle-Linde, wissenschaftliche Mitarbeiterin am HLRS. Das sei wie bei einem PC-Anwender, der beim Schreiben eines Briefes nicht um die Vorgänge in seinem Rechner wissen muss. Stattdessen geben die Nutzer - Praktiker und Forscher aus der Medizin, den Ingenieur- oder den Naturwissenschaften, die bei der Modellierung und Simulation ihrer Projekte auf das Know-how der Stuttgarter Informatiker setzen - die Daten ihrer rechenintensiven Aufgaben mittels einer speziellen Benutzeroberfläche in den Computer ein.
  oberflaeche_enzym

Oberflächendarstellung einer TEM Beta-Lactamase, ein Enzym, das von zahlreichen Bakterien gebildet wird und Antibiotika wie etwa Penicilline und Cephalosporine unwirksam werden lässt. Die Simulation von Enzymreaktionen ist hoch komplex und erfordert optimierte Methoden des Verteilten Rechnens.            (Foto: ITB)


Dann heißt es erst einmal abwarten. Wie lange? Diese Frage soll in Zukunft dank Vorabsimulationen sowie Observierungen während der Laufzeit zuverlässiger abschätzbar sein. Gerade bei zeitkritischen Anwendungen ist dies enorm wichtig. „Das bedeutet, wir können dann auch Laufzeiten gewährleisten“, erklärt Natalia Currle-Linde.       Julia Alber

 

KONTAKT
______________________________

Dr. Natalia Currle-Linde
Höchstleistungsrechenzentrum Stuttgart
Tel. 0711/685-65801
e-mail: linde@hlrs.de
>>>> http://www.hlrs.de