Bibliothek

feed icon rss

Ihre E-Mail wurde erfolgreich gesendet. Bitte prüfen Sie Ihren Maileingang.

Leider ist ein Fehler beim E-Mail-Versand aufgetreten. Bitte versuchen Sie es erneut.

Vorgang fortführen?

Exportieren
Filter
Datenquelle
Erscheinungszeitraum
Schlagwörter
Sprache
  • 1
    Publikationsdatum: 2014-02-26
    Beschreibung: Die Parallelisierung eines vorhandenen sequentiellen Programmes erfolgt im allgemeinen in der Weise, daß es auf Grund einer Analyse der Datenabhängigkeiten in mehrere parallel ausführbare Teile zerlegt wird, die ihrerseits sequentiell ablaufen und untereinander Daten austauschen. Eine parallele Programmiersprache sollte diese Vorgehensweise unterstützen, indem sie Sprachmittel zur Verfügung stellt, mittels derer sich die Modularisierung und Kommunikation bequem formulieren läßt. Nun läßt sich prinzipiell jede vorhandene sequentielle Programmiersprache um solche Konstrukte erweitern; günstiger in Hinblick auf die Strukturierung eines parallelen Programmes erscheint es aber möglicherweise, eine solche Programmiersprache zu verwenden, die die genannten Konzepte als elementare zur Verfügung stellt. Dies ist offensichtlich bei objektorientierten Programmiersprachen der Fall. Im vorliegenden Bericht wird an Hand eines Beispiels - TRAPEX -, das in POOL-T implementiert wurde, untersucht, inwieweit eine objektorientierte Sprache zur effektiven Programmierung eines numerischen Algorithmus geeignet ist. {\bf Key Words:} parallele objektorientierte Programmiersprache, Message Passing, Abstract Data Typing, Klassenhierarchi, Modul-Import-Mechanismus, Client/Server-Prinzip, Load Balancing, adaptive numerische Algorithmen, Ordnungs- und Schrittweitensteuerung, Romberg-Quadratur.
    Schlagwort(e): ddc:000
    Sprache: Deutsch
    Materialart: reportzib , doc-type:preprint
    Format: application/pdf
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 2
    Publikationsdatum: 2022-07-19
    Beschreibung: Sparse LU factorization offers some potential for parallelism, but at a level of very fine granularity. However, most current distributed memory MIMD architectures have too high communication latencies for exploiting all parallelism available. To cope with this, latencies must be avoided by coarsening the granularity and by message fusion. However, both techniques limit the concurrency, thereby reducing the scalability. In this paper, an implementation of a parallel LU decomposition algorithm for linear programming bases is presented for distributed memory parallel computers with noticable communication latencies. Several design decisions due to latencies, including data distribution and load balancing techniques, are discussed. An approximate performance model is set up for the algorithm, which allows to quantify the impact of latencies on its performance. Finally, experimental results for an Intel iPSC/860 parallel computer are reported and discussed.
    Schlagwort(e): ddc:000
    Sprache: Englisch
    Materialart: reportzib , doc-type:preprint
    Format: application/postscript
    Format: application/pdf
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 3
    Publikationsdatum: 2022-07-19
    Sprache: Englisch
    Materialart: conferenceobject , doc-type:conferenceObject
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
  • 4
    Publikationsdatum: 2022-07-19
    Sprache: Englisch
    Materialart: conferenceobject , doc-type:conferenceObject
    Bibliothek Standort Signatur Band/Heft/Jahr Verfügbarkeit
    BibTip Andere fanden auch interessant ...
Schließen ⊗
Diese Webseite nutzt Cookies und das Analyse-Tool Matomo. Weitere Informationen finden Sie hier...