Freigeben über


MPI-Kollektivfunktionen

In diesem Abschnitt

  • MPI_Allgather
    Erfasst Daten von allen Mitgliedern einer Gruppe und sendet die Daten an alle Mitglieder der Gruppe.

  • MPI_Allgatherv
    Erfasst eine variable Menge an Daten von jedem Mitglied einer Gruppe und sendet die Daten an alle Mitglieder der Gruppe.

  • MPI_Allreduce
    Kombiniert Werte aus allen Prozessen und verteilt das Ergebnis wieder an alle Prozesse.

  • MPI_Alltoall
    Sammelt Daten aus und verteilt Daten an alle Mitglieder einer Gruppe.

  • MPI_Alltoallv
    Sammelt Daten aus und verteilt Daten an alle Mitglieder einer Gruppe.

  • MPI_Alltoallw
    Sammelt Daten aus und verteilt Daten an alle Mitglieder einer Gruppe.

  • MPI_Barrier
    Initiiert die Barrieresynchronisierung für alle Mitglieder einer Gruppe.

  • MPI_Bcast
    Sendet Daten von einem Mitglied einer Gruppe an alle Mitglieder der Gruppe.

  • MPI_Gather
    Sammelt Daten von allen Mitgliedern einer Gruppe zu einem Mitglied.

  • MPI_Gatherv
    Sammelt Variablendaten von allen Mitgliedern einer Gruppe zu einem Element.

  • MPI_Iallgather
    Erfasst Daten von allen Mitgliedern einer Gruppe und sendet die Daten nicht blockierend an alle Mitglieder der Gruppe.

  • MPI_Iallreduce
    Kombiniert Werte aus allen Prozessen und verteilt das Ergebnis nicht blockierend an alle Prozesse zurück.

  • MPI_Ibarrier
    Führt eine Barrieresynchronisierung für alle Mitglieder einer Gruppe auf nicht blockierende Weise durch.

  • MPI_Ibcast
    Sendet eine Nachricht aus dem Prozess mit dem Rang "root" auf nicht blockierende Weise an alle anderen Prozesse des Communicators.

  • MPI_Igather
    Sammelt Daten von allen Mitgliedern einer Gruppe zu einem Mitglied auf nicht blockierende Weise.

  • MPI_Igatherv
    Sammelt Variablendaten von allen Mitgliedern einer Gruppe zu einem Mitglied auf nicht blockierende Weise.

  • MPI_Ireduce
    Führt einen globalen Reduzierungsvorgang (z. B. Summe, Maximum oder logisches und) für alle Mitglieder einer Gruppe auf nicht blockierende Weise aus.

  • MPI_Iscatter
    Streut Daten von einem Mitglied auf alle Mitglieder einer Gruppe auf nicht blockierende Weise. Diese Funktion führt die Inverse des Vorgangs aus, der von der MPI_Igather-Funktionausgeführt wird.

  • MPI_Iscatterv
    MPI_Reduce
    Führt einen globalen Reduzierungsvorgang für alle Mitglieder einer Gruppe aus.

  • MPI_Scatter
    Streut Daten von einem Element auf alle Mitglieder einer Gruppe.

  • MPI_Scatterv
    Streut Daten von einem Element auf alle Mitglieder einer Gruppe.

  • MPI_Exscan
    Berechnet den exklusiven Scan (teilweise Reduzierungen) von Daten für eine Sammlung von Prozessen.

  • MPI_Op_create
    Erstellt ein benutzerdefiniertes Kombinationsfunktionshandle.

  • MPI_Op_free
    Gibt ein benutzerdefiniertes Kombinationsfunktionshandle frei.

  • MPI_Reduce_local
    Wendet einen Reduktionsoperator auf lokale Argumente an.

  • MPI_Reduce_scatter
    Kombiniert Werte und streut die Ergebnisse.

  • MPI_Scan
    Berechnet die Überprüfung (teilweise Reduzierungen) von Daten für eine Sammlung von Prozessen.

  • MPI_User_function
    MPI_User_function ist ein Platzhalter für den anwendungsdefinierte Funktionsnamen.