DML_ACTIVATION_GELU_OPERATOR_DESC-Struktur (directml.h)
Führt die Gaußsche lineare Fehlereinheit (GELU) Aktivierungsfunktion auf jedem Element in InputTensor aus und platziert das Ergebnis in das entsprechende Element von OutputTensor.
f(x) = 0.5 * x * (1.0 + erf(x / sqrt(2)))
Dabei ist erf(x) DML_ELEMENT_WISE_ERF_OPERATOR_DESC.
Wichtig
Diese API ist als Teil des eigenständigen weiterverteilbare Pakets DirectML verfügbar (siehe Microsoft.AI.DirectML , Version 1.9 und höher). Siehe auch DirectML-Versionsverlauf.
Syntax
struct DML_ACTIVATION_GELU_OPERATOR_DESC
{
const DML_TENSOR_DESC* InputTensor;
const DML_TENSOR_DESC* OutputTensor;
};
Member
InputTensor
Typ: const DML_TENSOR_DESC*
Der Eingabe-Tensor, aus dem gelesen wird.
OutputTensor
Typ: const DML_TENSOR_DESC*
Der Ausgabe-Tensor, in die das Ergebnis geschrieben werden soll.
Verfügbarkeit
Dieser Operator wurde in DML_FEATURE_LEVEL_5_1 eingeführt.
Tensor-Einschränkungen
InputTensor und OutputTensor müssen denselben DataType, DimensionCount, und Sizes aufweisen.
Tensor-Unterstützung
Tensor | Variante | Unterstützte Dimensionsanzahl | Unterstützte Datentypen |
---|---|---|---|
InputTensor | Eingabe | 1 bis 8 | FLOAT32, FLOAT16 |
OutputTensor | Output | 1 bis 8 | FLOAT32, FLOAT16 |
Anforderungen
Übergeordnet | directml.h |