DML_ACTIVATION_LEAKY_RELU_OPERATOR_DESC-Struktur (directml.h)
Führt eine ReLU-Aktivierungsfunktion (Leaky Rectified Linear Unit) für jedes Element in InputTensor aus und platziert das Ergebnis in das entsprechende Element von OutputTensor.
f(x) = x, if x >= 0
Alpha * x, otherwise
Dieser Operator unterstützt die direkte Ausführung, was bedeutet, dass der Ausgabe tensor während der Bindung den InputTensor-Alias verwenden darf.
Syntax
struct DML_ACTIVATION_LEAKY_RELU_OPERATOR_DESC {
const DML_TENSOR_DESC *InputTensor;
const DML_TENSOR_DESC *OutputTensor;
FLOAT Alpha;
};
Member
InputTensor
Typ: const DML_TENSOR_DESC*
Der Eingabe tensor, aus dem gelesen werden soll.
OutputTensor
Typ: const DML_TENSOR_DESC*
Der Ausgabe tensor, in den die Ergebnisse geschrieben werden sollen.
Alpha
Typ: FLOAT
Der Alphakoeffizienten. Ein typischer Standardwert für diesen Wert ist 0,01.
Anforderungen
Kopfzeile | directml.h |
Weitere Informationen
DML_ACTIVATION_RELU_OPERATOR_DESC
Verfügbarkeit
Dieser Operator wurde in DML_FEATURE_LEVEL_1_0
eingeführt.
Tensoreinschränkungen
InputTensor und OutputTensor müssen denselben DataType, DimensionCount und Sizes aufweisen.
Tensorunterstützung
DML_FEATURE_LEVEL_3_0 und höher
Tensor | Typ | Unterstützte Dimensionsanzahl | Unterstützte Datentypen |
---|---|---|---|
InputTensor | Eingabe | 1 bis 8 | FLOAT32, FLOAT16 |
OutputTensor | Ausgabe | 1 bis 8 | FLOAT32, FLOAT16 |
DML_FEATURE_LEVEL_2_0 und höher
Tensor | Typ | Unterstützte Dimensionsanzahl | Unterstützte Datentypen |
---|---|---|---|
InputTensor | Eingabe | 4 bis 5 | FLOAT32, FLOAT16 |
OutputTensor | Ausgabe | 4 bis 5 | FLOAT32, FLOAT16 |
DML_FEATURE_LEVEL_1_0 und höher
Tensor | Typ | Unterstützte Dimensionsanzahl | Unterstützte Datentypen |
---|---|---|---|
InputTensor | Eingabe | 4 | FLOAT32, FLOAT16 |
OutputTensor | Ausgabe | 4 | FLOAT32, FLOAT16 |