DML_ACTIVATION_THRESHOLDED_RELU_OPERATOR_DESC-Struktur (directml.h)
Führt eine ReLU-Aktivierungsfunktion (Rectified Linear Unit) mit Schwellenwerten für jedes Element in InputTensor aus, und platziert das Ergebnis in das entsprechende Element von OutputTensor.
f(x) = x, if x > Alpha
0, otherwise
Dieser Operator unterstützt die direkte Ausführung, was bedeutet, dass der Ausgabe tensor während der Bindung den InputTensor-Alias verwenden darf.
Syntax
struct DML_ACTIVATION_THRESHOLDED_RELU_OPERATOR_DESC {
const DML_TENSOR_DESC *InputTensor;
const DML_TENSOR_DESC *OutputTensor;
FLOAT Alpha;
};
Member
InputTensor
Typ: const DML_TENSOR_DESC*
Der Eingabe tensor, aus dem gelesen werden soll.
OutputTensor
Typ: const DML_TENSOR_DESC*
Der Ausgabe tensor, in den die Ergebnisse geschrieben werden sollen.
Alpha
Typ: FLOAT
Der Schwellenwert für die Funktion. Ein typischer Standardwert für diesen Wert ist 1,0.
Verfügbarkeit
Dieser Operator wurde in DML_FEATURE_LEVEL_1_0
eingeführt.
Tensoreinschränkungen
InputTensor und OutputTensor müssen denselben DataType, DimensionCount und Sizes aufweisen.
Tensorunterstützung
DML_FEATURE_LEVEL_3_0 und höher
Tensor | Typ | Unterstützte Dimensionsanzahl | Unterstützte Datentypen |
---|---|---|---|
InputTensor | Eingabe | 1 bis 8 | FLOAT32, FLOAT16 |
OutputTensor | Ausgabe | 1 bis 8 | FLOAT32, FLOAT16 |
DML_FEATURE_LEVEL_2_0 und höher
Tensor | Typ | Unterstützte Dimensionsanzahl | Unterstützte Datentypen |
---|---|---|---|
InputTensor | Eingabe | 4 bis 5 | FLOAT32, FLOAT16 |
OutputTensor | Ausgabe | 4 bis 5 | FLOAT32, FLOAT16 |
DML_FEATURE_LEVEL_1_0 und höher
Tensor | Typ | Unterstützte Dimensionsanzahl | Unterstützte Datentypen |
---|---|---|---|
InputTensor | Eingabe | 4 | FLOAT32, FLOAT16 |
OutputTensor | Ausgabe | 4 | FLOAT32, FLOAT16 |
Anforderungen
Kopfzeile | directml.h |