DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC 구조체(directml.h)
ReLU(정류 선형 단위)에 대한 백프로포지션 그라데이션을 계산합니다. 이 연산자는 다음 요소별 계산을 수행합니다.
X = InputTensor
dY = InputGradientTensor
OutputGradientTensor = (X > 0 ? dY : 0)
해당 전달 패스 연산자가 DML_ACTIVATION_RELU_OPERATOR_DESC.
구문
struct DML_ACTIVATION_RELU_GRAD_OPERATOR_DESC {
const DML_TENSOR_DESC *InputTensor;
const DML_TENSOR_DESC *InputGradientTensor;
const DML_TENSOR_DESC *OutputGradientTensor;
};
멤버
InputTensor
형식: const DML_TENSOR_DESC*
입력(기능) 텐서입니다. 이는 일반적으로 전달 패스 중에 제공된 것과 동일한 입력입니다( DML_ACTIVATION_RELU_OPERATOR_DESC 참조).
InputGradientTensor
형식: const DML_TENSOR_DESC*
들어오는 그라데이션 텐서입니다. 이는 일반적으로 이전 계층의 백프로포지션 출력에서 가져옵니다. 이 텐서의 크기 및 DataType은 InputTensor의 크기와 정확히 일치해야 합니다.
OutputGradientTensor
요구 사항
요구 사항 | 값 |
---|---|
지원되는 최소 클라이언트 | Windows 10 빌드 20348 |
지원되는 최소 서버 | Windows 10 빌드 20348 |
머리글 | directml.h |