Condividi tramite


struttura DML_ELEMENT_WISE_BIT_NOT_OPERATOR_DESC (directml.h)

Calcola il valore NOT bit per bit per ogni elemento del tensore di input e scrive il risultato nel tensore di output.

L'operazione bit per bit viene applicata ai dati tensor nella codifica nativa. Di conseguenza, il tipo di dati tensor viene ignorato, ad eccezione della determinazione della larghezza di ogni elemento.

Questo operatore supporta l'esecuzione sul posto, ovvero il tensore di output è autorizzato ad eseguire l'alias del tensore di input durante l'associazione.

Sintassi

struct DML_ELEMENT_WISE_BIT_NOT_OPERATOR_DESC {
  const DML_TENSOR_DESC *InputTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

Members

InputTensor

Tipo: const DML_TENSOR_DESC*

Tensore di input da cui leggere.

OutputTensor

Tipo: const DML_TENSOR_DESC*

Tensore di output in cui scrivere i risultati.

Esempio

InputTensor: (Sizes:{2,2}, DataType:UINT8)
[[0,  128], // 0b00000000, 0b10000000
 [42, 255]] // 0b00101010, 0b11111111

OutputTensor: (Sizes:{2,2}, DataType:UINT8)
[[255, 127], // 0b11111111, 0b01111111
 [213, 0  ]] // 0b11010101, 0b00000000

Disponibilità

Questo operatore è stato introdotto in DML_FEATURE_LEVEL_3_0.

Vincoli tensor

InputTensor e OutputTensor devono avere gli stessi Valori DataType, DimensionCount e Size.

Supporto di Tensor

DML_FEATURE_LEVEL_4_1 e versioni successive

Tensore Tipo Conteggi delle dimensioni supportati Tipi di dati supportati
InputTensor Input da 1 a 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
OutputTensor Output da 1 a 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_3_0 e versioni successive

Tensore Tipo Conteggi delle dimensioni supportati Tipi di dati supportati
InputTensor Input da 1 a 8 UINT32, UINT16, UINT8
OutputTensor Output da 1 a 8 UINT32, UINT16, UINT8

Requisiti

   
Client minimo supportato Windows 10 Build 20348
Server minimo supportato Windows 10 Build 20348
Intestazione directml.h