Condividi tramite


DML_ELEMENT_WISE_BIT_OR_OPERATOR_DESC struttura (directml.h)

Calcola l'OR bit per bit tra ogni elemento corrispondente dei tensori di input e scrive il risultato nel tensore di output.

L'operazione bit per bit viene applicata ai dati tensor nella codifica nativa. Pertanto, il tipo di dati tensor viene ignorato, ad eccezione della determinazione della larghezza di ogni elemento.

Questo operatore supporta l'esecuzione sul posto, ovvero il tensore di output è consentito per aliasrne uno o più durante l'associazione.

Sintassi

struct DML_ELEMENT_WISE_BIT_OR_OPERATOR_DESC {
  const DML_TENSOR_DESC *ATensor;
  const DML_TENSOR_DESC *BTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

Members

ATensor

Tipo: const DML_TENSOR_DESC*

Tensore contenente gli input lato sinistro.

BTensor

Tipo: const DML_TENSOR_DESC*

Tensore contenente gli input lato destro.

OutputTensor

Tipo: const DML_TENSOR_DESC*

Tensore di output in cui scrivere i risultati.

Disponibilità

Questo operatore è stato introdotto in DML_FEATURE_LEVEL_3_0.

Vincoli tensor

ATensor, BTensor e OutputTensor devono avere lo stesso oggetto DataType, DimensionCount e Sizes.

Supporto di Tensor

DML_FEATURE_LEVEL_4_1 e versioni successive

Tensore Tipo Conteggi delle dimensioni supportate Tipi di dati supportati
ATensor Input da 1 a 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
BTensor Input da 1 a 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8
OutputTensor Output da 1 a 8 FLOAT64, FLOAT32, FLOAT16, INT64, INT32, INT16, INT8, UINT64, UINT32, UINT16, UINT8

DML_FEATURE_LEVEL_3_0 e versioni successive

Tensore Tipo Conteggi delle dimensioni supportate Tipi di dati supportati
ATensor Input da 1 a 8 UINT32, UINT16, UINT8
BTensor Input da 1 a 8 UINT32, UINT16, UINT8
OutputTensor Output da 1 a 8 UINT32, UINT16, UINT8

Requisiti

   
Client minimo supportato Windows 10 Build 20348
Server minimo supportato Windows 10 Build 20348
Intestazione directml.h