次の方法で共有


DML_ELEMENT_WISE_LOGICAL_LESS_THAN_OPERATOR_DESC構造体 (directml.h)

入力テンソルの対応する要素の各ペアに対して より小さい 論理を実行し、結果 (true の場合は 1、false の場合は 0) を OutputTensor の対応する要素に配置します。

f(a, b) = (a < b)

構文

struct DML_ELEMENT_WISE_LOGICAL_LESS_THAN_OPERATOR_DESC {
  const DML_TENSOR_DESC *ATensor;
  const DML_TENSOR_DESC *BTensor;
  const DML_TENSOR_DESC *OutputTensor;
};

メンバー

ATensor

型: const DML_TENSOR_DESC*

左側の入力を含むテンソル。

BTensor

型: const DML_TENSOR_DESC*

右側の入力を含むテンソル。

OutputTensor

型: const DML_TENSOR_DESC*

結果を書き込む出力テンソル。

可用性

この演算子は で DML_FEATURE_LEVEL_1_0導入されました。

テンソル制約

  • ATensorBTensorおよび OutputTensor には、同じ DimensionCountサイズが必要です。
  • ATensorBTensor には同じ DataType が必要です。

Tensor のサポート

DML_FEATURE_LEVEL_4_1以上

テンソル 種類 サポートされているディメンション数 サポートされるデータ型
ATensor 入力 1 から 8 FLOAT32、FLOAT16、INT64、INT32、INT16、INT8、UINT64、UINT32、UINT16、UINT8
BTensor 入力 1 から 8 FLOAT32、FLOAT16、INT64、INT32、INT16、INT8、UINT64、UINT32、UINT16、UINT8
OutputTensor 出力 1 から 8 UINT32、UINT8

DML_FEATURE_LEVEL_3_0以上

テンソル 種類 サポートされているディメンション数 サポートされるデータ型
ATensor 入力 1 から 8 FLOAT32、FLOAT16、INT32、INT16、INT8、UINT32、UINT16、UINT8
BTensor 入力 1 から 8 FLOAT32、FLOAT16、INT32、INT16、INT8、UINT32、UINT16、UINT8
OutputTensor 出力 1 から 8 UINT32、UINT8

DML_FEATURE_LEVEL_2_1以上

テンソル 種類 サポートされているディメンション数 サポートされるデータ型
ATensor 入力 4 FLOAT32、FLOAT16、INT32、INT16、INT8、UINT32、UINT16、UINT8
BTensor 入力 4 FLOAT32、FLOAT16、INT32、INT16、INT8、UINT32、UINT16、UINT8
OutputTensor 出力 4 UINT32、UINT8

DML_FEATURE_LEVEL_2_0以上

テンソル 種類 サポートされているディメンション数 サポートされるデータ型
ATensor 入力 4 FLOAT32、FLOAT16
BTensor 入力 4 FLOAT32、FLOAT16
OutputTensor 出力 4 UINT32、UINT8

DML_FEATURE_LEVEL_1_0以上

テンソル 種類 サポートされているディメンション数 サポートされるデータ型
ATensor 入力 4 FLOAT32、FLOAT16
BTensor 入力 4 FLOAT32、FLOAT16
OutputTensor 出力 4 UINT32

要件

要件
Header directml.h