Compartir a través de


Método IMLOperatorKernelContext.GetOutputTensor

Sobrecargas

Nombre Descripción
GetOutputTensor(uint32_t, IMLOperatorTensor**) Obtiene el tensor de salida del operador en el índice especificado.
GetOutputTensor(uint32_t, uint32_t, const uint32_t*, IMLOperatorTensor**) Obtiene el tensor de salida del operador en el índice especificado, al declarar su forma.

GetOutputTensor(uint32_t, IMLOperatorTensor**)

Obtiene el tensor de salida del operador en el índice especificado. Esto establece el tensor en nullptr para las salidas opcionales que no existen. Si el kernel del operador se registró sin un método de inferencia de formas, se debe llamar a la sobrecarga de GetOutputTensor que consume la forma del tensor. Devuelve un error si la salida del índice especificado no es un tensor.

void GetOutputTensor(
    uint32_t outputIndex,
    _COM_Outptr_result_maybenull_ IMLOperatorTensor** tensor)

GetOutputTensor(uint32_t, uint32_t, const uint32_t*, IMLOperatorTensor**)

Obtiene el tensor de salida del operador en el índice especificado, al declarar su forma. Esto devuelve nullptr para las salidas opcionales que no existen. Si el kernel del operador se registró con un método de inferencia de formas, también se puede llamar a la sobrecarga de GetOutputTensor que no consume una forma. Devuelve un error si la salida del índice especificado no es un tensor.

void GetOutputTensor(
    uint32_t outputIndex,
    uint32_t dimensionCount,
    _In_reads_(dimensionCount) const uint32_t* dimensionSizes,
    _COM_Outptr_result_maybenull_ IMLOperatorTensor** tensor)

Requisitos

Requisito
Cliente mínimo compatible Compilación 17763 de Windows 10
Servidor mínimo admitido Windows Server 2019 con Experiencia de escritorio
Encabezado MLOperatorAuthor.h

Nota:

Use los siguientes recursos para obtener ayuda con Windows ML:

  • Para formular o responder a preguntas técnicas sobre Windows Machine Learning, utilice la etiqueta windows-machine-learning en Stack Overflow.
  • Para notificar un error, registre un problema en GitHub.