D3D12DDI_SHADER_MIN_PRECISION-Enumeration (d3d12umddi.h)
Die D3D12DDI_SHADER_MIN_PRECISION-Enumeration beschreibt die Minimalgenauigkeitsunterstützungsoptionen des Treibers für Shader.
Syntax
typedef enum D3D12DDI_SHADER_MIN_PRECISION {
D3D12DDI_SHADER_MIN_PRECISION_NONE = 0x0,
D3D12DDI_SHADER_MIN_PRECISION_10_BIT = 0x1,
D3D12DDI_SHADER_MIN_PRECISION_16_BIT = 0x2
} ;
Konstanten
D3D12DDI_SHADER_MIN_PRECISION_NONE Wert: 0x0 Der Treiber unterstützt nur die volle 32-Bit-Genauigkeit für alle Shaderphasen. |
D3D12DDI_SHADER_MIN_PRECISION_10_BIT Wert: 0x1 Der Treiber unterstützt 10-Bit-Genauigkeit. |
D3D12DDI_SHADER_MIN_PRECISION_16_BIT Wert: 0x2 Der Treiber unterstützt 16-Bit-Genauigkeit. |
Hinweise
Die zurückgegebenen Informationen zeigen nur an, dass die Grafikhardware HLSL-Vorgänge mit einer niedrigeren Genauigkeit als die standardmäßige 32-Bit-Floatgenauigkeit ausführen kann, aber nicht garantiert, dass die Grafikhardware tatsächlich mit einer niedrigeren Genauigkeit ausgeführt wird.
Anforderungen
Anforderung | Wert |
---|---|
Header | d3d12umddi.h |