Intrínsecos ARM
O compilador do Visual C++ disponibiliza os seguintes intrínsecos na arquitetura ARM. Para obter mais informações sobre ARM, consulte o manuais de referência de arquitetura ARM e guia do ARM Assembler ferramentas no site do Centro de informações de ARM.
NEON
As extensões de conjunto de instruções de vetor NEON para ARM fornecem recursos SIMD (Single Instruction Multiple Data) semelhantes aos conjuntos de instrução de vetor do MMX e SSE, que são comuns em processadores de arquitetura x86 e x64.
Intrínsecos do NEON são suportados, conforme fornecido no arquivo de cabeçalho arm_neon.h. O suporte de compilador do Visual C++ para intrínsecos do NEON são semelhantes ao do compilador ARM, que está documentado no Apêndice G da cadeia de ferramentas do compilador de ARM, Referência de compilador, versão 4.1 no site do Centro de informações de ARM.
A principal diferença entre o compilador do Visual C++ e o compilador ARM é que o compilador do Visual C++ adiciona _ex variantes da carga de vetor vldX e vstX instruções de armazenamento. As variantes _ex usam um parâmetro adicional que especifica o alinhamento do argumento de ponteiro, mas que são idênticas a suas não _ex equivalentes.
Listagem de intrínsecos específicos de ARM
Nome de função |
Instrução |
Protótipo da função |
---|---|---|
_arm_smlal |
SMLAL |
__int64 _arm_smlal (__int64 _RdHiLo _Rn int, int _Rm) |
_arm_umlal |
UMLAL |
unsigned __int64 _arm_umlal(unsigned __int64 _RdHiLo, unsigned int _Rn, unsigned int _Rm) |
_arm_clz |
CLZ |
unsigned int _arm_clz(unsigned int _Rm) |
_arm_qadd |
QADD |
int _arm_qadd(int _Rm, int _Rn) |
_arm_qdadd |
QDADD |
int _arm_qdadd(int _Rm, int _Rn) |
_arm_qdsub |
QDSUB |
int _arm_qdsub(int _Rm, int _Rn) |
_arm_qsub |
QSUB |
int _arm_qsub(int _Rm, int _Rn) |
_arm_smlabb |
SMLABB |
int _arm_smlabb(int _Rn, int _Rm, int _Ra) |
_arm_smlabt |
SMLABT |
int _arm_smlabt(int _Rn, int _Rm, int _Ra) |
_arm_smlatb |
SMLATB |
int _arm_smlatb(int _Rn, int _Rm, int _Ra) |
_arm_smlatt |
SMLATT |
int _arm_smlatt(int _Rn, int _Rm, int _Ra) |
_arm_smlalbb |
SMLALBB |
__int64 _arm_smlalbb(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlalbt |
SMLALBT |
__int64 _arm_smlalbt(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaltb |
SMLALTB |
__int64 _arm_smlaltb(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaltt |
SMLALTT |
__int64 _arm_smlaltt(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlawb |
SMLAWB |
int _arm_smlawb(int _Rn, int _Rm, int _Ra) |
_arm_smlawt |
SMLAWT |
int _arm_smlawt(int _Rn, int _Rm, int _Ra) |
_arm_smulbb |
SMULBB |
int _arm_smulbb(int _Rn, int _Rm) |
_arm_smulbt |
SMULBT |
int _arm_smulbt(int _Rn, int _Rm) |
_arm_smultb |
SMULTB |
int _arm_smultb(int _Rn, int _Rm) |
_arm_smultt |
SMULTT |
int _arm_smultt(int _Rn, int _Rm) |
_arm_smulwb |
SMULWB |
int _arm_smulwb(int _Rn, int _Rm) |
_arm_smulwt |
SMULWT |
int _arm_smulwt(int _Rn, int _Rm) |
_arm_sadd16 |
SADD16 |
int _arm_sadd16(int _Rn, int _Rm) |
_arm_sadd8 |
SADD8 |
int _arm_sadd8(int _Rn, int _Rm) |
_arm_sasx |
SASX |
int _arm_sasx(int _Rn, int _Rm) |
_arm_ssax |
SSAX |
int _arm_ssax(int _Rn, int _Rm) |
_arm_ssub16 |
SSUB16 |
int _arm_ssub16(int _Rn, int _Rm) |
_arm_ssub8 |
SSUB8 |
int _arm_ssub8(int _Rn, int _Rm) |
_arm_shadd16 |
SHADD16 |
int _arm_shadd16(int _Rn, int _Rm) |
_arm_shadd8 |
SHADD8 |
int _arm_shadd8(int _Rn, int _Rm) |
_arm_shasx |
SHASX |
int _arm_shasx(int _Rn, int _Rm) |
_arm_shsax |
SHSAX |
int _arm_shsax(int _Rn, int _Rm) |
_arm_shsub16 |
SHSUB16 |
int _arm_shsub16(int _Rn, int _Rm) |
_arm_shsub8 |
SHSUB8 |
int _arm_shsub8(int _Rn, int _Rm) |
_arm_qadd16 |
QADD16 |
int _arm_qadd16(int _Rn, int _Rm) |
_arm_qadd8 |
QADD8 |
int _arm_qadd8(int _Rn, int _Rm) |
_arm_qasx |
QASX |
int _arm_qasx(int _Rn, int _Rm) |
_arm_qsax |
QSAX |
int _arm_qsax(int _Rn, int _Rm) |
_arm_qsub16 |
QSUB16 |
int _arm_qsub16(int _Rn, int _Rm) |
_arm_qsub8 |
QSUB8 |
int _arm_qsub8(int _Rn, int _Rm) |
_arm_uadd16 |
UADD16 |
unsigned int _arm_uadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uadd8 |
UADD8 |
unsigned int _arm_uadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uasx |
UASX |
unsigned int _arm_uasx(unsigned int _Rn, unsigned int _Rm) |
_arm_usax |
USAX |
unsigned int _arm_usax(unsigned int _Rn, unsigned int _Rm) |
_arm_usub16 |
USUB16 |
unsigned int _arm_usub16(unsigned int _Rn, unsigned int _Rm) |
_arm_usub8 |
USUB8 |
unsigned int _arm_usub8(unsigned int _Rn, unsigned int _Rm) |
_arm_uhadd16 |
UHADD16 |
unsigned int _arm_uhadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uhadd8 |
UHADD8 |
unsigned int _arm_uhadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uhasx |
UHASX |
unsigned int _arm_uhasx(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsax |
UHSAX |
unsigned int _arm_uhsax(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsub16 |
UHSUB16 |
unsigned int _arm_uhsub16(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsub8 |
UHSUB8 |
unsigned int _arm_uhsub8(unsigned int _Rn, unsigned int _Rm) |
_arm_uqadd16 |
UQADD16 |
unsigned int _arm_uqadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uqadd8 |
UQADD8 |
unsigned int _arm_uqadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uqasx |
UQASX |
unsigned int _arm_uqasx(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsax |
UQSAX |
unsigned int _arm_uqsax(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsub16 |
UQSUB16 |
unsigned int _arm_uqsub16(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsub8 |
UQSUB8 |
unsigned int _arm_uqsub8(unsigned int _Rn, unsigned int _Rm) |
_arm_sxtab |
SXTAB |
int _arm_sxtab(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_sxtab16 |
SXTAB16 |
int _arm_sxtab16(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_sxtah |
SXTAH |
int _arm_sxtah(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_uxtab |
UXTAB |
unsigned int _arm_uxtab(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_uxtab16 |
UXTAB16 |
unsigned int _arm_uxta16b(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_uxtah |
UXTAH |
unsigned int _arm_uxtah(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_sxtb |
SXTB |
int _arm_sxtb(int _Rn, unsigned int _Rotation) |
_arm_sxtb16 |
SXTB16 |
int _arm_sxtb16(int _Rn, unsigned int _Rotation) |
_arm_sxth |
SXTH |
int _arm_sxth(int _Rn, unsigned int _Rotation) |
_arm_uxtb |
UXTB |
unsigned int _arm_uxtb(unsigned int _Rn, unsigned int _Rotation) |
_arm_uxtb16 |
UXTB16 |
unsigned int _arm_uxtb16(unsigned int _Rn, unsigned int _Rotation) |
_arm_uxth |
UXTH |
unsigned int _arm_uxth(unsigned int _Rn, unsigned int _Rotation) |
_arm_pkhbt |
PKHBT |
int _arm_pkhbt(int _Rn, int _Rm, unsigned int _Lsl_imm) |
_arm_pkhtb |
PKHTB |
int _arm_pkhtb(int _Rn, int _Rm, unsigned int _Asr_imm) |
_arm_usad8 |
USAD8 |
unsigned int _arm_usad8(unsigned int _Rn, unsigned int _Rm) |
_arm_usada8 |
USADA8 |
unsigned int _arm_usada8(unsigned int _Rn, unsigned int _Rm, unsigned int _Ra) |
_arm_ssat |
SSAT |
int _arm_ssat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm) |
_arm_usat |
USAT |
int _arm_usat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm) |
_arm_ssat16 |
SSAT16 |
int _arm_ssat16(unsigned int _Sat_imm, _int _Rn) |
_arm_usat16 |
USAT16 |
int _arm_usat16(unsigned int _Sat_imm, _int _Rn) |
_arm_rev |
REVISÃO |
unsigned int _arm_rev(unsigned int _Rm) |
_arm_rev16 |
REV16 |
unsigned int _arm_rev16(unsigned int _Rm) |
_arm_revsh |
REVSH |
unsigned int _arm_revsh(unsigned int _Rm) |
_arm_smlad |
SMLAD |
int _arm_smlad(int _Rn, int _Rm, int _Ra) |
_arm_smladx |
SMLADX |
int _arm_smladx(int _Rn, int _Rm, int _Ra) |
_arm_smlsd |
SMLSD |
int _arm_smlsd(int _Rn, int _Rm, int _Ra) |
_arm_smlsdx |
SMLSDX |
int _arm_smlsdx(int _Rn, int _Rm, int _Ra) |
_arm_smmla |
SMMLA |
int _arm_smmla(int _Rn, int _Rm, int _Ra) |
_arm_smmlar |
SMMLAR |
int _arm_smmlar(int _Rn, int _Rm, int _Ra) |
_arm_smmls |
SMMLS |
int _arm_smmls(int _Rn, int _Rm, int _Ra) |
_arm_smmlsr |
SMMLSR |
int _arm_smmlsr(int _Rn, int _Rm, int _Ra) |
_arm_smmul |
SMMUL |
int _arm_smmul(int _Rn, int _Rm) |
_arm_smmulr |
SMMULR |
int _arm_smmulr(int _Rn, int _Rm) |
_arm_smlald |
SMLALD |
__int64 _arm_smlald(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaldx |
SMLALDX |
__int64 _arm_smlaldx(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlsld |
SMLSLD |
__int64 _arm_smlsld(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlsldx |
SMLSLDX |
__int64 _arm_smlsldx(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smuad |
SMUAD |
int _arm_smuad(int _Rn, int _Rm) |
_arm_smuadx |
SMUADX |
int _arm_muadxs(int _Rn, int _Rm) |
_arm_smusd |
SMUSD |
int _arm_smusd(int _Rn, int _Rm) |
_arm_smusdx |
SMUSDX |
int _arm_smusdx(int _Rn, int _Rm) |
_arm_smull |
SMULL |
__int64 _arm_smull(int _Rn, int _Rm) |
_arm_umull |
UMULL |
unsigned __int64 _arm_umull(unsigned int _Rn, unsigned int _Rm) |
_arm_umaal |
UMAAL |
unsigned __int64 _arm_umaal(unsigned int _RdLo, unsigned int _RdHi, unsigned int _Rn, unsigned int _Rm) |
_arm_bfc |
BFC |
unsigned int _arm_bfc(unsigned int _Rd, unsigned int _Lsb, unsigned int _Width) |
_arm_bfi |
BFI |
unsigned int _arm_bfi(unsigned int _Rd, unsigned int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_rbit |
RBIT |
unsigned int _arm_rbit(unsigned int _Rm) |
_arm_sbfx |
SBFX |
int _arm_sbfx(int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_ubfx |
UBFX |
unsigned int _arm_ubfx(unsigned int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_sdiv |
SDIV |
int _arm_sdiv(int _Rn, int _Rm) |
_arm_udiv |
UDIV |
unsigned int _arm_udiv(unsigned int _Rn, unsigned int _Rm) |
__cps |
CPS |
void __cps(unsigned int _Ops, unsigned int _Flags, unsigned int _Mode) |
__dmb |
DMB |
void __dmb(unsigned int _Type) Insere uma operação de barreira de memória no fluxo de instruções. O parâmetro _Type especifica o tipo de restrição que a barreira impõe. Para obter mais informações sobre os tipos de restrições que podem ser aplicadas, consulte restrições de barreira de memória. |
__dsb |
DSB |
void __dsb(unsigned int _Type) Insere uma operação de barreira de memória no fluxo de instruções. O parâmetro _Type especifica o tipo de restrição que a barreira impõe. Para obter mais informações sobre os tipos de restrições que podem ser aplicadas, consulte restrições de barreira de memória. |
__isb |
ISB |
void __isb(unsigned int _Type) Insere uma operação de barreira de memória no fluxo de instruções. O parâmetro _Type especifica o tipo de restrição que a barreira impõe. Para obter mais informações sobre os tipos de restrições que podem ser aplicadas, consulte restrições de barreira de memória. |
__emit |
void __emit(unsigned __int32 opcode) Insere uma instrução especificada no fluxo de instruções produzido pelo compilador. O valor de opcode deve ser uma expressão constante conhecida em tempo de compilação. O tamanho de uma palavra de instrução é 16 bits e 16 bits mais significativos de opcode são ignorados. O compilador não faz tentativa de interpretar o conteúdo de opcode e não garante um estado de CPU ou memória antes da instrução inserida ser executada. O compilador supõe que os estados de CPU e memória são inalterados depois que a instrução inserida é executada. Portanto, instruções que alterem o estado podem ter um impacto prejudicial no código normal que é gerado pelo compilador. Por esse motivo, use emit somente para inserir instruções que afetam o estado da CPU que o compilador normalmente não processa – por exemplo, o estado coprocessador – ou para implementar as funções que são declaradas usando declspec(naked). |
|
__hvc |
HVC |
unsigned int __hvc(unsigned int, ...) |
__iso_volatile_load16 |
__int16 __iso_volatile_load16(const volatile __int16 *) Para obter mais informações, consulte __iso_volatile_load/armazenamento intrínsecos. |
|
__iso_volatile_load32 |
__int32 __iso_volatile_load32(const volatile __int32 *) Para obter mais informações, consulte __iso_volatile_load/armazenamento intrínsecos. |
|
__iso_volatile_load64 |
__int64 __iso_volatile_load64(const volatile __int64 *) Para obter mais informações, consulte __iso_volatile_load/armazenamento intrínsecos. |
|
__iso_volatile_load8 |
__int8 __iso_volatile_load8(const volatile __int8 *) Para obter mais informações, consulte __iso_volatile_load/armazenamento intrínsecos. |
|
__iso_volatile_store16 |
void __iso_volatile_store16(volatile __int16 *, __int16) Para obter mais informações, consulte __iso_volatile_load/armazenamento intrínsecos. |
|
__iso_volatile_store32 |
void __iso_volatile_store32(volatile __int32 *, __int32) Para obter mais informações, consulte __iso_volatile_load/armazenamento intrínsecos. |
|
__iso_volatile_store64 |
void __iso_volatile_store64(volatile __int64 *, __int64) Para obter mais informações, consulte __iso_volatile_load/armazenamento intrínsecos. |
|
__iso_volatile_store8 |
void __iso_volatile_store8(volatile __int8 *, __int8) Para obter mais informações, consulte __iso_volatile_load/armazenamento intrínsecos. |
|
__ldrexd |
LDREXD |
__int64 __ldrexd(const volatile __int64 *) |
__prefetch |
PLD |
void __cdecl __prefetch(const void *) Fornece uma dica de memória de PLD ao sistema de que a memória que está no endereço especificado ou próximo a ele pode ser acessada. Alguns sistemas podem optar por otimizar para esse padrão de acesso de memória para aumentar o desempenho de tempo de execução. No entanto, do ponto de vista da linguagem C++, a função não tem efeito observável e pode não ter nenhuma ação. |
__rdpmccntr64 |
unsigned __int64 __rdpmccntr64(void) |
|
__sev |
SETE |
void __sev(void) |
__static_assert |
void __static_assert(int, const char *) |
|
__swi |
SVC |
unsigned int __swi(unsigned int, ...) |
__trap |
BKPT |
int __trap (int...) |
__wfe |
WFE |
void __wfe(void) |
__wfi |
WFI |
void __wfi(void) |
_AddSatInt |
QADD |
int _AddSatInt(int, int) |
_CopyDoubleFromInt64 |
double _CopyDoubleFromInt64(__int64) |
|
_CopyFloatFromInt32 |
float _CopyFloatFromInt32(__int32) |
|
_CopyInt32FromFloat |
__int32 _CopyInt32FromFloat(float) |
|
_CopyInt64FromDouble |
__int64 _CopyInt64FromDouble(double) |
|
_CountLeadingOnes |
unsigned int _CountLeadingOnes(unsigned long) |
|
_CountLeadingOnes64 |
unsigned int _CountLeadingOnes64(unsigned __int64) |
|
_CountLeadingSigns |
unsigned int _CountLeadingSigns(long) |
|
_CountLeadingSigns64 |
unsigned int _CountLeadingSigns64(__int64) |
|
_CountLeadingZeros |
unsigned int _CountLeadingZeros(unsigned long) |
|
_CountLeadingZeros64 |
unsigned int _CountLeadingZeros64(unsigned __int64) |
|
_CountOneBits |
unsigned int _CountOneBits(unsigned long) |
|
_CountOneBits64 |
unsigned int _CountOneBits64(unsigned __int64) |
|
_DAddSatInt |
QDADD |
int _DAddSatInt(int, int) |
_DSubSatInt |
QDSUB |
int _DSubSatInt(int, int) |
_isunordered |
int _isunordered(double, double) |
|
_isunorderedf |
int _isunorderedf(float, float) |
|
_MoveFromCoprocessor |
MRC |
unsigned int _MoveFromCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lê dados de um coprocessador de ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveFromCoprocessor, _MoveFromCoprocessor2. |
_MoveFromCoprocessor2 |
MRC2 |
unsigned int _MoveFromCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lê dados de um coprocessador de ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveFromCoprocessor, _MoveFromCoprocessor2. |
_MoveFromCoprocessor64 |
MRRC |
unsigned __int64 _MoveFromCoprocessor64(unsigned int, unsigned int, unsigned int) Lê dados de um coprocessador de ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveFromCoprocessor64. |
_MoveToCoprocessor |
MCR |
void _MoveToCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lê dados de um coprocessador de ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveToCoprocessor, _MoveToCoprocessor2. |
_MoveToCoprocessor2 |
MCR2 |
void _MoveToCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lê dados de um coprocessador de ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveToCoprocessor, _MoveToCoprocessor2. |
_MoveToCoprocessor64 |
MCRR |
void _MoveToCoprocessor64(unsigned __int64, unsigned int, unsigned int, unsigned int) Lê dados de um coprocessador de ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveToCoprocessor64. |
_MulHigh |
long _MulHigh(long, long) |
|
_MulUnsignedHigh |
unsigned long _MulUnsignedHigh(unsigned long, unsigned long) |
|
_ReadBankedReg |
MRS |
int _ReadBankedReg (int reg) |
_ReadStatusReg |
MRS |
int _ReadStatusReg(int) |
_SubSatInt |
QSUB |
int _SubSatInt(int, int) |
_WriteBankedReg |
MSR |
void _WriteBankedReg(int _Value, int _Reg) |
_WriteStatusReg |
MSR |
void _WriteStatusReg(int, int, int) |
[Vá para a parte superior]
Restrições de barreira de memória
Funções intrínsecas __dmb (barreira de memória de dados), __dsb (barreira de sincronização de dados), e __isb (barreira de sincronização de instrução) os seguintes valores predefinidos para especificar a restrição de barreira de memória em termos domínio de compartilhamento e tipo de acesso que são afetados pela operação.
Valor de restrição |
Descrição |
---|---|
_ARM_BARRIER_SY |
Sistema completo, leituras e gravações. |
_ARM_BARRIER_ST |
Sistema completo, somente gravações. |
_ARM_BARRIER_ISH |
Compartilháveis internos, leituras e gravações. |
_ARM_BARRIER_ISHST |
Compartilháveis internos, somente gravações. |
_ARM_BARRIER_NSH |
Não compartilháveis, leituras e gravações. |
_ARM_BARRIER_NSHST |
Não compartilháveis, somente gravações. |
_ARM_BARRIER_OSH |
Compartilháveis externos, leituras e gravações. |
_ARM_BARRIER_OSHST |
Compartilháveis externos, somente gravações. |
Para o intrínseco __isb, a única restrição que é válida no momento é _ARM_BARRIER_SY; todos os outros valores são reservados pela arquitetura.
__iso_volatile_load/store instrinsics
Essas funções intrínsecas executam explicitamente cargas e armazenamentos que não estão sujeitos a otimizações do compilador.
__int16 __iso_volatile_load16(const volatile __int16 * Location)
__int32 __iso_volatile_load32(const volatile __int32 * Location)
__int64 __iso_volatile_load64(const volatile __int64 * Location)
__int8 __iso_volatile_load8(const volatile __int8 * Location)
void __iso_volatile_store16(volatile __int16 * Location, __int16 Value)
void __iso_volatile_store32(volatile __int32 * Location, __int32 Value)
void __iso_volatile_store64(volatile __int64 * Location, __int64 Value)
void __iso_volatile_store8(volatile __int8 * Location, __int8 Value)
Parâmetros
Location
O endereço de um local de memória para ler ou gravar.Value(só armazena intrínsecos)
O valor a gravar no local de memória especificado.
Valor de retorno (só intrínsecos de carga)
O valor do local da memória é especificado por Location.
Comentários
Você pode usar os intrínsecos __iso_volatile_load8/16/32/64 e __iso_volatile_store8/16/32/64 para executar explicitamente acessos de memória que não estão sujeitos a otimizações do compilador. O compilador não pode remover, sintetizar nem alterar a ordem relativa dessas operações, mas não gera barreiras de memória de hardware implícitas. Portanto, o hardware ainda pode reorganizar os acessos de memória observáveis entre vários threads. Mais precisamente, esses intrínsecos são equivalentes às seguintes expressões compiladas em /volatile:iso.
int a = __iso_volatile_load32(p); // equivalent to: int a = *(const volatile __int32*)p;
__iso_volatile_store32(p, a); // equivalent to: *(volatile __int32*)p = a;
Observe que o intrínseco usa ponteiros voláteis para acomodar variáveis voláteis. No entanto, não existe requisito ou recomendação para usar ponteiros voláteis como argumentos; a semântica dessas operações é exatamente a mesma se um tipo normal, não volátil for usado.
Para obter mais informações sobre o argumento de linha de comando /volatile:iso, consulte /volatile (Interpretação da palavra-chave volatile).
_MoveFromCoprocessor, _MoveFromCoprocessor2
Essas funções intrínsecas leem dados de coprocessadores de ARM usando instruções de transferência de dados de coprocessador.
int _MoveFromCoprocessor(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
int _MoveFromCoprocessor2(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Parâmetros
coproc
Número de coprocessador no intervalo de 0 a 15.opcode1
Código operacional específico de coprocessador no intervalo de 0 a 7crn
Número de registro do coprocessador, no intervalo de 0 a 15, que especifica o primeiro operando da instrução.crm
Número de registro do coprocessador no intervalo de 0 a 15, que especifica uma fonte adicional ou operando de destino.opcode2
Código operacional adicional específico de coprocessador no intervalo de 0 a 7.
Valor de retorno
O valor lido do coprocessador.
Comentários
Os valores de todos cinco parâmetros desses intrínsecos devem ser expressões constantes conhecidas em tempo de compilação.
_MoveFromCoprocessor usa a instrução MRC; _MoveFromCoprocessor2 usa MRC2. Os parâmetros correspondem a campos de bits codificados diretamente na palavra de instrução. A interpretação dos parâmetros depende do coprocessador. Para obter mais informações, consulte o manual do coprocessador em questão.
_MoveFromCoprocessor64
Lê dados de coprocessadores de ARM usando as instruções de transferência de dados do coprocessador.
unsigned __int64 _MoveFromCoprocessor64(
unsigned int coproc,
unsigned int opcode1,
unsigned int crm,
);
Parâmetros
coproc
Número de coprocessador no intervalo de 0 a 15.opcode1
Código operacional específico de coprocessador no intervalo de 0 a 15.crm
Número de registro do coprocessador no intervalo de 0 a 15, que especifica uma fonte adicional ou operando de destino.
Valor de retorno
O valor lido do coprocessador.
Comentários
Os valores de todos os três parâmetros desses intrínsecos devem ser expressões constantes conhecidas em tempo de compilação.
_MoveFromCoprocessor64 usa a instrução MRRC. Os parâmetros correspondem a campos de bits codificados diretamente na palavra de instrução. A interpretação dos parâmetros depende do coprocessador. Para obter mais informações, consulte o manual do coprocessador em questão.
_MoveToCoprocessor, _MoveToCoprocessor2
Essas funções intrínsecas gravam dados nos coprocessadores de ARM usando instruções de transferência de dados de coprocessador.
void _MoveToCoprocessor(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
void _MoveToCoprocessor2(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Parâmetros
value
O valor a ser gravado no coprocessador.coproc
Número de coprocessador no intervalo de 0 a 15.opcode1
Código operacional específico de coprocessador no intervalo de 0 a 7.crn
Número de registro do coprocessador, no intervalo de 0 a 15, que especifica o primeiro operando da instrução.crm
Número de registro do coprocessador no intervalo de 0 a 15, que especifica uma fonte adicional ou operando de destino.opcode2
Código operacional adicional específico de coprocessador no intervalo de 0 a 7.
Valor de retorno
Nenhum.
Comentários
Os valores dos parâmetros coproc, opcode1, crn, crm, e opcode2 desse intrínseco devem ser expressões constantes conhecidas em tempo de compilação.
_MoveToCoprocessor usa a instrução MCR; _MoveToCoprocessor2 usa MCR2. Os parâmetros correspondem a campos de bits codificados diretamente na palavra de instrução. A interpretação dos parâmetros depende do coprocessador. Para obter mais informações, consulte o manual do coprocessador em questão.
_MoveToCoprocessor64
Essas funções intrínsecas gravam dados nos coprocessadores de ARM usando instruções de transferência de dados de coprocessador.
void _MoveFromCoprocessor64(
unsigned __int64 value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crm,
);
Parâmetros
coproc
Número de coprocessador no intervalo de 0 a 15.opcode1
Código operacional específico de coprocessador no intervalo de 0 a 15.crm
Número de registro do coprocessador no intervalo de 0 a 15, que especifica uma fonte adicional ou operando de destino.
Valor de retorno
Nenhum.
Comentários
Os valores dos parâmetros coproc, opcode1, e crm desse intrínseco devem ser expressões constantes conhecidas em tempo de compilação.
_MoveFromCoprocessor64 usa a instrução MRRC. Os parâmetros correspondem a campos de bits codificados diretamente na palavra de instrução. A interpretação dos parâmetros depende do coprocessador. Para obter mais informações, consulte o manual do coprocessador em questão.
Suporte ao ARM para intrínsecos outras arquiteturas
A tabela a seguir lista intrínsecos de outras arquiteturas que são suportados em plataformas ARM. Onde o comportamento de um intrínsecos no ARM difere de seu comportamento em outras arquiteturas de hardware, detalhes adicionais são observados.
Nome de função |
Protótipo da função |
---|---|
__assume |
void __assume(int) |
__code_seg |
void __code_seg(const char *) |
__debugbreak |
void __cdecl __debugbreak(void) |
__fastfail |
__declspec(noreturn) void __fastfail(unsigned int) |
__nop |
void __nop(void) Dica Em plataformas ARM, essa função gera uma instrução NOP se uma estiver implementada na arquitetura de destino; caso contrário, uma instrução alternativa que não altera o estado do programa ou da CPU é gerada – por exemplo, MOV r8, r8.Essa é uma funcionalidade equivalente ao intrínseco __nop para outras arquiteturas de hardware. Como uma instrução que não tem nenhum efeito sobre o estado do programa ou da CPU pode ser ignorada pela arquitetura de destino como uma otimização, a instrução não necessariamente consome ciclos de CPU.Portanto, não use o intrínseco __nop para manipular o tempo de execução de uma sequência de código, a menos que tenha certeza de como a CPU se comportará.Em vez disso, você pode usar o intrínseco __nop para alinhar a próxima instrução com um endereço de limite específico de 32 bits. |
__yield |
void __yield(void) Dica Em plataformas ARM, essa função gera a instrução YIELD, que indica que o thread está executando uma tarefa que pode ser temporariamente suspensa – por exemplo, um spinlock – sem afetar negativamente o programa.Isso permite que a CPU execute outras tarefas durante ciclos de execução que, de outra forma, seriam perdidos. |
_AddressOfReturnAddress |
void * _AddressOfReturnAddress(void) |
_BitScanForward |
unsigned char _BitScanForward(unsigned long * _Index, unsigned long _Mask) |
_BitScanReverse |
unsigned char _BitScanReverse(unsigned long * _Index, unsigned long _Mask) |
_bittest |
unsigned char _bittest(long const *, long) |
_bittestandcomplement |
unsigned char _bittestandcomplement(long *, long) |
_bittestandreset |
unsigned char _bittestandreset(long *, long) |
_bittestandset |
unsigned char _bittestandset(long *, long) |
_byteswap_uint64 |
unsigned __int64 __cdecl _byteswap_uint64(unsigned __int64) |
_byteswap_ulong |
unsigned long __cdecl _byteswap_ulong(unsigned long) |
_byteswap_ushort |
unsigned short __cdecl _byteswap_ushort(unsigned short) |
_disable |
void __cdecl _disable(void) Dica Em plataformas ARM, esta função gera a instrução CPSID; só está disponível como um intrínseco. |
_enable |
void __cdecl _enable(void) Dica Em plataformas ARM, essa função gera a instrução CPSIE; só está disponível como um intrínseco. |
_lrotl |
unsigned long __cdecl _lrotl(unsigned long, int) |
_lrotr |
unsigned long __cdecl _lrotr(unsigned long, int) |
_ReadBarrier |
void _ReadBarrier(void) |
_ReadWriteBarrier |
void _ReadWriteBarrier(void) |
_ReturnAddress |
void * _ReturnAddress(void) |
_rotl |
unsigned int __cdecl _rotl(unsigned int _Value, int _Shift) |
_rotl16 |
unsigned short _rotl16(unsigned short _Value, unsigned char _Shift) |
_rotl64 |
unsigned __int64 __cdecl _rotl64(unsigned __int64 _Value, int _Shift) |
_rotl8 |
unsigned char _rotl8(unsigned char _Value, unsigned char _Shift) |
_rotr |
unsigned int __cdecl _rotr(unsigned int _Value, int _Shift) |
_rotr16 |
unsigned short _rotr16(unsigned short _Value, unsigned char _Shift) |
_rotr64 |
unsigned __int64 __cdecl _rotr64(unsigned __int64 _Value, int _Shift) |
_rotr8 |
unsigned char _rotr8(unsigned char _Value, unsigned char _Shift) |
_setjmpex |
int __cdecl _setjmpex(jmp_buf) |
_WriteBarrier |
void _WriteBarrier(void) |
[Vá para a parte superior]
Intrínsecos sincronizados
Intrínsecos sincronizados são um conjunto de intrínsecos usados para executar operações atômicas de leitura, gravação e alteração. Alguns deles são comuns a todas as plataformas. Eles são listadas separadamente aqui porque há um grande número deles, mas como suas definições geralmente são redundantes, é mais fácil pensar neles termos gerais. Seus nomes podem ser usados para gerar comportamentos exatos.
A tabela a seguir resume o suporte ARM a intrínsecos sincronizados não bittest. Cada célula da tabela corresponde a um nome que é derivado acrescentando o nome da operação na célula mais à esquerda da linha e o nome do tipo na célula superior da coluna para _Interlocked. Por exemplo, a célula na interseção da linha Xor e a coluna 8 corresponde a _InterlockedXor8 e é totalmente suportada. A maioria das funções com suporte oferece estes sufixos opcionais: _acq, _rel, e _nf. O sufixo _acq indica uma semântica "acquire" e o sufixo _rel indica uma semântica uma "release". O sufixo _nf ou “no fence” é exclusivo de ARM e é abordado na próxima seção.
8 |
16 |
32 |
64 |
P |
|
---|---|---|---|---|---|
Adicionar |
Nenhum |
Nenhum |
Total |
Total |
Nenhum |
And |
Total |
Total |
Total |
Total |
Nenhum |
CompareExchange |
Total |
Total |
Total |
Total |
Total |
Decremento |
Nenhum |
Total |
Total |
Total |
Nenhum |
Troca |
Parcial |
Parcial |
Parcial |
Parcial |
Parcial |
ExchangeAdd |
Total |
Total |
Total |
Total |
Nenhum |
Incremento |
Nenhum |
Total |
Total |
Total |
Nenhum |
Ou |
Total |
Total |
Total |
Total |
Nenhum |
Xor |
Total |
Total |
Total |
Total |
Nenhum |
Key:
Total: suporta formulários _acq, _rel, e _nf simples.
Parcial: suporta formulários _acq, e _nf.
Nenhum: não suportado
Sufixo _nf (no fence)
O sufixo _nf ou "no fence" indica que a operação não se comporta como qualquer tipo de barreira de memória. Isso é o oposto três formas (simples,_acq, e _rel), que se comportam como algum tipo de barreira. Um possível uso dos formulários _nf é manter um contador de estatística que é atualizado por vários threads ao mesmo tempo, mas cujo valor não é usado enquanto vários threads estão em execução.
Lista de intrínsecos sincronizados
Nome de função |
Protótipo da função |
---|---|
_InterlockedAdd |
long _InterlockedAdd(long _volatile *, long) |
_InterlockedAdd64 |
__int64 _InterlockedAdd64(__int64 volatile *, __int64) |
_InterlockedAdd64_acq |
__int64 _InterlockedAdd64_acq(__int64 volatile *, __int64) |
_InterlockedAdd64_nf |
__int64 _InterlockedAdd64_nf(__int64 volatile *, __int64) |
_InterlockedAdd64_rel |
__int64 _InterlockedAdd64_rel(__int64 volatile *, __int64) |
_InterlockedAdd_acq |
long _InterlockedAdd_acq(long volatile *, long) |
_InterlockedAdd_nf |
long _InterlockedAdd_nf(long volatile *, long) |
_InterlockedAdd_rel |
long _InterlockedAdd_rel(long volatile *, long) |
_InterlockedAnd |
long _InterlockedAnd(long volatile *, long) |
_InterlockedAnd16 |
short _InterlockedAnd16(short volatile *, short) |
_InterlockedAnd16_acq |
short _InterlockedAnd16_acq(short volatile *, short) |
_InterlockedAnd16_nf |
short _InterlockedAnd16_nf(short volatile *, short) |
_InterlockedAnd16_rel |
short _InterlockedAnd16_rel(short volatile *, short) |
_InterlockedAnd64 |
__int64 _InterlockedAnd64(__int64 volatile *, __int64) |
_InterlockedAnd64_acq |
__int64 _InterlockedAnd64_acq(__int64 volatile *, __int64) |
_InterlockedAnd64_nf |
__int64 _InterlockedAnd64_nf(__int64 volatile *, __int64) |
_InterlockedAnd64_rel |
__int64 _InterlockedAnd64_rel(__int64 volatile *, __int64) |
_InterlockedAnd8 |
char _InterlockedAnd8(char volatile *, char) |
_InterlockedAnd8_acq |
char _InterlockedAnd8_acq(char volatile *, char) |
_InterlockedAnd8_nf |
char _InterlockedAnd8_nf(char volatile *, char) |
_InterlockedAnd8_rel |
char _InterlockedAnd8_rel(char volatile *, char) |
_InterlockedAnd_acq |
long _InterlockedAnd_acq(long volatile *, long) |
_InterlockedAnd_nf |
long _InterlockedAnd_nf(long volatile *, long) |
_InterlockedAnd_rel |
long _InterlockedAnd_rel(long volatile *, long) |
_InterlockedCompareExchange |
long __cdecl _InterlockedCompareExchange(long volatile *, long, long) |
_InterlockedCompareExchange16 |
short _InterlockedCompareExchange16(short volatile *, short, short) |
_InterlockedCompareExchange16_acq |
short _InterlockedCompareExchange16_acq(short volatile *, short, short) |
_InterlockedCompareExchange16_nf |
short _InterlockedCompareExchange16_nf(short volatile *, short, short) |
_InterlockedCompareExchange16_rel |
short _InterlockedCompareExchange16_rel(short volatile *, short, short) |
_InterlockedCompareExchange64 |
__int64 _InterlockedCompareExchange64(__int64 volatile *, __int64, __int64) |
_InterlockedCompareExchange64_acq |
__int64 _InterlockedCompareExchange64_acq(__int64 volatile *, __int64, __int64) |
_InterlockedCompareExchange64_nf |
__int64 _InterlockedCompareExchange64_nf(__int64 volatile *, __int64, __int64) |
_InterlockedCompareExchange64_rel |
__int64 _InterlockedCompareExchange64_rel(__int64 volatile *, __int64, __int64) |
_InterlockedCompareExchange8 |
char _InterlockedCompareExchange8(char volatile *, char, char) |
_InterlockedCompareExchange8_acq |
char _InterlockedCompareExchange8_acq(char volatile *, char, char) |
_InterlockedCompareExchange8_nf |
char _InterlockedCompareExchange8_nf(char volatile *, char, char) |
_InterlockedCompareExchange8_rel |
char _InterlockedCompareExchange8_rel(char volatile *, char, char) |
_InterlockedCompareExchangePointer |
void * _InterlockedCompareExchangePointer(void * volatile *, void *, void *) |
_InterlockedCompareExchangePointer_acq |
void * _InterlockedCompareExchangePointer_acq(void * volatile *, void *, void *) |
_InterlockedCompareExchangePointer_nf |
void * _InterlockedCompareExchangePointer_nf(void * volatile *, void *, void *) |
_InterlockedCompareExchangePointer_rel |
void * _InterlockedCompareExchangePointer_rel(void * volatile *, void *, void *) |
_InterlockedCompareExchange_acq |
long _InterlockedCompareExchange_acq(long volatile *, long, long) |
_InterlockedCompareExchange_nf |
long _InterlockedCompareExchange_nf(long volatile *, long, long) |
_InterlockedCompareExchange_rel |
long _InterlockedCompareExchange_rel(long volatile *, long, long) |
_InterlockedDecrement |
long __cdecl _InterlockedDecrement(long volatile *) |
_InterlockedDecrement16 |
short _InterlockedDecrement16(short volatile *) |
_InterlockedDecrement16_acq |
short _InterlockedDecrement16_acq(short volatile *) |
_InterlockedDecrement16_nf |
short _InterlockedDecrement16_nf(short volatile *) |
_InterlockedDecrement16_rel |
short _InterlockedDecrement16_rel(short volatile *) |
_InterlockedDecrement64 |
__int64 _InterlockedDecrement64(__int64 volatile *) |
_InterlockedDecrement64_acq |
__int64 _InterlockedDecrement64_acq(__int64 volatile *) |
_InterlockedDecrement64_nf |
__int64 _InterlockedDecrement64_nf(__int64 volatile *) |
_InterlockedDecrement64_rel |
__int64 _InterlockedDecrement64_rel(__int64 volatile *) |
_InterlockedDecrement_acq |
long _InterlockedDecrement_acq(long volatile *) |
_InterlockedDecrement_nf |
long _InterlockedDecrement_nf(long volatile *) |
_InterlockedDecrement_rel |
long _InterlockedDecrement_rel(long volatile *) |
_InterlockedExchange |
long __cdecl _InterlockedExchange(long volatile * _Target, long) |
_InterlockedExchange16 |
short _InterlockedExchange16(short volatile * _Target, short) |
_InterlockedExchange16_acq |
short _InterlockedExchange16_acq(short volatile * _Target, short) |
_InterlockedExchange16_nf |
short _InterlockedExchange16_nf(short volatile * _Target, short) |
_InterlockedExchange64 |
__int64 _InterlockedExchange64(__int64 volatile * _Target, __int64) |
_InterlockedExchange64_acq |
__int64 _InterlockedExchange64_acq(__int64 volatile * _Target, __int64) |
_InterlockedExchange64_nf |
__int64 _InterlockedExchange64_nf(__int64 volatile * _Target, __int64) |
_InterlockedExchange8 |
char _InterlockedExchange8(char volatile * _Target, char) |
_InterlockedExchange8_acq |
char _InterlockedExchange8_acq(char volatile * _Target, char) |
_InterlockedExchange8_nf |
char _InterlockedExchange8_nf(char volatile * _Target, char) |
_InterlockedExchangeAdd |
long __cdecl _InterlockedExchangeAdd(long volatile *, long) |
_InterlockedExchangeAdd16 |
short _InterlockedExchangeAdd16(short volatile *,short) |
_InterlockedExchangeAdd16_acq |
short _InterlockedExchangeAdd16_acq(short volatile *, short) |
_InterlockedExchangeAdd16_nf |
short _InterlockedExchangeAdd16_nf(short volatile *, short) |
_InterlockedExchangeAdd16_rel |
short _InterlockedExchangeAdd16_rel(short volatile *, short) |
_InterlockedExchangeAdd64 |
__int64 _InterlockedExchangeAdd64(__int64 volatile *,__int64) |
_InterlockedExchangeAdd64_acq |
__int64 _InterlockedExchangeAdd64_acq(__int64 volatile *, __int64) |
_InterlockedExchangeAdd64_nf |
__int64 _InterlockedExchangeAdd64_nf(__int64 volatile *, __int64) |
_InterlockedExchangeAdd64_rel |
__int64 _InterlockedExchangeAdd64_rel(__int64 volatile *, __int64) |
_InterlockedExchangeAdd8 |
char _InterlockedExchangeAdd8(char volatile *,char) |
_InterlockedExchangeAdd8_acq |
char _InterlockedExchangeAdd8_acq(char volatile *, char) |
_InterlockedExchangeAdd8_nf |
char _InterlockedExchangeAdd8_nf(char volatile *, char) |
_InterlockedExchangeAdd8_rel |
char _InterlockedExchangeAdd8_rel(char volatile *, char) |
_InterlockedExchangeAdd_acq |
long _InterlockedExchangeAdd_acq(long volatile *, long) |
_InterlockedExchangeAdd_nf |
long _InterlockedExchangeAdd_nf(long volatile *, long) |
_InterlockedExchangeAdd_rel |
long _InterlockedExchangeAdd_rel(long volatile *, long) |
_InterlockedExchangePointer |
void * _InterlockedExchangePointer(void * volatile * _Target, void *) |
_InterlockedExchangePointer_acq |
void * _InterlockedExchangePointer_acq(void * volatile * _Target, void *) |
_InterlockedExchangePointer_nf |
void * _InterlockedExchangePointer_nf(void * volatile * _Target, void *) |
_InterlockedExchange_acq |
long _InterlockedExchange_acq(long volatile * _Target, long) |
_InterlockedExchange_nf |
long _InterlockedExchange_nf(long volatile * _Target, long) |
_InterlockedIncrement |
long __cdecl _InterlockedIncrement(long volatile *) |
_InterlockedIncrement16 |
short _InterlockedIncrement16(short volatile *) |
_InterlockedIncrement16_acq |
short _InterlockedIncrement16_acq(short volatile *) |
_InterlockedIncrement16_nf |
short _InterlockedIncrement16_nf(short volatile *) |
_InterlockedIncrement16_rel |
short _InterlockedIncrement16_rel(short volatile *) |
_InterlockedIncrement64 |
__int64 _InterlockedIncrement64(__int64 volatile *) |
_InterlockedIncrement64_acq |
__int64 _InterlockedIncrement64_acq(__int64 volatile *) |
_InterlockedIncrement64_nf |
__int64 _InterlockedIncrement64_nf(__int64 volatile *) |
_InterlockedIncrement64_rel |
__int64 _InterlockedIncrement64_rel(__int64 volatile *) |
_InterlockedIncrement_acq |
long _InterlockedIncrement_acq(long volatile *) |
_InterlockedIncrement_nf |
long _InterlockedIncrement_nf(long volatile *) |
_InterlockedIncrement_rel |
long _InterlockedIncrement_rel(long volatile *) |
_InterlockedOr |
long _InterlockedOr(long volatile *, long) |
_InterlockedOr16 |
short _InterlockedOr16(short volatile *, short) |
_InterlockedOr16_acq |
short _InterlockedOr16_acq(short volatile *, short) |
_InterlockedOr16_nf |
short _InterlockedOr16_nf(short volatile *, short) |
_InterlockedOr16_rel |
short _InterlockedOr16_rel(short volatile *, short) |
_InterlockedOr64 |
__int64 _InterlockedOr64(__int64 volatile *, __int64) |
_InterlockedOr64_acq |
__int64 _InterlockedOr64_acq(__int64 volatile *, __int64) |
_InterlockedOr64_nf |
__int64 _InterlockedOr64_nf(__int64 volatile *, __int64) |
_InterlockedOr64_rel |
__int64 _InterlockedOr64_rel(__int64 volatile *, __int64) |
_InterlockedOr8 |
char _InterlockedOr8(char volatile *, char) |
_InterlockedOr8_acq |
char _InterlockedOr8_acq(char volatile *, char) |
_InterlockedOr8_nf |
char _InterlockedOr8_nf(char volatile *, char) |
_InterlockedOr8_rel |
char _InterlockedOr8_rel(char volatile *, char) |
_InterlockedOr_acq |
long _InterlockedOr_acq(long volatile *, long) |
_InterlockedOr_nf |
long _InterlockedOr_nf(long volatile *, long) |
_InterlockedOr_rel |
long _InterlockedOr_rel(long volatile *, long) |
_InterlockedXor |
long _InterlockedXor(long volatile *, long) |
_InterlockedXor16 |
short _InterlockedXor16(short volatile *, short) |
_InterlockedXor16_acq |
short _InterlockedXor16_acq(short volatile *, short) |
_InterlockedXor16_nf |
short _InterlockedXor16_nf(short volatile *, short) |
_InterlockedXor16_rel |
short _InterlockedXor16_rel(short volatile *, short) |
_InterlockedXor64 |
__int64 _InterlockedXor64(__int64 volatile *, __int64) |
_InterlockedXor64_acq |
__int64 _InterlockedXor64_acq(__int64 volatile *, __int64) |
_InterlockedXor64_nf |
__int64 _InterlockedXor64_nf(__int64 volatile *, __int64) |
_InterlockedXor64_rel |
__int64 _InterlockedXor64_rel(__int64 volatile *, __int64) |
_InterlockedXor8 |
char _InterlockedXor8(char volatile *, char) |
_InterlockedXor8_acq |
char _InterlockedXor8_acq(char volatile *, char) |
_InterlockedXor8_nf |
char _InterlockedXor8_nf(char volatile *, char) |
_InterlockedXor8_rel |
char _InterlockedXor8_rel(char volatile *, char) |
_InterlockedXor_acq |
long _InterlockedXor_acq(long volatile *, long) |
_InterlockedXor_nf |
long _InterlockedXor_nf(long volatile *, long) |
_InterlockedXor_rel |
long _InterlockedXor_rel(long volatile *, long) |
[Vá para a parte superior]
_interlockedbittest Intrinsics
Os intrínsecos bittest sincronizados simples são comuns a todas as plataformas. Adiciona ARM _acq, _rel, e _nf variantes, que basta modificar a semântica de barreira de uma operação, conforme descrito em _nf (nenhum limite) sufixo anteriormente neste artigo.
Nome de função |
Protótipo da função |
---|---|
_interlockedbittestandreset |
unsigned char _interlockedbittestandreset(long volatile *, long) |
_interlockedbittestandreset_acq |
unsigned char _interlockedbittestandreset_acq(long volatile *, long) |
_interlockedbittestandreset_nf |
unsigned char _interlockedbittestandreset_nf(long volatile *, long) |
_interlockedbittestandreset_rel |
unsigned char _interlockedbittestandreset_rel(long volatile *, long) |
_interlockedbittestandset |
unsigned char _interlockedbittestandset(long volatile *, long) |
_interlockedbittestandset_acq |
unsigned char _interlockedbittestandset_acq(long volatile *, long) |
_interlockedbittestandset_nf |
unsigned char _interlockedbittestandset_nf(long volatile *, long) |
_interlockedbittestandset_rel |
unsigned char _interlockedbittestandset_rel(long volatile *, long) |
[Vá para a parte superior]