Fonctions ARM intrinsèques
Le compilateur Visual C++ rend les intrinsèques suivantes disponibles sur l'architecture ARM. Pour plus d'informations sur ARM, consultez les Manuels de référence de l'architecture ARM et Guide des outils de l'assembleur ARM sur le site web du Centre d'informations ARM.
NEON
Les extensions du jeu d'instructions vectorielles NEON pour ARM fournissent des capacités SIMD (Single Instruction Multiple Data) qui ressemblent à celles des jeux d'instructions vectorielles MMX et SSE, qui sont communes aux processeurs d'architecture x86 et x64.
Les intrinsèques NEON sont prises en charge telles qu'elles sont fournies dans le fichier d'en-tête arm_neon.h. La prise en charge du compilateur Visual C++ pour les intrinsèques NEON ressemble à celle du compilateur ARM, qui est décrit dans l'annexe G du document Chaîne d'outils du compilateur ARM, Informations de référence du compilateur version 4.1 sur le site web du Centre d'informations ARM.
La principale différence entre le compilateur Visual C++ et le compilateur ARM est que le compilateur Visual C++ ajoute des variantes _ex des instructions de chargement et de stockage vectoriel vldX et vstX. Les variantes _ex prennent un paramètre supplémentaire qui spécifie l'alignement de l'argument pointeur. À part cette différence, elles sont identiques à leurs équivalents non-_ex.
Liste des intrinsèques spécifiques à ARM
Nom de la fonction |
Instruction |
Prototype de fonction |
---|---|---|
_arm_smlal |
SMLAL |
__int64 _arm_smlal(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_umlal |
UMLAL |
unsigned __int64 _arm_umlal(unsigned __int64 _RdHiLo, unsigned int _Rn, unsigned int _Rm) |
_arm_clz |
CLZ |
unsigned int _arm_clz(unsigned int _Rm) |
_arm_qadd |
QADD |
int _arm_qadd(int _Rm, int _Rn) |
_arm_qdadd |
QDADD |
int _arm_qdadd(int _Rm, int _Rn) |
_arm_qdsub |
QDSUB |
int _arm_qdsub(int _Rm, int _Rn) |
_arm_qsub |
QSUB |
int _arm_qsub(int _Rm, int _Rn) |
_arm_smlabb |
SMLABB |
int _arm_smlabb(int _Rn, int _Rm, int _Ra) |
_arm_smlabt |
SMLABT |
int _arm_smlabt(int _Rn, int _Rm, int _Ra) |
_arm_smlatb |
SMLATB |
int _arm_smlatb(int _Rn, int _Rm, int _Ra) |
_arm_smlatt |
SMLATT |
int _arm_smlatt(int _Rn, int _Rm, int _Ra) |
_arm_smlalbb |
SMLALBB |
__int64 _arm_smlalbb(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlalbt |
SMLALBT |
__int64 _arm_smlalbt(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaltb |
SMLALTB |
__int64 _arm_smlaltb(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaltt |
SMLALTT |
__int64 _arm_smlaltt(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlawb |
SMLAWB |
int _arm_smlawb(int _Rn, int _Rm, int _Ra) |
_arm_smlawt |
SMLAWT |
int _arm_smlawt(int _Rn, int _Rm, int _Ra) |
_arm_smulbb |
SMULBB |
int _arm_smulbb(int _Rn, int _Rm) |
_arm_smulbt |
SMULBT |
int _arm_smulbt(int _Rn, int _Rm) |
_arm_smultb |
SMULTB |
int _arm_smultb(int _Rn, int _Rm) |
_arm_smultt |
SMULTT |
int _arm_smultt(int _Rn, int _Rm) |
_arm_smulwb |
SMULWB |
int _arm_smulwb(int _Rn, int _Rm) |
_arm_smulwt |
SMULWT |
int _arm_smulwt(int _Rn, int _Rm) |
_arm_sadd16 |
SADD16 |
int _arm_sadd16(int _Rn, int _Rm) |
_arm_sadd8 |
SADD8 |
int _arm_sadd8(int _Rn, int _Rm) |
_arm_sasx |
SASX |
int _arm_sasx(int _Rn, int _Rm) |
_arm_ssax |
SSAX |
int _arm_ssax(int _Rn, int _Rm) |
_arm_ssub16 |
SSUB16 |
int _arm_ssub16(int _Rn, int _Rm) |
_arm_ssub8 |
SSUB8 |
int _arm_ssub8(int _Rn, int _Rm) |
_arm_shadd16 |
SHADD16 |
int _arm_shadd16(int _Rn, int _Rm) |
_arm_shadd8 |
SHADD8 |
int _arm_shadd8(int _Rn, int _Rm) |
_arm_shasx |
SHASX |
int _arm_shasx(int _Rn, int _Rm) |
_arm_shsax |
SHSAX |
int _arm_shsax(int _Rn, int _Rm) |
_arm_shsub16 |
SHSUB16 |
int _arm_shsub16(int _Rn, int _Rm) |
_arm_shsub8 |
SHSUB8 |
int _arm_shsub8(int _Rn, int _Rm) |
_arm_qadd16 |
QADD16 |
int _arm_qadd16(int _Rn, int _Rm) |
_arm_qadd8 |
QADD8 |
int _arm_qadd8(int _Rn, int _Rm) |
_arm_qasx |
QASX |
int _arm_qasx(int _Rn, int _Rm) |
_arm_qsax |
QSAX |
int _arm_qsax(int _Rn, int _Rm) |
_arm_qsub16 |
QSUB16 |
int _arm_qsub16(int _Rn, int _Rm) |
_arm_qsub8 |
QSUB8 |
int _arm_qsub8(int _Rn, int _Rm) |
_arm_uadd16 |
UADD16 |
unsigned int _arm_uadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uadd8 |
UADD8 |
unsigned int _arm_uadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uasx |
UASX |
unsigned int _arm_uasx(unsigned int _Rn, unsigned int _Rm) |
_arm_usax |
USAX |
unsigned int _arm_usax(unsigned int _Rn, unsigned int _Rm) |
_arm_usub16 |
USUB16 |
unsigned int _arm_usub16(unsigned int _Rn, unsigned int _Rm) |
_arm_usub8 |
USUB8 |
unsigned int _arm_usub8(unsigned int _Rn, unsigned int _Rm) |
_arm_uhadd16 |
UHADD16 |
unsigned int _arm_uhadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uhadd8 |
UHADD8 |
unsigned int _arm_uhadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uhasx |
UHASX |
unsigned int _arm_uhasx(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsax |
UHSAX |
unsigned int _arm_uhsax(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsub16 |
UHSUB16 |
unsigned int _arm_uhsub16(unsigned int _Rn, unsigned int _Rm) |
_arm_uhsub8 |
UHSUB8 |
unsigned int _arm_uhsub8(unsigned int _Rn, unsigned int _Rm) |
_arm_uqadd16 |
UQADD16 |
unsigned int _arm_uqadd16(unsigned int _Rn, unsigned int _Rm) |
_arm_uqadd8 |
UQADD8 |
unsigned int _arm_uqadd8(unsigned int _Rn, unsigned int _Rm) |
_arm_uqasx |
UQASX |
unsigned int _arm_uqasx(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsax |
UQSAX |
unsigned int _arm_uqsax(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsub16 |
UQSUB16 |
unsigned int _arm_uqsub16(unsigned int _Rn, unsigned int _Rm) |
_arm_uqsub8 |
UQSUB8 |
unsigned int _arm_uqsub8(unsigned int _Rn, unsigned int _Rm) |
_arm_sxtab |
SXTAB |
int _arm_sxtab(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_sxtab16 |
SXTAB16 |
int _arm_sxtab16(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_sxtah |
SXTAH |
int _arm_sxtah(int _Rn, int _Rm, unsigned int _Rotation) |
_arm_uxtab |
UXTAB |
unsigned int _arm_uxtab(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_uxtab16 |
UXTAB16 |
unsigned int _arm_uxta16b(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_uxtah |
UXTAH |
unsigned int _arm_uxtah(unsigned int _Rn, unsigned int _Rm, unsigned int _Rotation) |
_arm_sxtb |
SXTB |
int _arm_sxtb(int _Rn, unsigned int _Rotation) |
_arm_sxtb16 |
SXTB16 |
int _arm_sxtb16(int _Rn, unsigned int _Rotation) |
_arm_sxth |
SXTH |
int _arm_sxth(int _Rn, unsigned int _Rotation) |
_arm_uxtb |
UXTB |
unsigned int _arm_uxtb(unsigned int _Rn, unsigned int _Rotation) |
_arm_uxtb16 |
UXTB16 |
unsigned int _arm_uxtb16(unsigned int _Rn, unsigned int _Rotation) |
_arm_uxth |
UXTH |
unsigned int _arm_uxth(unsigned int _Rn, unsigned int _Rotation) |
_arm_pkhbt |
PKHBT |
int _arm_pkhbt(int _Rn, int _Rm, unsigned int _Lsl_imm) |
_arm_pkhtb |
PKHTB |
int _arm_pkhtb(int _Rn, int _Rm, unsigned int _Asr_imm) |
_arm_usad8 |
USAD8 |
unsigned int _arm_usad8(unsigned int _Rn, unsigned int _Rm) |
_arm_usada8 |
USADA8 |
unsigned int _arm_usada8(unsigned int _Rn, unsigned int _Rm, unsigned int _Ra) |
_arm_ssat |
SSAT |
int _arm_ssat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm) |
_arm_usat |
USAT |
int _arm_usat(unsigned int _Sat_imm, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, unsigned int _Shift_imm) |
_arm_ssat16 |
SSAT16 |
int _arm_ssat16(unsigned int _Sat_imm, _int _Rn) |
_arm_usat16 |
USAT16 |
int _arm_usat16(unsigned int _Sat_imm, _int _Rn) |
_arm_rev |
REV |
unsigned int _arm_rev(unsigned int _Rm) |
_arm_rev16 |
REV16 |
unsigned int _arm_rev16(unsigned int _Rm) |
_arm_revsh |
REVSH |
unsigned int _arm_revsh(unsigned int _Rm) |
_arm_smlad |
SMLAD |
int _arm_smlad(int _Rn, int _Rm, int _Ra) |
_arm_smladx |
SMLADX |
int _arm_smladx(int _Rn, int _Rm, int _Ra) |
_arm_smlsd |
SMLSD |
int _arm_smlsd(int _Rn, int _Rm, int _Ra) |
_arm_smlsdx |
SMLSDX |
int _arm_smlsdx(int _Rn, int _Rm, int _Ra) |
_arm_smmla |
SMMLA |
int _arm_smmla(int _Rn, int _Rm, int _Ra) |
_arm_smmlar |
SMMLAR |
int _arm_smmlar(int _Rn, int _Rm, int _Ra) |
_arm_smmls |
SMMLS |
int _arm_smmls(int _Rn, int _Rm, int _Ra) |
_arm_smmlsr |
SMMLSR |
int _arm_smmlsr(int _Rn, int _Rm, int _Ra) |
_arm_smmul |
SMMUL |
int _arm_smmul(int _Rn, int _Rm) |
_arm_smmulr |
SMMULR |
int _arm_smmulr(int _Rn, int _Rm) |
_arm_smlald |
SMLALD |
__int64 _arm_smlald(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlaldx |
SMLALDX |
__int64 _arm_smlaldx(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlsld |
SMLSLD |
__int64 _arm_smlsld(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smlsldx |
SMLSLDX |
__int64 _arm_smlsldx(__int64 _RdHiLo, int _Rn, int _Rm) |
_arm_smuad |
SMUAD |
int _arm_smuad(int _Rn, int _Rm) |
_arm_smuadx |
SMUADX |
int _arm_muadxs(int _Rn, int _Rm) |
_arm_smusd |
SMUSD |
int _arm_smusd(int _Rn, int _Rm) |
_arm_smusdx |
SMUSDX |
int _arm_smusdx(int _Rn, int _Rm) |
_arm_smull |
SMULL |
__int64 _arm_smull(int _Rn, int _Rm) |
_arm_umull |
UMULL |
unsigned __int64 _arm_umull(unsigned int _Rn, unsigned int _Rm) |
_arm_umaal |
UMAAL |
unsigned __int64 _arm_umaal(unsigned int _RdLo, unsigned int _RdHi, unsigned int _Rn, unsigned int _Rm) |
_arm_bfc |
BFC |
unsigned int _arm_bfc(unsigned int _Rd, unsigned int _Lsb, unsigned int _Width) |
_arm_bfi |
BFI |
unsigned int _arm_bfi(unsigned int _Rd, unsigned int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_rbit |
RBIT |
unsigned int _arm_rbit(unsigned int _Rm) |
_arm_sbfx |
SBFX |
int _arm_sbfx(int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_ubfx |
UBFX |
unsigned int _arm_ubfx(unsigned int _Rn, unsigned int _Lsb, unsigned int _Width) |
_arm_sdiv |
SDIV |
int _arm_sdiv(int _Rn, int _Rm) |
_arm_udiv |
UDIV |
unsigned int _arm_udiv(unsigned int _Rn, unsigned int _Rm) |
__cps |
CPS |
void __cps(unsigned int _Ops, unsigned int _Flags, unsigned int _Mode) |
__dmb |
DMB |
void __dmb(unsigned int _Type) Insère une opération de barrière de mémoire dans le flux d'instructions. Le paramètre _Type spécifie le type de restriction que la barrière applique. Pour plus d'informations sur les types de restrictions qui peuvent être appliquées, consultez Restrictions de barrière de mémoire. |
__dsb |
DSB |
void __dsb(unsigned int _Type) Insère une opération de barrière de mémoire dans le flux d'instructions. Le paramètre _Type spécifie le type de restriction que la barrière applique. Pour plus d'informations sur les types de restrictions qui peuvent être appliquées, consultez Restrictions de barrière de mémoire. |
__isb |
ISB |
void __isb(unsigned int _Type) Insère une opération de barrière de mémoire dans le flux d'instructions. Le paramètre _Type spécifie le type de restriction que la barrière applique. Pour plus d'informations sur les types de restrictions qui peuvent être appliquées, consultez Restrictions de barrière de mémoire. |
__emit |
void __emit(unsigned __int32 opcode) Insère une instruction spécifiée dans le flux d'instructions généré en sortie par le compilateur. La valeur de opcode doit être une expression de constante qui est connue au moment de la compilation. La taille d'un mot d'instruction est de 16 bits, et les 16 bits les plus significatifs de opcode sont ignorés. Le compilateur ne tente pas d'interpréter le contenu de opcode et ne garantit pas un état de l'UC ou de la mémoire avant l'exécution de l'instruction insérée. Le compilateur suppose que les états de l'UC et de la mémoire sont inchangés après l'exécution de l'instruction insérée. Par conséquent, les instructions qui changent l'état peuvent avoir un impact négatif sur du code normal généré par le compilateur. Pour cette raison, utilisez emit seulement pour insérer des instructions qui affectent un état de l'UC que le compilateur ne traite pas normalement, par exemple l'état de coprocesseur, ou pour implémenter des fonctions qui sont déclarées à l'aide de declspec(naked). |
|
__hvc |
HVC |
unsigned int __hvc(unsigned int, ...) |
__iso_volatile_load16 |
__int16 __iso_volatile_load16(const volatile __int16 *) Pour plus d'informations, consultez __iso_volatile_load/store intrinsics. |
|
__iso_volatile_load32 |
__int32 __iso_volatile_load32(const volatile __int32 *) Pour plus d'informations, consultez __iso_volatile_load/store intrinsics. |
|
__iso_volatile_load64 |
__int64 __iso_volatile_load64(const volatile __int64 *) Pour plus d'informations, consultez __iso_volatile_load/store intrinsics. |
|
__iso_volatile_load8 |
__int8 __iso_volatile_load8(const volatile __int8 *) Pour plus d'informations, consultez __iso_volatile_load/store intrinsics. |
|
__iso_volatile_store16 |
void __iso_volatile_store16(volatile __int16 *, __int16) Pour plus d'informations, consultez __iso_volatile_load/store intrinsics. |
|
__iso_volatile_store32 |
void __iso_volatile_store32(volatile __int32 *, __int32) Pour plus d'informations, consultez __iso_volatile_load/store intrinsics. |
|
__iso_volatile_store64 |
void __iso_volatile_store64(volatile __int64 *, __int64) Pour plus d'informations, consultez __iso_volatile_load/store intrinsics. |
|
__iso_volatile_store8 |
void __iso_volatile_store8(volatile __int8 *, __int8) Pour plus d'informations, consultez __iso_volatile_load/store intrinsics. |
|
__ldrexd |
LDREXD |
__int64 __ldrexd(const volatile __int64 *) |
__prefetch |
PLD |
void __cdecl __prefetch(const void *) Fournit un indicateur de mémoire PLD au système, indiquant que la mémoire à l'adresse spécifiée ou près de celle-ci est susceptible de faire bientôt l'objet d'un accès. Certains systèmes peuvent choisir d'effectuer une optimisation selon ce modèle d'accès mémoire, pour augmenter les performances d'exécution. Cependant, du point de vue du langage C++, la fonction n'a aucun effet observable et peut ne rien faire du tout. |
__rdpmccntr64 |
unsigned __int64 __rdpmccntr64(void) |
|
__sev |
SEV |
void __sev(void) |
__static_assert |
void __static_assert(int, const char *) |
|
__swi |
SVC |
unsigned int __swi(unsigned int, ...) |
__trap |
BKPT |
int __trap(int, ...) |
__wfe |
WFE |
void __wfe(void) |
__wfi |
WFI |
void __wfi(void) |
_AddSatInt |
QADD |
int _AddSatInt(int, int) |
_CopyDoubleFromInt64 |
double _CopyDoubleFromInt64(__int64) |
|
_CopyFloatFromInt32 |
float _CopyFloatFromInt32(__int32) |
|
_CopyInt32FromFloat |
__int32 _CopyInt32FromFloat(float) |
|
_CopyInt64FromDouble |
__int64 _CopyInt64FromDouble(double) |
|
_CountLeadingOnes |
unsigned int _CountLeadingOnes(unsigned long) |
|
_CountLeadingOnes64 |
unsigned int _CountLeadingOnes64(unsigned __int64) |
|
_CountLeadingSigns |
unsigned int _CountLeadingSigns(long) |
|
_CountLeadingSigns64 |
unsigned int _CountLeadingSigns64(__int64) |
|
_CountLeadingZeros |
unsigned int _CountLeadingZeros(unsigned long) |
|
_CountLeadingZeros64 |
unsigned int _CountLeadingZeros64(unsigned __int64) |
|
_CountOneBits |
unsigned int _CountOneBits(unsigned long) |
|
_CountOneBits64 |
unsigned int _CountOneBits64(unsigned __int64) |
|
_DAddSatInt |
QDADD |
int _DAddSatInt(int, int) |
_DSubSatInt |
QDSUB |
int _DSubSatInt(int, int) |
_isunordered |
int _isunordered(double, double) |
|
_isunorderedf |
int _isunorderedf(float, float) |
|
_MoveFromCoprocessor |
MRC |
unsigned int _MoveFromCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lit les données d'un coprocesseur ARM en utilisant les instructions de transfert de données du coprocesseur. Pour plus d'informations, consultez _MoveFromCoprocessor, _MoveFromCoprocessor2. |
_MoveFromCoprocessor2 |
MRC2 |
unsigned int _MoveFromCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lit les données d'un coprocesseur ARM en utilisant les instructions de transfert de données du coprocesseur. Pour plus d'informations, consultez _MoveFromCoprocessor, _MoveFromCoprocessor2. |
_MoveFromCoprocessor64 |
MRRC |
unsigned __int64 _MoveFromCoprocessor64(unsigned int, unsigned int, unsigned int) Lit les données d'un coprocesseur ARM en utilisant les instructions de transfert de données du coprocesseur. Pour plus d'informations, consultez _MoveFromCoprocessor64. |
_MoveToCoprocessor |
MCR |
void _MoveToCoprocessor(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lit les données d'un coprocesseur ARM en utilisant les instructions de transfert de données du coprocesseur. Pour plus d'informations, consultez _MoveToCoprocessor, _MoveToCoprocessor2. |
_MoveToCoprocessor2 |
MCR2 |
void _MoveToCoprocessor2(unsigned int, unsigned int, unsigned int, unsigned int, unsigned int, unsigned int) Lit les données d'un coprocesseur ARM en utilisant les instructions de transfert de données du coprocesseur. Pour plus d'informations, consultez _MoveToCoprocessor, _MoveToCoprocessor2. |
_MoveToCoprocessor64 |
MCRR |
void _MoveToCoprocessor64(unsigned __int64, unsigned int, unsigned int, unsigned int) Lit les données d'un coprocesseur ARM en utilisant les instructions de transfert de données du coprocesseur. Pour plus d'informations, consultez _MoveToCoprocessor64. |
_MulHigh |
long _MulHigh(long, long) |
|
_MulUnsignedHigh |
unsigned long _MulUnsignedHigh(unsigned long, unsigned long) |
|
_ReadBankedReg |
MRS |
int _ReadBankedReg(int _Reg) |
_ReadStatusReg |
MRS |
int _ReadStatusReg(int) |
_SubSatInt |
QSUB |
int _SubSatInt(int, int) |
_WriteBankedReg |
MSR |
void _WriteBankedReg(int _Value, int _Reg) |
_WriteStatusReg |
MSR |
void _WriteStatusReg(int, int, int) |
[Retour en haut]
Restrictions de barrière de mémoire
Les fonctions intrinsèques __dmb (barrière de mémoire de données), __dsb (barrière de synchronisation de données) et __isb (barrière de synchronisation d'instruction) utilise les valeurs prédéfinies suivantes pour spécifier la restriction de barrière de mémoire en fonction du domaine de partage et du type d'accès qui sont affectés par l'opération.
Valeur de restriction |
Description |
---|---|
_ARM_BARRIER_SY |
Système complet, lectures et écritures. |
_ARM_BARRIER_ST |
Système complet, écritures uniquement. |
_ARM_BARRIER_ISH |
Interne partageable, lectures et écritures. |
_ARM_BARRIER_ISHST |
Interne partageable, écritures uniquement. |
_ARM_BARRIER_NSH |
Non partageable, lectures et écritures. |
_ARM_BARRIER_NSHST |
Non partageable, écritures uniquement. |
_ARM_BARRIER_OSH |
Externe partageable, lectures et écritures. |
_ARM_BARRIER_OSHST |
Externe partageable, écritures uniquement. |
Pour l'intrinsèque __isb, la seule restriction actuellement valide est _ARM_BARRIER_SY ; toutes les autres valeurs sont réservées par l'architecture.
__iso_volatile_load/store instrinsics
Ces fonctions intrinsèques effectuent explicitement des chargements et des stockages qui ne font pas l'objet d'optimisations du compilateur.
__int16 __iso_volatile_load16(const volatile __int16 * Location)
__int32 __iso_volatile_load32(const volatile __int32 * Location)
__int64 __iso_volatile_load64(const volatile __int64 * Location)
__int8 __iso_volatile_load8(const volatile __int8 * Location)
void __iso_volatile_store16(volatile __int16 * Location, __int16 Value)
void __iso_volatile_store32(volatile __int32 * Location, __int32 Value)
void __iso_volatile_store64(volatile __int64 * Location, __int64 Value)
void __iso_volatile_store8(volatile __int8 * Location, __int8 Value)
Paramètres
Location
L'adresse d'un emplacement mémoire où lire ou dans lequel écrire.Value (intrinsèques de stockage uniquement)
Valeur à écrire à l'emplacement mémoire spécifié.
Valeur de retour (intrinsèques de chargement uniquement)
Valeur de l'emplacement mémoire spécifié par Location.
Notes
Vous pouvez utiliser les intrinsèques __iso_volatile_load8/16/32/64 et __iso_volatile_store8/16/32/64 pour effectuer explicitement des accès mémoire qui ne font pas l'objet d'optimisations du compilateur. Le compilateur ne peut pas supprimer, synthétiser ou changer l'ordre relatif de ces opérations, mais il ne génère pas de barrières de mémoire matérielle implicite. Par conséquent, le matériel peut toujours réorganiser les accès mémoire observables entre plusieurs threads. Plus précisément, ces intrinsèques sont équivalentes aux expressions suivantes telles qu'elles sont compilées sous /volatile:iso.
int a = __iso_volatile_load32(p); // equivalent to: int a = *(const volatile __int32*)p;
__iso_volatile_store32(p, a); // equivalent to: *(volatile __int32*)p = a;
Notez que les intrinsèques prennent des pointeurs volatiles de façon à pouvoir traiter des variables volatiles. Cependant, il n'existe aucune obligation ou recommandation quant à l'utilisation de pointeurs volatiles comme arguments ; la sémantique de ces opérations est exactement la même si un type régulier non volatile est utilisé.
Pour plus d'informations sur l'argument de ligne de commande /volatile:iso, consultez /volatile (interprétation de mot clé volatile).
_MoveFromCoprocessor, _MoveFromCoprocessor2
Ces fonctions intrinsèques lisent des données des coprocesseurs ARM en utilisant les instructions de transfert de données du coprocesseur.
int _MoveFromCoprocessor(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
int _MoveFromCoprocessor2(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Paramètres
coproc
Nombre de coprocesseurs dans la plage 0 à 15.opcode1
Opcode spécifique au coprocesseur dans la plage de 0 à 7crn
Numéro du registre du coprocesseur, dans la plage de 0 à 15, qui spécifie le premier opérande pour l'instruction.crm
Nombre de registres de coprocesseur, dans la plage 0 à 15, qui spécifie une source ou un opérande de destination supplémentaire.opcode2
Opcode supplémentaire spécifique au coprocesseur dans la plage de 0 à 7
Valeur de retour
Valeur qui est lue auprès du coprocesseur.
Notes
Les valeurs de tous les cinq paramètres de cette intrinsèque doivent être des expressions de constante qui sont connues au moment de la compilation.
_MoveFromCoprocessor utilise l'instruction MRC ; _MoveFromCoprocessor2 utilise MRC2. Les paramètres correspondent aux champs de bits qui sont codés directement dans l'argument word de l'instruction. L'interprétation des paramètres dépend du coprocesseur. Pour plus d'informations, consultez le manuel du coprocesseur en question.
_MoveFromCoprocessor64
Lit les données des coprocesseurs ARM en utilisant les instructions de transfert de données de coprocesseur.
unsigned __int64 _MoveFromCoprocessor64(
unsigned int coproc,
unsigned int opcode1,
unsigned int crm,
);
Paramètres
coproc
Nombre de coprocesseurs dans la plage 0 à 15.opcode1
Opcode spécifique au coprocesseur dans la plage de 0 à 15crm
Nombre de registres de coprocesseur, dans la plage 0 à 15, qui spécifie une source ou un opérande de destination supplémentaire.
Retourne une valeur
Valeur qui est lue auprès du coprocesseur.
Notes
Les valeurs de tous les trois paramètres de cette intrinsèque doivent être des expressions de constante qui sont connues au moment de la compilation.
_MoveFromCoprocessor64 utilise l'instruction MRRC. Les paramètres correspondent aux champs de bits qui sont codés directement dans l'argument word de l'instruction. L'interprétation des paramètres dépend du coprocesseur. Pour plus d'informations, consultez le manuel du coprocesseur en question.
_MoveToCoprocessor, _MoveToCoprocessor2
Ces fonctions intrinsèques écrivent des données dans les coprocesseurs ARM en utilisant les instructions de transfert de données de coprocesseur.
void _MoveToCoprocessor(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
void _MoveToCoprocessor2(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Paramètres
value
Valeur à écrire dans le coprocesseur.coproc
Nombre de coprocesseurs dans la plage 0 à 15.opcode1
Opcode spécifique au coprocesseur dans la plage de 0 à 7crn
Numéro du registre du coprocesseur, dans la plage de 0 à 15, qui spécifie le premier opérande pour l'instruction.crm
Nombre de registres de coprocesseur, dans la plage 0 à 15, qui spécifie une source ou un opérande de destination supplémentaire.opcode2
Opcode supplémentaire spécifique au coprocesseur dans la plage de 0 à 7
Valeur de retour
Aucun
Notes
Les valeurs des paramètres coproc, opcode1, crn, crm et opcode2 de cette intrinsèque doivent être des expressions de constante qui sont connues au moment de la compilation.
_MoveToCoprocessor utilise l'instruction MCR ; _MoveToCoprocessor2 utilise MCR2. Les paramètres correspondent aux champs de bits qui sont codés directement dans l'argument word de l'instruction. L'interprétation des paramètres dépend du coprocesseur. Pour plus d'informations, consultez le manuel du coprocesseur en question.
_MoveToCoprocessor64
Ces fonctions intrinsèques écrivent des données dans les coprocesseurs ARM en utilisant les instructions de transfert de données de coprocesseur.
void _MoveFromCoprocessor64(
unsigned __int64 value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crm,
);
Paramètres
coproc
Nombre de coprocesseurs dans la plage 0 à 15.opcode1
Opcode spécifique au coprocesseur dans la plage de 0 à 15crm
Nombre de registres de coprocesseur, dans la plage 0 à 15, qui spécifie une source ou un opérande de destination supplémentaire.
Valeur de retour
Aucun
Notes
Les valeurs des paramètres coproc, opcode1 et crm de cette intrinsèque doivent être des expressions de constante qui sont connues au moment de la compilation.
_MoveFromCoprocessor64 utilise l'instruction MCRR. Les paramètres correspondent aux champs de bits qui sont codés directement dans l'argument word de l'instruction. L'interprétation des paramètres dépend du coprocesseur. Pour plus d'informations, consultez le manuel du coprocesseur en question.
Prise en charge ARM des intrinsèques d'autres architectures
Le tableau suivant répertorie les intrinsèques d'autres architectures qui sont prises en charge sur les plateformes ARM. Là où le comportement d'une intrinsèque sur ARM diffère de son comportement sur d'autres architectures matérielles, des détails supplémentaires sont donnés.
Nom de la fonction |
Prototype de fonction |
---|---|
__assume |
void __assume(int) |
__code_seg |
void __code_seg(const char *) |
__debugbreak |
void __cdecl __debugbreak(void) |
__fastfail |
__declspec(noreturn) void __fastfail(unsigned int) |
__nop |
void __nop(void) Notes Sur les plateformes ARM, cette fonction génère une instruction NOP si elle est implémentée dans l'architecture cible. Sinon, une autre instruction qui ne change pas l'état du programme ou de l'UC est générée, par exemple MOV r8, r8.Ceci est fonctionnellement équivalent à l'intrinsèque __nop pour d'autres architectures matérielles. Comme une instruction qui n'a aucun effet sur l'état du programme ou de l'UC peut être ignorée par l'architecture cible dans le cadre d'une optimisation, l'instruction ne consomme pas nécessairement des cycles de l'UC.Par conséquent, n'utilisez pas l'intrinsèque __nop pour manipuler la durée d'exécution d'une séquence de code, sauf si vous êtes certain de la façon dont l'UC se comportera.Au lieu de cela, vous pouvez utiliser l'intrinsèque __nop pour aligner l'instruction suivante sur une adresse de frontière 32 bits spécifique. |
__yield |
void __yield(void) Notes Sur les plateformes ARM, cette fonction génère l'instruction YIELD, qui indique que le thread effectue une tâche dont l'exécution peut être temporairement suspendue, par exemple un verrouillage tournant, sans affecter négativement le programme.Ceci permet à l'UC d'exécuter d'autres tâches pendant les cycles d'exécution, qui sans cela seraient perdus. |
_AddressOfReturnAddress |
void * _AddressOfReturnAddress(void) |
_BitScanForward |
unsigned char _BitScanForward(unsigned long * _Index, unsigned long _Mask) |
_BitScanReverse |
unsigned char _BitScanReverse(unsigned long * _Index, unsigned long _Mask) |
_bittest |
unsigned char _bittest(long const *, long) |
_bittestandcomplement |
unsigned char _bittestandcomplement(long *, long) |
_bittestandreset |
unsigned char _bittestandreset(long *, long) |
_bittestandset |
unsigned char _bittestandset(long *, long) |
_byteswap_uint64 |
unsigned __int64 __cdecl _byteswap_uint64(unsigned __int64) |
_byteswap_ulong |
unsigned long __cdecl _byteswap_ulong(unsigned long) |
_byteswap_ushort |
unsigned short __cdecl _byteswap_ushort(unsigned short) |
_disable |
void __cdecl _disable(void) Notes Sur les plateformes ARM, cette fonction génère l'instruction CPSID. Elle est disponible seulement comme intrinsèque. |
_enable |
void __cdecl _enable(void) Notes Sur les plateformes ARM, cette fonction génère l'instruction CPSIE. Elle est disponible seulement comme intrinsèque. |
_lrotl |
unsigned long __cdecl _lrotl(unsigned long, int) |
_lrotr |
unsigned long __cdecl _lrotr(unsigned long, int) |
_ReadBarrier |
void _ReadBarrier(void) |
_ReadWriteBarrier |
void _ReadWriteBarrier(void) |
_ReturnAddress |
void * _ReturnAddress(void) |
_rotl |
unsigned int __cdecl _rotl(unsigned int _Value, int _Shift) |
_rotl16 |
unsigned short _rotl16(unsigned short _Value, unsigned char _Shift) |
_rotl64 |
unsigned __int64 __cdecl _rotl64(unsigned __int64 _Value, int _Shift) |
_rotl8 |
unsigned char _rotl8(unsigned char _Value, unsigned char _Shift) |
_rotr |
unsigned int __cdecl _rotr(unsigned int _Value, int _Shift) |
_rotr16 |
unsigned short _rotr16(unsigned short _Value, unsigned char _Shift) |
_rotr64 |
unsigned __int64 __cdecl _rotr64(unsigned __int64 _Value, int _Shift) |
_rotr8 |
unsigned char _rotr8(unsigned char _Value, unsigned char _Shift) |
_setjmpex |
int __cdecl _setjmpex(jmp_buf) |
_WriteBarrier |
void _WriteBarrier(void) |
[Retour en haut]
Intrinsèques à blocage
Les intrinsèques à blocage sont un ensemble d'intrinsèques qui sont utilisées pour effectuer des opérations de lecture-modification-écriture atomiques. Certaines d'entre elles sont communes à toutes les plateformes. Elles sont répertoriées ici distinctement, car il en existe un grand nombre. Comme leurs définitions sont la plupart du temps redondantes, il est plus simple de les considérer en termes généraux. Leurs noms peuvent être utilisés pour en dériver les comportements exacts.
Le tableau suivant résume la prise en charge ARM des intrinsèques à blocage sans test au niveau des bits. Chaque cellule du tableau correspond à un nom qui est constitué en ajoutant le nom de l'opération dans la cellule la plus à gauche de la ligne et le nom de type dans la cellule la plus en haut de la colonne à _Interlocked. Par exemple, la cellule à l'intersection de la ligne Xor et de la colonne 8 correspond à _InterlockedXor8 et est entièrement prise en charge. La plupart des fonctions prises en charge peuvent comporter ces suffixes facultatifs : _acq, _rel et _nf. Le suffixe _acq indique une sémantique correspondant à « acquérir » et le suffixe _rel indique une sémantique correspondant à « libérer ». Le suffixe _nf (pour « no fence » ou « pas de délimitation ») est spécifique à ARM et est décrit dans la section suivante.
8 |
16 |
32 |
64 |
P |
|
---|---|---|---|---|---|
Ajouter |
None |
None |
Complet |
Complet |
None |
Et |
Complet |
Complet |
Complet |
Complet |
None |
CompareExchange |
Complet |
Complet |
Complet |
Complet |
Complet |
Décrémentation |
None |
Complet |
Complet |
Complet |
None |
Exchange |
Partial |
Partial |
Partial |
Partial |
Partial |
ExchangeAdd |
Complet |
Complet |
Complet |
Complet |
None |
Incrémentation |
None |
Complet |
Complet |
Complet |
None |
Ou |
Complet |
Complet |
Complet |
Complet |
None |
Xor |
Complet |
Complet |
Complet |
Complet |
None |
Clé :
Complète : prend en charge les formes brutes, _acq, _rel et _nf.
Partielle : prend en charge les formes brutes, _acq et _nf.
Aucune : non pris en charge.
Suffixe _nf (no fence)
Le suffixe _nf (« no fence » ou « pas de délimitation ») indique que l'opération ne se comporte comme aucune sorte de barrière de mémoire. Ce comportement diffère des trois autres formes (brute, _acq et _rel), qui se comportent comme une sorte de barrière. Une utilisation possible de la forme _nf est de gérer un compteur statistique qui est mis à jour par plusieurs threads en même temps, mais dont la valeur n'est sans cela pas utilisée pendant que plusieurs threads s'exécutent.
Liste d'intrinsèques à blocage
Nom de la fonction |
Prototype de fonction |
---|---|
_InterlockedAdd |
long _InterlockedAdd(long _volatile *, long) |
_InterlockedAdd64 |
__int64 _InterlockedAdd64(__int64 volatile *, __int64) |
_InterlockedAdd64_acq |
__int64 _InterlockedAdd64_acq(__int64 volatile *, __int64) |
_InterlockedAdd64_nf |
__int64 _InterlockedAdd64_nf(__int64 volatile *, __int64) |
_InterlockedAdd64_rel |
__int64 _InterlockedAdd64_rel(__int64 volatile *, __int64) |
_InterlockedAdd_acq |
long _InterlockedAdd_acq(long volatile *, long) |
_InterlockedAdd_nf |
long _InterlockedAdd_nf(long volatile *, long) |
_InterlockedAdd_rel |
long _InterlockedAdd_rel(long volatile *, long) |
_InterlockedAnd |
long _InterlockedAnd(long volatile *,long) |
_InterlockedAnd16 |
short _InterlockedAnd16(short volatile *,short) |
_InterlockedAnd16_acq |
short _InterlockedAnd16_acq(short volatile *, short) |
_InterlockedAnd16_nf |
short _InterlockedAnd16_nf(short volatile *, short) |
_InterlockedAnd16_rel |
short _InterlockedAnd16_rel(short volatile *, short) |
_InterlockedAnd64 |
__int64 _InterlockedAnd64(__int64 volatile *,__int64) |
_InterlockedAnd64_acq |
__int64 _InterlockedAnd64_acq(__int64 volatile *, __int64) |
_InterlockedAnd64_nf |
__int64 _InterlockedAnd64_nf(__int64 volatile *, __int64) |
_InterlockedAnd64_rel |
__int64 _InterlockedAnd64_rel(__int64 volatile *, __int64) |
_InterlockedAnd8 |
char _InterlockedAnd8(char volatile *,char) |
_InterlockedAnd8_acq |
char _InterlockedAnd8_acq(char volatile *, char) |
_InterlockedAnd8_nf |
char _InterlockedAnd8_nf(char volatile *, char) |
_InterlockedAnd8_rel |
char _InterlockedAnd8_rel(char volatile *, char) |
_InterlockedAnd_acq |
long _InterlockedAnd_acq(long volatile *, long) |
_InterlockedAnd_nf |
long _InterlockedAnd_nf(long volatile *, long) |
_InterlockedAnd_rel |
long _InterlockedAnd_rel(long volatile *, long) |
_InterlockedCompareExchange |
long __cdecl _InterlockedCompareExchange(long volatile *, long, long) |
_InterlockedCompareExchange16 |
short _InterlockedCompareExchange16(short volatile *, short, short) |
_InterlockedCompareExchange16_acq |
short _InterlockedCompareExchange16_acq(short volatile *, short, short) |
_InterlockedCompareExchange16_nf |
short _InterlockedCompareExchange16_nf(short volatile *, short, short) |
_InterlockedCompareExchange16_rel |
short _InterlockedCompareExchange16_rel(short volatile *, short, short) |
_InterlockedCompareExchange64 |
__int64 _InterlockedCompareExchange64(__int64 volatile *, __int64, __int64) |
_InterlockedCompareExchange64_acq |
__int64 _InterlockedCompareExchange64_acq(__int64 volatile *, __int64, __int64) |
_InterlockedCompareExchange64_nf |
__int64 _InterlockedCompareExchange64_nf(__int64 volatile *, __int64, __int64) |
_InterlockedCompareExchange64_rel |
__int64 _InterlockedCompareExchange64_rel(__int64 volatile *, __int64, __int64) |
_InterlockedCompareExchange8 |
char _InterlockedCompareExchange8(char volatile *, char, char) |
_InterlockedCompareExchange8_acq |
char _InterlockedCompareExchange8_acq(char volatile *, char, char) |
_InterlockedCompareExchange8_nf |
char _InterlockedCompareExchange8_nf(char volatile *, char, char) |
_InterlockedCompareExchange8_rel |
char _InterlockedCompareExchange8_rel(char volatile *, char, char) |
_InterlockedCompareExchangePointer |
void *_InterlockedCompareExchangePointer (void *volatile *,void *,void *) |
_InterlockedCompareExchangePointer_acq |
void * _InterlockedCompareExchangePointer_acq(void * volatile *, void *, void *) |
_InterlockedCompareExchangePointer_nf |
void * _InterlockedCompareExchangePointer_nf(void * volatile *, void *, void *) |
_InterlockedCompareExchangePointer_rel |
void * _InterlockedCompareExchangePointer_rel(void * volatile *, void *, void *) |
_InterlockedCompareExchange_acq |
long _InterlockedCompareExchange_acq(long volatile *, long, long) |
_InterlockedCompareExchange_nf |
long _InterlockedCompareExchange_nf(long volatile *, long, long) |
_InterlockedCompareExchange_rel |
long _InterlockedCompareExchange_rel(long volatile *, long, long) |
_InterlockedDecrement |
long __cdecl _InterlockedDecrement(long volatile *) |
_InterlockedDecrement16 |
short _InterlockedDecrement16(short volatile *) |
_InterlockedDecrement16_acq |
short _InterlockedDecrement16_acq(short volatile *) |
_InterlockedDecrement16_nf |
short _InterlockedDecrement16_nf(short volatile *) |
_InterlockedDecrement16_rel |
short _InterlockedDecrement16_rel(short volatile *) |
_InterlockedDecrement64 |
__int64 _InterlockedDecrement64(__int64 volatile *) |
_InterlockedDecrement64_acq |
__int64 _InterlockedDecrement64_acq(__int64 volatile *) |
_InterlockedDecrement64_nf |
__int64 _InterlockedDecrement64_nf(__int64 volatile *) |
_InterlockedDecrement64_rel |
__int64 _InterlockedDecrement64_rel(__int64 volatile *) |
_InterlockedDecrement_acq |
long _InterlockedDecrement_acq(long volatile *) |
_InterlockedDecrement_nf |
long _InterlockedDecrement_nf(long volatile *) |
_InterlockedDecrement_rel |
long _InterlockedDecrement_rel(long volatile *) |
_InterlockedExchange |
long __cdecl _InterlockedExchange(long volatile * _Target, long) |
_InterlockedExchange16 |
short _InterlockedExchange16(short volatile * _Target, short) |
_InterlockedExchange16_acq |
short _InterlockedExchange16_acq(short volatile * _Target, short) |
_InterlockedExchange16_nf |
short _InterlockedExchange16_nf(short volatile * _Target, short) |
_InterlockedExchange64 |
__int64 _InterlockedExchange64(__int64 volatile * _Target, __int64) |
_InterlockedExchange64_acq |
__int64 _InterlockedExchange64_acq(__int64 volatile * _Target, __int64) |
_InterlockedExchange64_nf |
__int64 _InterlockedExchange64_nf(__int64 volatile * _Target, __int64) |
_InterlockedExchange8 |
char _InterlockedExchange8(char volatile * _Target, char) |
_InterlockedExchange8_acq |
char _InterlockedExchange8_acq(char volatile * _Target, char) |
_InterlockedExchange8_nf |
char _InterlockedExchange8_nf(char volatile * _Target, char) |
_InterlockedExchangeAdd |
long __cdecl _InterlockedExchangeAdd(long volatile *, long) |
_InterlockedExchangeAdd16 |
short _InterlockedExchangeAdd16(short volatile *,short) |
_InterlockedExchangeAdd16_acq |
short _InterlockedExchangeAdd16_acq(short volatile *, short) |
_InterlockedExchangeAdd16_nf |
short _InterlockedExchangeAdd16_nf(short volatile *, short) |
_InterlockedExchangeAdd16_rel |
short _InterlockedExchangeAdd16_rel(short volatile *, short) |
_InterlockedExchangeAdd64 |
__int64 _InterlockedExchangeAdd64(__int64 volatile *,__int64) |
_InterlockedExchangeAdd64_acq |
__int64 _InterlockedExchangeAdd64_acq(__int64 volatile *, __int64) |
_InterlockedExchangeAdd64_nf |
__int64 _InterlockedExchangeAdd64_nf(__int64 volatile *, __int64) |
_InterlockedExchangeAdd64_rel |
__int64 _InterlockedExchangeAdd64_rel(__int64 volatile *, __int64) |
_InterlockedExchangeAdd8 |
char _InterlockedExchangeAdd8(char volatile *,char) |
_InterlockedExchangeAdd8_acq |
char _InterlockedExchangeAdd8_acq(char volatile *, char) |
_InterlockedExchangeAdd8_nf |
char _InterlockedExchangeAdd8_nf(char volatile *, char) |
_InterlockedExchangeAdd8_rel |
char _InterlockedExchangeAdd8_rel(char volatile *, char) |
_InterlockedExchangeAdd_acq |
long _InterlockedExchangeAdd_acq(long volatile *, long) |
_InterlockedExchangeAdd_nf |
long _InterlockedExchangeAdd_nf(long volatile *, long) |
_InterlockedExchangeAdd_rel |
long _InterlockedExchangeAdd_rel(long volatile *, long) |
_InterlockedExchangePointer |
void * _InterlockedExchangePointer(void * volatile * _Target, void *) |
_InterlockedExchangePointer_acq |
void * _InterlockedExchangePointer_acq(void * volatile * _Target, void *) |
_InterlockedExchangePointer_nf |
void * _InterlockedExchangePointer_nf(void * volatile * _Target, void *) |
_InterlockedExchange_acq |
long _InterlockedExchange_acq(long volatile * _Target, long) |
_InterlockedExchange_nf |
long _InterlockedExchange_nf(long volatile * _Target, long) |
_InterlockedIncrement |
long __cdecl _InterlockedIncrement(long volatile *) |
_InterlockedIncrement16 |
short _InterlockedIncrement16(short volatile *) |
_InterlockedIncrement16_acq |
short _InterlockedIncrement16_acq(short volatile *) |
_InterlockedIncrement16_nf |
short _InterlockedIncrement16_nf(short volatile *) |
_InterlockedIncrement16_rel |
short _InterlockedIncrement16_rel(short volatile *) |
_InterlockedIncrement64 |
__int64 _InterlockedIncrement64(__int64 volatile *) |
_InterlockedIncrement64_acq |
__int64 _InterlockedIncrement64_acq(__int64 volatile *) |
_InterlockedIncrement64_nf |
__int64 _InterlockedIncrement64_nf(__int64 volatile *) |
_InterlockedIncrement64_rel |
__int64 _InterlockedIncrement64_rel(__int64 volatile *) |
_InterlockedIncrement_acq |
long _InterlockedIncrement_acq(long volatile *) |
_InterlockedIncrement_nf |
long _InterlockedIncrement_nf(long volatile *) |
_InterlockedIncrement_rel |
long _InterlockedIncrement_rel(long volatile *) |
_InterlockedOr |
long _InterlockedOr(long volatile *,long) |
_InterlockedOr16 |
short _InterlockedOr16(short volatile *,short) |
_InterlockedOr16_acq |
short _InterlockedOr16_acq(short volatile *, short) |
_InterlockedOr16_nf |
short _InterlockedOr16_nf(short volatile *, short) |
_InterlockedOr16_rel |
short _InterlockedOr16_rel(short volatile *, short) |
_InterlockedOr64 |
__int64 _InterlockedOr64(__int64 volatile *,__int64) |
_InterlockedOr64_acq |
__int64 _InterlockedOr64_acq(__int64 volatile *, __int64) |
_InterlockedOr64_nf |
__int64 _InterlockedOr64_nf(__int64 volatile *, __int64) |
_InterlockedOr64_rel |
__int64 _InterlockedOr64_rel(__int64 volatile *, __int64) |
_InterlockedOr8 |
char _InterlockedOr8(char volatile *,char) |
_InterlockedOr8_acq |
char _InterlockedOr8_acq(char volatile *, char) |
_InterlockedOr8_nf |
char _InterlockedOr8_nf(char volatile *, char) |
_InterlockedOr8_rel |
char _InterlockedOr8_rel(char volatile *, char) |
_InterlockedOr_acq |
long _InterlockedOr_acq(long volatile *, long) |
_InterlockedOr_nf |
long _InterlockedOr_nf(long volatile *, long) |
_InterlockedOr_rel |
long _InterlockedOr_rel(long volatile *, long) |
_InterlockedXor |
long _InterlockedXor(long volatile *,long) |
_InterlockedXor16 |
short _InterlockedXor16(short volatile *,short) |
_InterlockedXor16_acq |
short _InterlockedXor16_acq(short volatile *, short) |
_InterlockedXor16_nf |
short _InterlockedXor16_nf(short volatile *, short) |
_InterlockedXor16_rel |
short _InterlockedXor16_rel(short volatile *, short) |
_InterlockedXor64 |
__int64 _InterlockedXor64(__int64 volatile *,__int64) |
_InterlockedXor64_acq |
__int64 _InterlockedXor64_acq(__int64 volatile *, __int64) |
_InterlockedXor64_nf |
__int64 _InterlockedXor64_nf(__int64 volatile *, __int64) |
_InterlockedXor64_rel |
__int64 _InterlockedXor64_rel(__int64 volatile *, __int64) |
_InterlockedXor8 |
char _InterlockedXor8(char volatile *,char) |
_InterlockedXor8_acq |
char _InterlockedXor8_acq(char volatile *, char) |
_InterlockedXor8_nf |
char _InterlockedXor8_nf(char volatile *, char) |
_InterlockedXor8_rel |
char _InterlockedXor8_rel(char volatile *, char) |
_InterlockedXor_acq |
long _InterlockedXor_acq(long volatile *, long) |
_InterlockedXor_nf |
long _InterlockedXor_nf(long volatile *, long) |
_InterlockedXor_rel |
long _InterlockedXor_rel(long volatile *, long) |
[Retour en haut]
Intrinsèques _interlockedbittest
Les intrinsèques brutes à blocage et test au niveau des bits sont communes à toutes les plateformes. ARM ajoute des variantes de _acq, _rel et _nf, qui modifie seulement la sémantique de la barrière d'une opération, comme décrit dans Suffixe _nf (no fence) plus haut dans cet article.
Nom de la fonction |
Prototype de fonction |
---|---|
_interlockedbittestandreset |
unsigned char _interlockedbittestandreset(long volatile *, long) |
_interlockedbittestandreset_acq |
unsigned char _interlockedbittestandreset_acq(long volatile *, long) |
_interlockedbittestandreset_nf |
unsigned char _interlockedbittestandreset_nf(long volatile *, long) |
_interlockedbittestandreset_rel |
unsigned char _interlockedbittestandreset_rel(long volatile *, long) |
_interlockedbittestandset |
unsigned char _interlockedbittestandset(long volatile *, long) |
_interlockedbittestandset_acq |
unsigned char _interlockedbittestandset_acq(long volatile *, long) |
_interlockedbittestandset_nf |
unsigned char _interlockedbittestandset_nf(long volatile *, long) |
_interlockedbittestandset_rel |
unsigned char _interlockedbittestandset_rel(long volatile *, long) |
[Retour en haut]