Lines Matching refs:a32
188 static atomic_uint32_t *to_atomic(const volatile a32 *a) {
189 return reinterpret_cast<atomic_uint32_t *>(const_cast<a32 *>(a));
533 a32 __tsan_atomic32_load(const volatile a32 *a, morder mo) {
560 void __tsan_atomic32_store(volatile a32 *a, a32 v, morder mo) {
587 a32 __tsan_atomic32_exchange(volatile a32 *a, a32 v, morder mo) {
614 a32 __tsan_atomic32_fetch_add(volatile a32 *a, a32 v, morder mo) {
641 a32 __tsan_atomic32_fetch_sub(volatile a32 *a, a32 v, morder mo) {
668 a32 __tsan_atomic32_fetch_and(volatile a32 *a, a32 v, morder mo) {
695 a32 __tsan_atomic32_fetch_or(volatile a32 *a, a32 v, morder mo) {
722 a32 __tsan_atomic32_fetch_xor(volatile a32 *a, a32 v, morder mo) {
749 a32 __tsan_atomic32_fetch_nand(volatile a32 *a, a32 v, morder mo) {
778 int __tsan_atomic32_compare_exchange_strong(volatile a32 *a, a32 *c, a32 v,
810 int __tsan_atomic32_compare_exchange_weak(volatile a32 *a, a32 *c, a32 v,
842 a32 __tsan_atomic32_compare_exchange_val(volatile a32 *a, a32 c, a32 v,
899 ATOMIC_RET(Load, *(a32*)(a+8), *(a32**)a, mo_acquire);
909 ATOMIC(Store, *(a32**)a, *(a32*)(a+8), mo_release);
919 ATOMIC_RET(FetchAdd, *(a32*)(a+16), *(a32**)a, *(a32*)(a+8), mo_acq_rel);
929 ATOMIC_RET(Exchange, *(a32*)(a+16), *(a32**)a, *(a32*)(a+8), mo_acq_rel);
940 a32 cur = 0;
941 a32 cmp = *(a32*)(a+8);
942 ATOMIC_RET(CAS, cur, *(a32**)a, cmp, *(a32*)(a+12), mo_acq_rel, mo_acquire);