fix aarch64 atomics to load/store 32bit only
[musl] / arch / aarch64 / atomic_arch.h
1 #define a_ll a_ll
2 static inline int a_ll(volatile int *p)
3 {
4         int v;
5         __asm__ __volatile__ ("ldaxr %w0,%1" : "=r"(v) : "Q"(*p));
6         return v;
7 }
8
9 #define a_sc a_sc
10 static inline int a_sc(volatile int *p, int v)
11 {
12         int r;
13         __asm__ __volatile__ ("stlxr %w0,%w1,%2" : "=&r"(r) : "r"(v), "Q"(*p) : "memory");
14         return !r;
15 }
16
17 #define a_barrier a_barrier
18 static inline void a_barrier()
19 {
20         __asm__ __volatile__ ("dmb ish" : : : "memory");
21 }
22
23 #define a_cas a_cas
24 static inline int a_cas(volatile int *p, int t, int s)
25 {
26         int old;
27         do {
28                 old = a_ll(p);
29                 if (old != t) {
30                         a_barrier();
31                         break;
32                 }
33         } while (!a_sc(p, s));
34         return old;
35 }
36
37 static inline void *a_ll_p(volatile void *p)
38 {
39         void *v;
40         __asm__ __volatile__ ("ldaxr %0, %1" : "=r"(v) : "Q"(*(void *volatile *)p));
41         return v;
42 }
43
44 static inline int a_sc_p(volatile int *p, void *v)
45 {
46         int r;
47         __asm__ __volatile__ ("stlxr %w0,%1,%2" : "=&r"(r) : "r"(v), "Q"(*(void *volatile *)p) : "memory");
48         return !r;
49 }
50
51 #define a_cas_p a_cas_p
52 static inline void *a_cas_p(volatile void *p, void *t, void *s)
53 {
54         void *old;
55         do {
56                 old = a_ll_p(p);
57                 if (old != t) {
58                         a_barrier();
59                         break;
60                 }
61         } while (!a_sc_p(p, s));
62         return old;
63 }
64
65 #define a_ctz_64 a_ctz_64
66 static inline int a_ctz_64(uint64_t x)
67 {
68         __asm__(
69                 "       rbit %0, %1\n"
70                 "       clz %0, %0\n"
71                 : "=r"(x) : "r"(x));
72         return x;
73 }