fix missing barriers in powerpc atomic store
[musl] / arch / powerpc / atomic.h
1 #ifndef _INTERNAL_ATOMIC_H
2 #define _INTERNAL_ATOMIC_H
3
4 #include <stdint.h>
5 #include <endian.h>
6
7 static inline int a_ctz_l(unsigned long x)
8 {
9         static const char debruijn32[32] = {
10                 0, 1, 23, 2, 29, 24, 19, 3, 30, 27, 25, 11, 20, 8, 4, 13,
11                 31, 22, 28, 18, 26, 10, 7, 12, 21, 17, 9, 6, 16, 5, 15, 14
12         };
13         return debruijn32[(x&-x)*0x076be629 >> 27];
14 }
15
16 static inline int a_ctz_64(uint64_t x)
17 {
18         uint32_t y = x;
19         if (!y) {
20                 y = x>>32;
21                 return 32 + a_ctz_l(y);
22         }
23         return a_ctz_l(y);
24 }
25
26 static inline int a_cas(volatile int *p, int t, int s)
27 {
28         __asm__("\n"
29                 "       sync\n"
30                 "1:     lwarx %0, 0, %4\n"
31                 "       cmpw %0, %2\n"
32                 "       bne 1f\n"
33                 "       stwcx. %3, 0, %4\n"
34                 "       bne- 1b\n"
35                 "       isync\n"
36                 "1:     \n"
37                 : "=&r"(t), "+m"(*p) : "r"(t), "r"(s), "r"(p) : "cc", "memory" );
38         return t;
39 }
40
41 static inline void *a_cas_p(volatile void *p, void *t, void *s)
42 {
43         return (void *)a_cas(p, (int)t, (int)s);
44 }
45
46 static inline long a_cas_l(volatile void *p, long t, long s)
47 {
48         return a_cas(p, t, s);
49 }
50
51
52 static inline int a_swap(volatile int *x, int v)
53 {
54         int old;
55         do old = *x;
56         while (a_cas(x, old, v) != old);
57         return old;
58 }
59
60 static inline int a_fetch_add(volatile int *x, int v)
61 {
62         int old;
63         do old = *x;
64         while (a_cas(x, old, old+v) != old);
65         return old;
66 }
67
68 static inline void a_inc(volatile int *x)
69 {
70         a_fetch_add(x, 1);
71 }
72
73 static inline void a_dec(volatile int *x)
74 {
75         a_fetch_add(x, -1);
76 }
77
78 static inline void a_store(volatile int *p, int x)
79 {
80         __asm__ __volatile__ ("\n"
81                 "       sync\n"
82                 "       stw %1, %0\n"
83                 "       isync\n"
84                 : "=m"(*p) : "r"(x) : "memory" );
85 }
86
87 static inline void a_spin()
88 {
89 }
90
91 static inline void a_crash()
92 {
93         *(volatile char *)0=0;
94 }
95
96 static inline void a_and(volatile int *p, int v)
97 {
98         int old;
99         do old = *p;
100         while (a_cas(p, old, old&v) != old);
101 }
102
103 static inline void a_or(volatile int *p, int v)
104 {
105         int old;
106         do old = *p;
107         while (a_cas(p, old, old|v) != old);
108 }
109
110 static inline void a_or_l(volatile void *p, long v)
111 {
112         a_or(p, v);
113 }
114
115 static inline void a_and_64(volatile uint64_t *p, uint64_t v)
116 {
117         union { uint64_t v; uint32_t r[2]; } u = { v };
118         a_and((int *)p, u.r[0]);
119         a_and((int *)p+1, u.r[1]);
120 }
121
122 static inline void a_or_64(volatile uint64_t *p, uint64_t v)
123 {
124         union { uint64_t v; uint32_t r[2]; } u = { v };
125         a_or((int *)p, u.r[0]);
126         a_or((int *)p+1, u.r[1]);
127 }
128
129 #endif