fix RLIMIT_ constants for mips
[musl] / arch / arm / atomic.h
1 #ifndef _INTERNAL_ATOMIC_H
2 #define _INTERNAL_ATOMIC_H
3
4 #include <stdint.h>
5
6 static inline int a_ctz_l(unsigned long x)
7 {
8         static const char debruijn32[32] = {
9                 0, 1, 23, 2, 29, 24, 19, 3, 30, 27, 25, 11, 20, 8, 4, 13,
10                 31, 22, 28, 18, 26, 10, 7, 12, 21, 17, 9, 6, 16, 5, 15, 14
11         };
12         return debruijn32[(x&-x)*0x076be629 >> 27];
13 }
14
15 static inline int a_ctz_64(uint64_t x)
16 {
17         uint32_t y = x;
18         if (!y) {
19                 y = x>>32;
20                 return 32 + a_ctz_l(y);
21         }
22         return a_ctz_l(y);
23 }
24
25 #if __ARM_ARCH_6__ || __ARM_ARCH_6K__ || __ARM_ARCH_6ZK__ \
26  || __ARM_ARCH_7A__ || __ARM_ARCH_7R__ \
27  || __ARM_ARCH >= 7
28
29 #if __ARM_ARCH_7A__ || __ARM_ARCH_7R__ ||  __ARM_ARCH >= 7
30 #define MEM_BARRIER "dmb ish"
31 #else
32 #define MEM_BARRIER "mcr p15,0,r0,c7,c10,5"
33 #endif
34
35 static inline int __k_cas(int t, int s, volatile int *p)
36 {
37         int ret;
38         __asm__(
39                 "       " MEM_BARRIER "\n"
40                 "1:     ldrex %0,%3\n"
41                 "       subs %0,%0,%1\n"
42                 "       strexeq %0,%2,%3\n"
43                 "       teqeq %0,#1\n"
44                 "       beq 1b\n"
45                 "       " MEM_BARRIER "\n"
46                 : "=&r"(ret)
47                 : "r"(t), "r"(s), "Q"(*p)
48                 : "memory", "cc" );
49         return ret;
50 }
51 #else
52 #define __k_cas ((int (*)(int, int, volatile int *))0xffff0fc0)
53 #endif
54
55 static inline int a_cas(volatile int *p, int t, int s)
56 {
57         int old;
58         for (;;) {
59                 if (!__k_cas(t, s, p))
60                         return t;
61                 if ((old=*p) != t)
62                         return old;
63         }
64 }
65
66 static inline void *a_cas_p(volatile void *p, void *t, void *s)
67 {
68         return (void *)a_cas(p, (int)t, (int)s);
69 }
70
71 static inline long a_cas_l(volatile void *p, long t, long s)
72 {
73         return a_cas(p, t, s);
74 }
75
76 static inline int a_swap(volatile int *x, int v)
77 {
78         int old;
79         do old = *x;
80         while (__k_cas(old, v, x));
81         return old;
82 }
83
84 static inline int a_fetch_add(volatile int *x, int v)
85 {
86         int old;
87         do old = *x;
88         while (__k_cas(old, old+v, x));
89         return old;
90 }
91
92 static inline void a_inc(volatile int *x)
93 {
94         a_fetch_add(x, 1);
95 }
96
97 static inline void a_dec(volatile int *x)
98 {
99         a_fetch_add(x, -1);
100 }
101
102 static inline void a_store(volatile int *p, int x)
103 {
104         while (__k_cas(*p, x, p));
105 }
106
107 static inline void a_spin()
108 {
109 }
110
111 static inline void a_crash()
112 {
113         *(volatile char *)0=0;
114 }
115
116 static inline void a_and(volatile int *p, int v)
117 {
118         int old;
119         do old = *p;
120         while (__k_cas(old, old&v, p));
121 }
122
123 static inline void a_or(volatile int *p, int v)
124 {
125         int old;
126         do old = *p;
127         while (__k_cas(old, old|v, p));
128 }
129
130 static inline void a_or_l(volatile void *p, long v)
131 {
132         a_or(p, v);
133 }
134
135 static inline void a_and_64(volatile uint64_t *p, uint64_t v)
136 {
137         union { uint64_t v; uint32_t r[2]; } u = { v };
138         a_and((int *)p, u.r[0]);
139         a_and((int *)p+1, u.r[1]);
140 }
141
142 static inline void a_or_64(volatile uint64_t *p, uint64_t v)
143 {
144         union { uint64_t v; uint32_t r[2]; } u = { v };
145         a_or((int *)p, u.r[0]);
146         a_or((int *)p+1, u.r[1]);
147 }
148
149 #endif