124b37ac38853b1f816427c5bc1d1bb2c95691f0
[musl] / arch / x86_64 / atomic.h
1 #ifndef _INTERNAL_ATOMIC_H
2 #define _INTERNAL_ATOMIC_H
3
4 #include <stdint.h>
5
6 static inline int a_ctz_64(uint64_t x)
7 {
8         __asm__( "bsf %1,%0" : "=r"(x) : "r"(x) );
9         return x;
10 }
11
12 static inline int a_ctz_l(unsigned long x)
13 {
14         __asm__( "bsf %1,%0" : "=r"(x) : "r"(x) );
15         return x;
16 }
17
18 static inline void a_and_64(volatile uint64_t *p, uint64_t v)
19 {
20         __asm__( "lock ; and %1, %0"
21                          : "=m"(*p) : "r"(v) : "memory" );
22 }
23
24 static inline void a_or_64(volatile uint64_t *p, uint64_t v)
25 {
26         __asm__( "lock ; or %1, %0"
27                          : "=m"(*p) : "r"(v) : "memory" );
28 }
29
30 static inline void a_store_l(volatile void *p, long x)
31 {
32         __asm__( "mov %1, %0" : "=m"(*(long *)p) : "r"(x) : "memory" );
33 }
34
35 static inline void a_or_l(volatile void *p, long v)
36 {
37         __asm__( "lock ; or %1, %0"
38                 : "=m"(*(long *)p) : "r"(v) : "memory" );
39 }
40
41 static inline void *a_cas_p(volatile void *p, void *t, void *s)
42 {
43         __asm__( "lock ; cmpxchg %3, %1"
44                 : "=a"(t), "=m"(*(long *)p) : "a"(t), "r"(s) : "memory" );
45         return t;
46 }
47
48 static inline long a_cas_l(volatile void *p, long t, long s)
49 {
50         __asm__( "lock ; cmpxchg %3, %1"
51                 : "=a"(t), "=m"(*(long *)p) : "a"(t), "r"(s) : "memory" );
52         return t;
53 }
54
55 static inline int a_cas(volatile int *p, int t, int s)
56 {
57         __asm__( "lock ; cmpxchg %3, %1"
58                 : "=a"(t), "=m"(*p) : "a"(t), "r"(s) : "memory" );
59         return t;
60 }
61
62 static inline void *a_swap_p(void *volatile *x, void *v)
63 {
64         __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(void **)x) : "0"(v) : "memory" );
65         return v;
66 }
67 static inline long a_swap_l(volatile void *x, long v)
68 {
69         __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(long *)x) : "0"(v) : "memory" );
70         return v;
71 }
72
73 static inline void a_or(volatile void *p, int v)
74 {
75         __asm__( "lock ; or %1, %0"
76                 : "=m"(*(int *)p) : "r"(v) : "memory" );
77 }
78
79 static inline void a_and(volatile void *p, int v)
80 {
81         __asm__( "lock ; and %1, %0"
82                 : "=m"(*(int *)p) : "r"(v) : "memory" );
83 }
84
85 static inline int a_swap(volatile int *x, int v)
86 {
87         __asm__( "xchg %0, %1" : "=r"(v), "=m"(*x) : "0"(v) : "memory" );
88         return v;
89 }
90
91 #define a_xchg a_swap
92
93 static inline int a_fetch_add(volatile int *x, int v)
94 {
95         __asm__( "lock ; xadd %0, %1" : "=r"(v), "=m"(*x) : "0"(v) : "memory" );
96         return v;
97 }
98
99 static inline void a_inc(volatile int *x)
100 {
101         __asm__( "lock ; incl %0" : "=m"(*x) : "m"(*x) : "memory" );
102 }
103
104 static inline void a_dec(volatile int *x)
105 {
106         __asm__( "lock ; decl %0" : "=m"(*x) : "m"(*x) : "memory" );
107 }
108
109 static inline void a_store(volatile int *p, int x)
110 {
111         __asm__( "mov %1, %0" : "=m"(*p) : "r"(x) : "memory" );
112 }
113
114 static inline void a_spin()
115 {
116         __asm__ __volatile__( "pause" : : : "memory" );
117 }
118
119 static inline void a_crash()
120 {
121         __asm__ __volatile__( "hlt" : : : "memory" );
122 }
123
124
125 #endif