fix FLT_ROUNDS to reflect the current rounding mode
[musl] / arch / powerpc / atomic.h
index af39759..f706543 100644 (file)
@@ -25,12 +25,16 @@ static inline int a_ctz_64(uint64_t x)
 
 static inline int a_cas(volatile int *p, int t, int s)
 {
-
-       __asm__( "1: lwarx 10, 0, %1\n"
-                 "   stwcx. %3, 0, %1\n"
-                 "   bne- 1b\n"
-                 "   mr %0, 10\n"
-               : "=r"(t) : "r"(p), "r"(t), "r"(s) : "memory" );
+       __asm__("\n"
+               "       sync\n"
+               "1:     lwarx %0, 0, %4\n"
+               "       cmpw %0, %2\n"
+               "       bne 1f\n"
+               "       stwcx. %3, 0, %4\n"
+               "       bne- 1b\n"
+               "       isync\n"
+               "1:     \n"
+               : "=&r"(t), "+m"(*p) : "r"(t), "r"(s), "r"(p) : "cc", "memory" );
         return t;
 }
 
@@ -39,12 +43,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return (void *)a_cas(p, (int)t, (int)s);
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       return a_cas(p, t, s);
-}
-
-
 static inline int a_swap(volatile int *x, int v)
 {
        int old;
@@ -73,11 +71,18 @@ static inline void a_dec(volatile int *x)
 
 static inline void a_store(volatile int *p, int x)
 {
-       *p=x;
+       __asm__ __volatile__ ("\n"
+               "       sync\n"
+               "       stw %1, %0\n"
+               "       isync\n"
+               : "=m"(*p) : "r"(x) : "memory" );
 }
 
-static inline void a_spin()
+#define a_spin a_barrier
+
+static inline void a_barrier()
 {
+       a_cas(&(int){0}, 0, 0);
 }
 
 static inline void a_crash()
@@ -99,26 +104,23 @@ static inline void a_or(volatile int *p, int v)
        while (a_cas(p, old, old|v) != old);
 }
 
+static inline void a_or_l(volatile void *p, long v)
+{
+       a_or(p, v);
+}
+
 static inline void a_and_64(volatile uint64_t *p, uint64_t v)
 {
-#if __BYTE_ORDER == __LITTLE_ENDIAN
-       a_and((int *)p, v);
-       a_and((int *)p+1, v>>32);
-#else
-       a_and((int *)p+1, v);
-       a_and((int *)p, v>>32);
-#endif
+       union { uint64_t v; uint32_t r[2]; } u = { v };
+       a_and((int *)p, u.r[0]);
+       a_and((int *)p+1, u.r[1]);
 }
 
 static inline void a_or_64(volatile uint64_t *p, uint64_t v)
 {
-#if __BYTE_ORDER == __LITTLE_ENDIAN
-       a_or((int *)p, v);
-       a_or((int *)p+1, v>>32);
-#else
-       a_or((int *)p+1, v);
-       a_or((int *)p, v>>32);
-#endif
+       union { uint64_t v; uint32_t r[2]; } u = { v };
+       a_or((int *)p, u.r[0]);
+       a_or((int *)p+1, u.r[1]);
 }
 
 #endif