clean up unused and inconsistent atomics in arch dirs
authorRich Felker <dalias@aerifal.cx>
Mon, 28 Jul 2014 01:50:24 +0000 (21:50 -0400)
committerRich Felker <dalias@aerifal.cx>
Mon, 28 Jul 2014 01:50:24 +0000 (21:50 -0400)
the a_cas_l, a_swap_l, a_swap_p, and a_store_l operations were
probably used a long time ago when only i386 and x86_64 were
supported. as other archs were added, support for them was
inconsistent, and they are obviously not in use at present. having
them around potentially confuses readers working on new ports, and the
type-punning hacks and inconsistent use of types in their definitions
is not a style I wish to perpetuate in the source tree, so removing
them seems appropriate.

arch/arm/atomic.h
arch/i386/atomic.h
arch/microblaze/atomic.h
arch/mips/atomic.h
arch/powerpc/atomic.h
arch/sh/atomic.h
arch/x32/atomic.h
arch/x86_64/atomic.h

index d4ba73f..302e6d8 100644 (file)
@@ -70,11 +70,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return (void *)a_cas(p, (int)t, (int)s);
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       return a_cas(p, t, s);
-}
-
 static inline int a_swap(volatile int *x, int v)
 {
        int old;
index 77b0b3b..8a2a123 100644 (file)
@@ -30,11 +30,6 @@ static inline void a_or_64(volatile uint64_t *p, uint64_t v)
                : : "r"((long *)p), "r"((unsigned)v), "r"((unsigned)(v>>32)) : "memory" );
 }
 
-static inline void a_store_l(volatile void *p, long x)
-{
-       __asm__( "movl %1, %0" : "=m"(*(long *)p) : "r"(x) : "memory" );
-}
-
 static inline void a_or_l(volatile void *p, long v)
 {
        __asm__( "lock ; orl %1, %0"
@@ -48,13 +43,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return t;
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       __asm__( "lock ; cmpxchg %3, %1"
-               : "=a"(t), "=m"(*(long *)p) : "a"(t), "r"(s) : "memory" );
-       return t;
-}
-
 static inline int a_cas(volatile int *p, int t, int s)
 {
        __asm__( "lock ; cmpxchg %3, %1"
@@ -62,17 +50,6 @@ static inline int a_cas(volatile int *p, int t, int s)
        return t;
 }
 
-static inline void *a_swap_p(void *volatile *x, void *v)
-{
-       __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(void **)x) : "0"(v) : "memory" );
-       return v;
-}
-static inline long a_swap_l(volatile void *x, long v)
-{
-       __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(long *)x) : "0"(v) : "memory" );
-       return v;
-}
-
 static inline void a_or(volatile void *p, int v)
 {
        __asm__( "lock ; orl %1, %0"
index da9949a..96265fe 100644 (file)
@@ -45,11 +45,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return (void *)a_cas(p, (int)t, (int)s);
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       return a_cas(p, t, s);
-}
-
 static inline int a_swap(volatile int *x, int v)
 {
        register int old, tmp;
index 9dcd155..3ec0358 100644 (file)
@@ -48,12 +48,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return (void *)a_cas(p, (int)t, (int)s);
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       return a_cas(p, t, s);
-}
-
-
 static inline int a_swap(volatile int *x, int v)
 {
        int old, dummy;
index a082c09..1044886 100644 (file)
@@ -43,12 +43,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return (void *)a_cas(p, (int)t, (int)s);
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       return a_cas(p, t, s);
-}
-
-
 static inline int a_swap(volatile int *x, int v)
 {
        int old;
index 104a4f1..93ab54f 100644 (file)
@@ -41,11 +41,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return (void *)a_cas(p, (int)t, (int)s);
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       return a_cas(p, t, s);
-}
-
 static inline void a_inc(volatile int *x)
 {
        a_fetch_add(x, 1);
index 124b37a..ae0a576 100644 (file)
@@ -27,11 +27,6 @@ static inline void a_or_64(volatile uint64_t *p, uint64_t v)
                         : "=m"(*p) : "r"(v) : "memory" );
 }
 
-static inline void a_store_l(volatile void *p, long x)
-{
-       __asm__( "mov %1, %0" : "=m"(*(long *)p) : "r"(x) : "memory" );
-}
-
 static inline void a_or_l(volatile void *p, long v)
 {
        __asm__( "lock ; or %1, %0"
@@ -45,13 +40,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return t;
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       __asm__( "lock ; cmpxchg %3, %1"
-               : "=a"(t), "=m"(*(long *)p) : "a"(t), "r"(s) : "memory" );
-       return t;
-}
-
 static inline int a_cas(volatile int *p, int t, int s)
 {
        __asm__( "lock ; cmpxchg %3, %1"
@@ -59,17 +47,6 @@ static inline int a_cas(volatile int *p, int t, int s)
        return t;
 }
 
-static inline void *a_swap_p(void *volatile *x, void *v)
-{
-       __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(void **)x) : "0"(v) : "memory" );
-       return v;
-}
-static inline long a_swap_l(volatile void *x, long v)
-{
-       __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(long *)x) : "0"(v) : "memory" );
-       return v;
-}
-
 static inline void a_or(volatile void *p, int v)
 {
        __asm__( "lock ; or %1, %0"
@@ -88,8 +65,6 @@ static inline int a_swap(volatile int *x, int v)
        return v;
 }
 
-#define a_xchg a_swap
-
 static inline int a_fetch_add(volatile int *x, int v)
 {
        __asm__( "lock ; xadd %0, %1" : "=r"(v), "=m"(*x) : "0"(v) : "memory" );
index 124b37a..ae0a576 100644 (file)
@@ -27,11 +27,6 @@ static inline void a_or_64(volatile uint64_t *p, uint64_t v)
                         : "=m"(*p) : "r"(v) : "memory" );
 }
 
-static inline void a_store_l(volatile void *p, long x)
-{
-       __asm__( "mov %1, %0" : "=m"(*(long *)p) : "r"(x) : "memory" );
-}
-
 static inline void a_or_l(volatile void *p, long v)
 {
        __asm__( "lock ; or %1, %0"
@@ -45,13 +40,6 @@ static inline void *a_cas_p(volatile void *p, void *t, void *s)
        return t;
 }
 
-static inline long a_cas_l(volatile void *p, long t, long s)
-{
-       __asm__( "lock ; cmpxchg %3, %1"
-               : "=a"(t), "=m"(*(long *)p) : "a"(t), "r"(s) : "memory" );
-       return t;
-}
-
 static inline int a_cas(volatile int *p, int t, int s)
 {
        __asm__( "lock ; cmpxchg %3, %1"
@@ -59,17 +47,6 @@ static inline int a_cas(volatile int *p, int t, int s)
        return t;
 }
 
-static inline void *a_swap_p(void *volatile *x, void *v)
-{
-       __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(void **)x) : "0"(v) : "memory" );
-       return v;
-}
-static inline long a_swap_l(volatile void *x, long v)
-{
-       __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(long *)x) : "0"(v) : "memory" );
-       return v;
-}
-
 static inline void a_or(volatile void *p, int v)
 {
        __asm__( "lock ; or %1, %0"
@@ -88,8 +65,6 @@ static inline int a_swap(volatile int *x, int v)
        return v;
 }
 
-#define a_xchg a_swap
-
 static inline int a_fetch_add(volatile int *x, int v)
 {
        __asm__( "lock ; xadd %0, %1" : "=r"(v), "=m"(*x) : "0"(v) : "memory" );