static inline void bfrom_SoftReset(void *new_stack)
 {
        while (1)
+               /*
+                * We don't declare the SP as clobbered on purpose, since
+                * it confuses the heck out of the compiler, and this function
+                * never returns
+                */
                __asm__ __volatile__(
                        "sp = %[stack];"
                        "jump (%[bfrom_syscontrol]);"
 
 /*
  * Force strict CPU ordering.
  */
-#define nop()  asm volatile ("nop;\n\t"::)
-#define mb()   asm volatile (""   : : :"memory")
-#define rmb()  asm volatile (""   : : :"memory")
-#define wmb()  asm volatile (""   : : :"memory")
+#define nop()  __asm__ __volatile__ ("nop;\n\t" : : )
+#define mb()   __asm__ __volatile__ (""   : : : "memory")
+#define rmb()  __asm__ __volatile__ (""   : : : "memory")
+#define wmb()  __asm__ __volatile__ (""   : : : "memory")
 #define set_mb(var, value) do { (void) xchg(&var, value); } while (0)
 #define read_barrier_depends()                 do { } while(0)
 
 
 static inline struct thread_info *current_thread_info(void)
 {
        struct thread_info *ti;
-      __asm__("%0 = sp;": "=&d"(ti):
+      __asm__("%0 = sp;" : "=da"(ti) :
        );
        return (struct thread_info *)((long)ti & ~((long)THREAD_SIZE-1));
 }