[SPARC64]: Fix hypervisor call arg passing.
authorDavid S. Miller <davem@sunset.davemloft.net>
Fri, 10 Feb 2006 06:57:21 +0000 (22:57 -0800)
committerDavid S. Miller <davem@sunset.davemloft.net>
Mon, 20 Mar 2006 09:12:14 +0000 (01:12 -0800)
Function goes in %o5, args go in %o0 --> %o5.

Signed-off-by: David S. Miller <davem@davemloft.net>
arch/sparc64/kernel/irq.c
arch/sparc64/kernel/smp.c
arch/sparc64/kernel/trampoline.S
arch/sparc64/kernel/tsb.S
arch/sparc64/mm/init.c

index 1f64555..c5dd6da 100644 (file)
@@ -863,10 +863,10 @@ void init_irqwork_curcpu(void)
 
 static void __cpuinit init_one_mondo(unsigned long *pa_ptr, unsigned long type)
 {
-       register unsigned long func __asm__("%o0");
-       register unsigned long arg0 __asm__("%o1");
-       register unsigned long arg1 __asm__("%o2");
-       register unsigned long arg2 __asm__("%o3");
+       register unsigned long func __asm__("%o5");
+       register unsigned long arg0 __asm__("%o0");
+       register unsigned long arg1 __asm__("%o1");
+       register unsigned long arg2 __asm__("%o2");
        unsigned long page = get_zeroed_page(GFP_ATOMIC);
 
        if (!page) {
index c10a3a8..f553264 100644 (file)
@@ -572,10 +572,10 @@ static void hypervisor_xcall_deliver(u64 data0, u64 data1, u64 data2, cpumask_t
        retries = 0;
        cnt = init_cpu_list(cpu_list, mask);
        do {
-               register unsigned long func __asm__("%o0");
-               register unsigned long arg0 __asm__("%o1");
-               register unsigned long arg1 __asm__("%o2");
-               register unsigned long arg2 __asm__("%o3");
+               register unsigned long func __asm__("%o5");
+               register unsigned long arg0 __asm__("%o0");
+               register unsigned long arg1 __asm__("%o1");
+               register unsigned long arg2 __asm__("%o2");
 
                func = HV_FAST_CPU_MONDO_SEND;
                arg0 = cnt;
@@ -624,10 +624,10 @@ static void hypervisor_xcall_deliver(u64 data0, u64 data1, u64 data2, cpumask_t
                int retries = 0;
 
                do {
-                       register unsigned long func __asm__("%o0");
-                       register unsigned long arg0 __asm__("%o1");
-                       register unsigned long arg1 __asm__("%o2");
-                       register unsigned long arg2 __asm__("%o3");
+                       register unsigned long func __asm__("%o5");
+                       register unsigned long arg0 __asm__("%o0");
+                       register unsigned long arg1 __asm__("%o1");
+                       register unsigned long arg2 __asm__("%o2");
 
                        cpu_list[0] = i;
                        func = HV_FAST_CPU_MONDO_SEND;
index ffa8b79..c476f5b 100644 (file)
@@ -265,20 +265,20 @@ do_unlock:
         nop
 
 niagara_lock_tlb:
-       mov             HV_FAST_MMU_MAP_PERM_ADDR, %o0
-       sethi           %hi(KERNBASE), %o1
-       clr             %o2
-       sethi           %hi(kern_locked_tte_data), %o3
-       ldx             [%o3 + %lo(kern_locked_tte_data)], %o3
-       mov             HV_MMU_IMMU, %o4
+       mov             HV_FAST_MMU_MAP_PERM_ADDR, %o5
+       sethi           %hi(KERNBASE), %o0
+       clr             %o1
+       sethi           %hi(kern_locked_tte_data), %o2
+       ldx             [%o2 + %lo(kern_locked_tte_data)], %o2
+       mov             HV_MMU_IMMU, %o3
        ta              HV_FAST_TRAP
 
-       mov             HV_FAST_MMU_MAP_PERM_ADDR, %o0
-       sethi           %hi(KERNBASE), %o1
-       clr             %o2
-       sethi           %hi(kern_locked_tte_data), %o3
-       ldx             [%o3 + %lo(kern_locked_tte_data)], %o3
-       mov             HV_MMU_DMMU, %o4
+       mov             HV_FAST_MMU_MAP_PERM_ADDR, %o5
+       sethi           %hi(KERNBASE), %o0
+       clr             %o1
+       sethi           %hi(kern_locked_tte_data), %o2
+       ldx             [%o2 + %lo(kern_locked_tte_data)], %o2
+       mov             HV_MMU_DMMU, %o3
        ta              HV_FAST_TRAP
 
        sethi           %hi(bigkernel), %g2
@@ -286,24 +286,24 @@ niagara_lock_tlb:
        brz,pt          %g2, after_lock_tlb
         nop
 
-       mov             HV_FAST_MMU_MAP_PERM_ADDR, %o0
-       sethi           %hi(KERNBASE + 0x400000), %o1
-       clr             %o2
-       sethi           %hi(kern_locked_tte_data), %o3
-       ldx             [%o3 + %lo(kern_locked_tte_data)], %o3
-       sethi           %hi(0x400000), %o4
-       add             %o3, %o4, %o3
-       mov             HV_MMU_IMMU, %o4
+       mov             HV_FAST_MMU_MAP_PERM_ADDR, %o5
+       sethi           %hi(KERNBASE + 0x400000), %o0
+       clr             %o1
+       sethi           %hi(kern_locked_tte_data), %o2
+       ldx             [%o2 + %lo(kern_locked_tte_data)], %o2
+       sethi           %hi(0x400000), %o3
+       add             %o2, %o3, %o2
+       mov             HV_MMU_IMMU, %o3
        ta              HV_FAST_TRAP
 
-       mov             HV_FAST_MMU_MAP_PERM_ADDR, %o0
-       sethi           %hi(KERNBASE + 0x400000), %o1
-       clr             %o2
-       sethi           %hi(kern_locked_tte_data), %o3
-       ldx             [%o3 + %lo(kern_locked_tte_data)], %o3
-       sethi           %hi(0x400000), %o4
-       add             %o3, %o4, %o3
-       mov             HV_MMU_DMMU, %o4
+       mov             HV_FAST_MMU_MAP_PERM_ADDR, %o5
+       sethi           %hi(KERNBASE + 0x400000), %o0
+       clr             %o1
+       sethi           %hi(kern_locked_tte_data), %o2
+       ldx             [%o2 + %lo(kern_locked_tte_data)], %o2
+       sethi           %hi(0x400000), %o3
+       add             %o2, %o3, %o2
+       mov             HV_MMU_DMMU, %o3
        ta              HV_FAST_TRAP
 
 after_lock_tlb:
index a53ec6f..8a93512 100644 (file)
@@ -266,9 +266,9 @@ __tsb_context_switch:
        mov     SCRATCHPAD_UTSBREG2, %g1
        stxa    %g2, [%g1] ASI_SCRATCHPAD
 
-       mov     HV_FAST_MMU_TSB_CTXNON0, %o0
-       mov     1, %o1
-       mov     %o4, %o2
+       mov     HV_FAST_MMU_TSB_CTXNON0, %o5
+       mov     1, %o0
+       mov     %o4, %o1
        ta      HV_FAST_TRAP
 
        ba,pt   %xcc, 9f
index e602b85..7faba33 100644 (file)
@@ -518,11 +518,11 @@ static void __init hypervisor_tlb_lock(unsigned long vaddr,
                                       unsigned long pte,
                                       unsigned long mmu)
 {
-       register unsigned long func asm("%o0");
-       register unsigned long arg0 asm("%o1");
-       register unsigned long arg1 asm("%o2");
-       register unsigned long arg2 asm("%o3");
-       register unsigned long arg3 asm("%o4");
+       register unsigned long func asm("%o5");
+       register unsigned long arg0 asm("%o0");
+       register unsigned long arg1 asm("%o1");
+       register unsigned long arg2 asm("%o2");
+       register unsigned long arg3 asm("%o3");
 
        func = HV_FAST_MMU_MAP_PERM_ADDR;
        arg0 = vaddr;
@@ -1112,18 +1112,18 @@ static void __init tsb_phys_patch(void)
 /* Register this cpu's fault status area with the hypervisor.  */
 void __cpuinit sun4v_register_fault_status(void)
 {
+       register unsigned long func asm("%o5");
        register unsigned long arg0 asm("%o0");
-       register unsigned long arg1 asm("%o1");
        int cpu = hard_smp_processor_id();
        struct trap_per_cpu *tb = &trap_block[cpu];
        unsigned long pa;
 
        pa = kern_base + ((unsigned long) tb - KERNBASE);
-       arg0 = HV_FAST_MMU_FAULT_AREA_CONF;
-       arg1 = pa;
+       func = HV_FAST_MMU_FAULT_AREA_CONF;
+       arg0 = pa;
        __asm__ __volatile__("ta        %4"
-                            : "=&r" (arg0), "=&r" (arg1)
-                            : "0" (arg0), "1" (arg1),
+                            : "=&r" (func), "=&r" (arg0)
+                            : "0" (func), "1" (arg0),
                               "i" (HV_FAST_TRAP));
 }