KVM: ppc: directly insert shadow mappings into the hardware TLB
authorHollis Blanchard <hollisb@us.ibm.com>
Tue, 2 Dec 2008 21:51:55 +0000 (15:51 -0600)
committerAvi Kivity <avi@redhat.com>
Wed, 31 Dec 2008 14:55:09 +0000 (16:55 +0200)
commit7924bd41097ae8991c6d38cef8b1e4058e30d198
treeb39629f81598739eb886126c5f3f8705656ce9cd
parentc0ca609c5f874f7d6ae8e180afe79317e1943d22
KVM: ppc: directly insert shadow mappings into the hardware TLB

Formerly, we used to maintain a per-vcpu shadow TLB and on every entry to the
guest would load this array into the hardware TLB. This consumed 1280 bytes of
memory (64 entries of 16 bytes plus a struct page pointer each), and also
required some assembly to loop over the array on every entry.

Instead of saving a copy in memory, we can just store shadow mappings directly
into the hardware TLB, accepting that the host kernel will clobber these as
part of the normal 440 TLB round robin. When we do that we need less than half
the memory, and we have decreased the exit handling time for all guest exits,
at the cost of increased number of TLB misses because the host overwrites some
guest entries.

These savings will be increased on processors with larger TLBs or which
implement intelligent flush instructions like tlbivax (which will avoid the
need to walk arrays in software).

In addition to that and to the code simplification, we have a greater chance of
leaving other host userspace mappings in the TLB, instead of forcing all
subsequent tasks to re-fault all their mappings.

Signed-off-by: Hollis Blanchard <hollisb@us.ibm.com>
Signed-off-by: Avi Kivity <avi@redhat.com>
arch/powerpc/include/asm/kvm_44x.h
arch/powerpc/include/asm/kvm_ppc.h
arch/powerpc/kernel/asm-offsets.c
arch/powerpc/kvm/44x.c
arch/powerpc/kvm/44x_tlb.c
arch/powerpc/kvm/44x_tlb.h
arch/powerpc/kvm/booke.c
arch/powerpc/kvm/booke_interrupts.S