Merge branch 'linus' into perfcounters/core
authorIngo Molnar <mingo@elte.hu>
Wed, 17 Jun 2009 11:06:17 +0000 (13:06 +0200)
committerIngo Molnar <mingo@elte.hu>
Wed, 17 Jun 2009 11:06:17 +0000 (13:06 +0200)
Conflicts:
arch/x86/include/asm/kmap_types.h
include/linux/mm.h

include/asm-generic/kmap_types.h

Merge reason: We crossed changes with kmap_types.h cleanups in mainline.

Signed-off-by: Ingo Molnar <mingo@elte.hu>
1  2 
arch/powerpc/include/asm/hw_irq.h
include/asm-generic/kmap_types.h
include/linux/mm.h

Simple merge
@@@ -24,7 -24,7 +24,10 @@@ D(12)        KM_SOFTIRQ1
  D(13) KM_SYNC_ICACHE,
  D(14) KM_SYNC_DCACHE,
  D(15) KM_UML_USERCOPY, /* UML specific, for copy_*_user - used in do_op_one_page */
--D(16) KM_TYPE_NR
++D(16) KM_IRQ_PTE,
++D(17) KM_NMI,
++D(18) KM_NMI_PTE,
++D(19) KM_TYPE_NR
  };
  
  #undef D
@@@ -850,25 -854,6 +854,12 @@@ extern int mprotect_fixup(struct vm_are
                          unsigned long end, unsigned long newflags);
  
  /*
-  * get_user_pages_fast provides equivalent functionality to get_user_pages,
-  * operating on current and current->mm (force=0 and doesn't return any vmas).
-  *
-  * get_user_pages_fast may take mmap_sem and page tables, so no assumptions
-  * can be made about locking. get_user_pages_fast is to be implemented in a
-  * way that is advantageous (vs get_user_pages()) when the user memory area is
-  * already faulted in and present in ptes. However if the pages have to be
-  * faulted in, it may turn out to be slightly slower).
-  */
- int get_user_pages_fast(unsigned long start, int nr_pages, int write,
-                       struct page **pages);
- /*
 + * doesn't attempt to fault and will return short.
 + */
 +int __get_user_pages_fast(unsigned long start, int nr_pages, int write,
 +                        struct page **pages);
 +
 +/*
   * A callback you can register to apply pressure to ageable caches.
   *
   * 'shrink' is passed a count 'nr_to_scan' and a 'gfpmask'.  It should