Rename:
authorHiten Pandya <hmp@dragonflybsd.org>
Thu, 2 Oct 2003 21:00:20 +0000 (21:00 +0000)
committerHiten Pandya <hmp@dragonflybsd.org>
Thu, 2 Oct 2003 21:00:20 +0000 (21:00 +0000)
- vm_map_pageable() -> vm_map_wire()
- vm_map_user_pageable() -> vm_map_unwire()

sys/kern/link_elf.c
sys/kern/sys_process.c
sys/vm/vm_fault.c
sys/vm/vm_glue.c
sys/vm/vm_kern.c
sys/vm/vm_map.c
sys/vm/vm_map.h
sys/vm/vm_mmap.c
sys/vm/vm_page.c

index 5d974c2..94e1aad 100644 (file)
@@ -24,7 +24,7 @@
  * SUCH DAMAGE.
  *
  * $FreeBSD: src/sys/kern/link_elf.c,v 1.24 1999/12/24 15:33:36 bde Exp $
- * $DragonFly: src/sys/kern/link_elf.c,v 1.6 2003/09/23 05:03:51 dillon Exp $
+ * $DragonFly: src/sys/kern/link_elf.c,v 1.7 2003/10/02 21:00:20 hmp Exp $
  */
 
 #include <sys/param.h>
@@ -588,7 +588,7 @@ link_elf_load_file(const char* filename, linker_file_t* result)
        /*
         * Wire down the pages
         */
-       vm_map_pageable(kernel_map,
+       vm_map_wire(kernel_map,
                        (vm_offset_t) segbase,
                        (vm_offset_t) segbase + segs[i]->p_memsz,
                        FALSE);
index a80f7ed..1bd5880 100644 (file)
@@ -29,7 +29,7 @@
  * SUCH DAMAGE.
  *
  * $FreeBSD: src/sys/kern/sys_process.c,v 1.51.2.6 2003/01/08 03:06:45 kan Exp $
- * $DragonFly: src/sys/kern/sys_process.c,v 1.12 2003/08/27 01:43:07 dillon Exp $
+ * $DragonFly: src/sys/kern/sys_process.c,v 1.13 2003/10/02 21:00:20 hmp Exp $
  */
 
 #include <sys/param.h>
@@ -88,7 +88,7 @@ pread (struct proc *procp, unsigned int addr, unsigned int *retval) {
        if (!rv) {
                vm_object_reference (object);
 
-               rv = vm_map_pageable (kernel_map, kva, kva + PAGE_SIZE, 0);
+               rv = vm_map_wire (kernel_map, kva, kva + PAGE_SIZE, 0);
                if (!rv) {
                        *retval = 0;
                        bcopy ((caddr_t)kva + page_offset,
@@ -174,7 +174,7 @@ pwrite (struct proc *procp, unsigned int addr, unsigned int datum) {
        if (!rv) {
                vm_object_reference (object);
 
-               rv = vm_map_pageable (kernel_map, kva, kva + PAGE_SIZE, 0);
+               rv = vm_map_wire (kernel_map, kva, kva + PAGE_SIZE, 0);
                if (!rv) {
                  bcopy (&datum, (caddr_t)kva + page_offset, sizeof datum);
                }
index 8221840..6025d17 100644 (file)
@@ -67,7 +67,7 @@
  * rights to redistribute these changes.
  *
  * $FreeBSD: src/sys/vm/vm_fault.c,v 1.108.2.8 2002/02/26 05:49:27 silby Exp $
- * $DragonFly: src/sys/vm/vm_fault.c,v 1.7 2003/08/27 01:43:08 dillon Exp $
+ * $DragonFly: src/sys/vm/vm_fault.c,v 1.8 2003/10/02 21:00:20 hmp Exp $
  */
 
 /*
@@ -740,7 +740,7 @@ readrest:
 
                /*
                 * To avoid trying to write_lock the map while another process
-                * has it read_locked (in vm_map_pageable), we do not try for
+                * has it read_locked (in vm_map_wire), we do not try for
                 * write permission.  If the page is still writable, we will
                 * get write permission.  If it is not, or has been marked
                 * needs_copy, we enter the mapping without write permission,
index 0738188..eea6ce9 100644 (file)
@@ -60,7 +60,7 @@
  * rights to redistribute these changes.
  *
  * $FreeBSD: src/sys/vm/vm_glue.c,v 1.94.2.4 2003/01/13 22:51:17 dillon Exp $
- * $DragonFly: src/sys/vm/vm_glue.c,v 1.16 2003/09/24 18:37:54 dillon Exp $
+ * $DragonFly: src/sys/vm/vm_glue.c,v 1.17 2003/10/02 21:00:20 hmp Exp $
  */
 
 #include "opt_vm.h"
@@ -178,7 +178,7 @@ vslock(addr, len)
        caddr_t addr;
        u_int len;
 {
-       vm_map_pageable(&curproc->p_vmspace->vm_map, trunc_page((vm_offset_t)addr),
+       vm_map_wire(&curproc->p_vmspace->vm_map, trunc_page((vm_offset_t)addr),
            round_page((vm_offset_t)addr + len), FALSE);
 }
 
@@ -187,7 +187,7 @@ vsunlock(addr, len)
        caddr_t addr;
        u_int len;
 {
-       vm_map_pageable(&curproc->p_vmspace->vm_map, trunc_page((vm_offset_t)addr),
+       vm_map_wire(&curproc->p_vmspace->vm_map, trunc_page((vm_offset_t)addr),
            round_page((vm_offset_t)addr + len), TRUE);
 }
 
index b2d5a34..1f7dedc 100644 (file)
@@ -62,7 +62,7 @@
  * rights to redistribute these changes.
  *
  * $FreeBSD: src/sys/vm/vm_kern.c,v 1.61.2.2 2002/03/12 18:25:26 tegge Exp $
- * $DragonFly: src/sys/vm/vm_kern.c,v 1.9 2003/09/26 19:23:34 dillon Exp $
+ * $DragonFly: src/sys/vm/vm_kern.c,v 1.10 2003/10/02 21:00:20 hmp Exp $
  */
 
 /*
@@ -183,12 +183,12 @@ kmem_alloc(vm_map_t map, vm_size_t size)
 
        /*
         * Guarantee that there are pages already in this object before
-        * calling vm_map_pageable.  This is to prevent the following
+        * calling vm_map_wire.  This is to prevent the following
         * scenario:
         *
         * 1) Threads have swapped out, so that there is a pager for the
         * kernel_object. 2) The kmsg zone is empty, and so we are
-        * kmem_allocing a new page for it. 3) vm_map_pageable calls vm_fault;
+        * kmem_allocing a new page for it. 3) vm_map_wire calls vm_fault;
         * there is no page, but there is a pager, so we call
         * pager_data_request.  But the kmsg zone is empty, so we must
         * kmem_alloc. 4) goto 1 5) Even if the kmsg zone is not empty: when
@@ -196,7 +196,7 @@ kmem_alloc(vm_map_t map, vm_size_t size)
         * non-zero data.  kmem_alloc is defined to return zero-filled memory.
         *
         * We're intentionally not activating the pages we allocate to prevent a
-        * race with page-out.  vm_map_pageable will wire the pages.
+        * race with page-out.  vm_map_wire will wire the pages.
         */
 
        for (i = 0; i < size; i += PAGE_SIZE) {
@@ -215,7 +215,7 @@ kmem_alloc(vm_map_t map, vm_size_t size)
         * And finally, mark the data as non-pageable.
         */
 
-       (void) vm_map_pageable(map, (vm_offset_t) addr, addr + size, FALSE);
+       (void) vm_map_wire(map, (vm_offset_t) addr, addr + size, FALSE);
 
        return (addr);
 }
index 3ff62d1..7c567f2 100644 (file)
@@ -62,7 +62,7 @@
  * rights to redistribute these changes.
  *
  * $FreeBSD: src/sys/vm/vm_map.c,v 1.187.2.19 2003/05/27 00:47:02 alc Exp $
- * $DragonFly: src/sys/vm/vm_map.c,v 1.12 2003/09/26 19:23:34 dillon Exp $
+ * $DragonFly: src/sys/vm/vm_map.c,v 1.13 2003/10/02 21:00:20 hmp Exp $
  */
 
 /*
@@ -1676,7 +1676,7 @@ vm_map_inherit(vm_map_t map, vm_offset_t start, vm_offset_t end,
  * Implement the semantics of mlock
  */
 int
-vm_map_user_pageable(map, start, real_end, new_pageable)
+vm_map_unwire(map, start, real_end, new_pageable)
        vm_map_t map;
        vm_offset_t start;
        vm_offset_t real_end;
@@ -1840,7 +1840,7 @@ done:
 }
 
 /*
- *     vm_map_pageable:
+ *     vm_map_wire:
  *
  *     Sets the pageability of the specified address
  *     range in the target map.  Regions specified
@@ -1854,7 +1854,7 @@ done:
  *     reserve map entries for kernel_map.
  */
 int
-vm_map_pageable(vm_map_t map, vm_offset_t start, 
+vm_map_wire(vm_map_t map, vm_offset_t start, 
        vm_offset_t real_end, boolean_t new_pageable)
 {
        vm_map_entry_t entry;
index b3a49fd..5764afb 100644 (file)
@@ -62,7 +62,7 @@
  * rights to redistribute these changes.
  *
  * $FreeBSD: src/sys/vm/vm_map.h,v 1.54.2.5 2003/01/13 22:51:17 dillon Exp $
- * $DragonFly: src/sys/vm/vm_map.h,v 1.7 2003/08/27 01:43:08 dillon Exp $
+ * $DragonFly: src/sys/vm/vm_map.h,v 1.8 2003/10/02 21:00:20 hmp Exp $
  */
 
 /*
@@ -384,8 +384,8 @@ int vm_map_lookup (vm_map_t *, vm_offset_t, vm_prot_t, vm_map_entry_t *, vm_obje
     vm_pindex_t *, vm_prot_t *, boolean_t *);
 void vm_map_lookup_done (vm_map_t, vm_map_entry_t, int);
 boolean_t vm_map_lookup_entry (vm_map_t, vm_offset_t, vm_map_entry_t *);
-int vm_map_pageable (vm_map_t, vm_offset_t, vm_offset_t, boolean_t);
-int vm_map_user_pageable (vm_map_t, vm_offset_t, vm_offset_t, boolean_t);
+int vm_map_wire (vm_map_t, vm_offset_t, vm_offset_t, boolean_t);
+int vm_map_unwire (vm_map_t, vm_offset_t, vm_offset_t, boolean_t);
 int vm_map_clean (vm_map_t, vm_offset_t, vm_offset_t, boolean_t, boolean_t);
 int vm_map_protect (vm_map_t, vm_offset_t, vm_offset_t, vm_prot_t, boolean_t);
 int vm_map_remove (vm_map_t, vm_offset_t, vm_offset_t);
index f2e5bb3..f09cdd4 100644 (file)
@@ -39,7 +39,7 @@
  *
  *     @(#)vm_mmap.c   8.4 (Berkeley) 1/12/94
  * $FreeBSD: src/sys/vm/vm_mmap.c,v 1.108.2.6 2002/07/02 20:06:19 dillon Exp $
- * $DragonFly: src/sys/vm/vm_mmap.c,v 1.13 2003/09/26 19:23:34 dillon Exp $
+ * $DragonFly: src/sys/vm/vm_mmap.c,v 1.14 2003/10/02 21:00:20 hmp Exp $
  */
 
 /*
@@ -901,7 +901,7 @@ mlock(struct mlock_args *uap)
                return (error);
 #endif
 
-       error = vm_map_user_pageable(&p->p_vmspace->vm_map, addr, addr + size, FALSE);
+       error = vm_map_unwire(&p->p_vmspace->vm_map, addr, addr + size, FALSE);
        return (error == KERN_SUCCESS ? 0 : ENOMEM);
 }
 
@@ -953,7 +953,7 @@ munlock(struct munlock_args *uap)
                return (error);
 #endif
 
-       error = vm_map_user_pageable(&p->p_vmspace->vm_map, addr, addr + size, TRUE);
+       error = vm_map_unwire(&p->p_vmspace->vm_map, addr, addr + size, TRUE);
        return (error == KERN_SUCCESS ? 0 : ENOMEM);
 }
 
index 490cbb9..bb7f4c8 100644 (file)
@@ -35,7 +35,7 @@
  *
  *     from: @(#)vm_page.c     7.4 (Berkeley) 5/7/91
  * $FreeBSD: src/sys/vm/vm_page.c,v 1.147.2.18 2002/03/10 05:03:19 alc Exp $
- * $DragonFly: src/sys/vm/vm_page.c,v 1.10 2003/09/14 21:14:53 dillon Exp $
+ * $DragonFly: src/sys/vm/vm_page.c,v 1.11 2003/10/02 21:00:20 hmp Exp $
  */
 
 /*
@@ -1886,7 +1886,7 @@ again1:
                                OFF_TO_IDX(tmp_addr - VM_MIN_KERNEL_ADDRESS));
                        tmp_addr += PAGE_SIZE;
                }
-               vm_map_pageable(map, addr, addr + size, FALSE);
+               vm_map_wire(map, addr, addr + size, FALSE);
 
                splx(s);
                return ((void *)addr);