proc->thread stage 4: rework the VFS and DEVICE subsystems to take thread
[dragonfly.git] / sys / vm / vm_pager.h
1 /*
2  * Copyright (c) 1990 University of Utah.
3  * Copyright (c) 1991, 1993
4  *      The Regents of the University of California.  All rights reserved.
5  *
6  * This code is derived from software contributed to Berkeley by
7  * the Systems Programming Group of the University of Utah Computer
8  * Science Department.
9  *
10  * Redistribution and use in source and binary forms, with or without
11  * modification, are permitted provided that the following conditions
12  * are met:
13  * 1. Redistributions of source code must retain the above copyright
14  *    notice, this list of conditions and the following disclaimer.
15  * 2. Redistributions in binary form must reproduce the above copyright
16  *    notice, this list of conditions and the following disclaimer in the
17  *    documentation and/or other materials provided with the distribution.
18  * 3. All advertising materials mentioning features or use of this software
19  *    must display the following acknowledgement:
20  *      This product includes software developed by the University of
21  *      California, Berkeley and its contributors.
22  * 4. Neither the name of the University nor the names of its contributors
23  *    may be used to endorse or promote products derived from this software
24  *    without specific prior written permission.
25  *
26  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
27  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
28  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
29  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
30  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
31  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
32  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
33  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
34  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
35  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
36  * SUCH DAMAGE.
37  *
38  *      @(#)vm_pager.h  8.4 (Berkeley) 1/12/94
39  * $FreeBSD: src/sys/vm/vm_pager.h,v 1.24.2.2 2002/12/31 09:34:51 dillon Exp $
40  * $DragonFly: src/sys/vm/vm_pager.h,v 1.2 2003/06/17 04:29:00 dillon Exp $
41  */
42
43 /*
44  * Pager routine interface definition.
45  */
46
47 #ifndef _VM_PAGER_
48 #define _VM_PAGER_
49
50 #include <sys/queue.h>
51
52 TAILQ_HEAD(pagerlst, vm_object);
53
54 struct buf;
55
56 struct pagerops {
57         void (*pgo_init) __P((void));           /* Initialize pager. */
58         vm_object_t (*pgo_alloc) __P((void *, vm_ooffset_t, vm_prot_t, vm_ooffset_t));  /* Allocate pager. */
59         void (*pgo_dealloc) __P((vm_object_t)); /* Disassociate. */
60         int (*pgo_getpages) __P((vm_object_t, vm_page_t *, int, int));  /* Get (read) page. */
61         void (*pgo_putpages) __P((vm_object_t, vm_page_t *, int, int, int *)); /* Put (write) page. */
62         boolean_t (*pgo_haspage) __P((vm_object_t, vm_pindex_t, int *, int *)); /* Does pager have page? */
63         void (*pgo_pageunswapped) __P((vm_page_t));
64         void (*pgo_strategy) __P((vm_object_t, struct buf *));
65 };
66
67 /*
68  * get/put return values
69  * OK    operation was successful
70  * BAD   specified data was out of the accepted range
71  * FAIL  specified data was in range, but doesn't exist
72  * PEND  operations was initiated but not completed
73  * ERROR error while accessing data that is in range and exists
74  * AGAIN temporary resource shortage prevented operation from happening
75  */
76 #define VM_PAGER_OK     0
77 #define VM_PAGER_BAD    1
78 #define VM_PAGER_FAIL   2
79 #define VM_PAGER_PEND   3
80 #define VM_PAGER_ERROR  4
81 #define VM_PAGER_AGAIN  5
82
83 #define VM_PAGER_PUT_SYNC               0x0001
84 #define VM_PAGER_PUT_INVAL              0x0002
85 #define VM_PAGER_IGNORE_CLEANCHK        0x0004
86 #define VM_PAGER_CLUSTER_OK             0x0008
87
88 #ifdef _KERNEL
89
90 #ifdef MALLOC_DECLARE
91 MALLOC_DECLARE(M_VMPGDATA);
92 #endif
93
94 extern vm_map_t pager_map;
95 extern int pager_map_size;
96 extern struct pagerops *pagertab[];
97
98 vm_object_t vm_pager_allocate __P((objtype_t, void *, vm_ooffset_t, vm_prot_t, vm_ooffset_t));
99 void vm_pager_bufferinit __P((void));
100 void vm_pager_deallocate __P((vm_object_t));
101 static __inline int vm_pager_get_pages __P((vm_object_t, vm_page_t *, int, int));
102 static __inline boolean_t vm_pager_has_page __P((vm_object_t, vm_pindex_t, int *, int *));
103 void vm_pager_init __P((void));
104 vm_object_t vm_pager_object_lookup __P((struct pagerlst *, void *));
105 vm_offset_t vm_pager_map_pages __P((vm_page_t *, int, boolean_t));
106 vm_offset_t vm_pager_map_page __P((vm_page_t));
107 void vm_pager_sync __P((void));
108 void vm_pager_unmap_pages __P((vm_offset_t, int));
109 void vm_pager_unmap_page __P((vm_offset_t));
110 void vm_pager_strategy __P((vm_object_t object, struct buf *bp));
111 struct buf *getchainbuf(struct buf *bp, struct vnode *vp, int flags);
112 void flushchainbuf(struct buf *nbp);
113 void waitchainbuf(struct buf *bp, int count, int done);
114 void autochaindone(struct buf *bp);
115
116 /*
117  *      vm_page_get_pages:
118  *
119  *      Retrieve pages from the VM system in order to map them into an object
120  *      ( or into VM space somewhere ).  If the pagein was successful, we
121  *      must fully validate it.
122  */
123
124 static __inline int
125 vm_pager_get_pages(
126         vm_object_t object,
127         vm_page_t *m,
128         int count,
129         int reqpage
130 ) {
131         int r;
132
133         r = (*pagertab[object->type]->pgo_getpages)(object, m, count, reqpage);
134         if (r == VM_PAGER_OK && m[reqpage]->valid != VM_PAGE_BITS_ALL) {
135                 vm_page_zero_invalid(m[reqpage], TRUE);
136         }
137         return(r);
138 }
139
140 static __inline void
141 vm_pager_put_pages(
142         vm_object_t object,
143         vm_page_t *m,
144         int count,
145         int flags,
146         int *rtvals
147 ) {
148         (*pagertab[object->type]->pgo_putpages)
149             (object, m, count, flags, rtvals);
150 }
151
152 /*
153  *      vm_pager_haspage
154  *
155  *      Check to see if an object's pager has the requested page.  The
156  *      object's pager will also set before and after to give the caller
157  *      some idea of the number of pages before and after the requested
158  *      page can be I/O'd efficiently.
159  *
160  *      This routine does not have to be called at any particular spl.
161  */
162
163 static __inline boolean_t
164 vm_pager_has_page(
165         vm_object_t object,
166         vm_pindex_t offset, 
167         int *before,
168         int *after
169 ) {
170         return ((*pagertab[object->type]->pgo_haspage) (object, offset, before, after));
171
172
173 /* 
174  *      vm_pager_page_unswapped
175  * 
176  *      called at splvm() to destroy swap associated with the page.
177  * 
178  *      This function may not block.
179  */
180  
181 static __inline void
182 vm_pager_page_unswapped(vm_page_t m)
183 {
184         if (pagertab[m->object->type]->pgo_pageunswapped)
185                 (*pagertab[m->object->type]->pgo_pageunswapped)(m);
186 }
187
188 #endif
189
190 #endif                          /* _VM_PAGER_ */