Pass LK_PCATCH instead of trying to store tsleep flags in the lock
[dragonfly.git] / sys / kern / vfs_subr.c
1 /*
2  * Copyright (c) 1989, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  * (c) UNIX System Laboratories, Inc.
5  * All or some portions of this file are derived from material licensed
6  * to the University of California by American Telephone and Telegraph
7  * Co. or Unix System Laboratories, Inc. and are reproduced herein with
8  * the permission of UNIX System Laboratories, Inc.
9  *
10  * Redistribution and use in source and binary forms, with or without
11  * modification, are permitted provided that the following conditions
12  * are met:
13  * 1. Redistributions of source code must retain the above copyright
14  *    notice, this list of conditions and the following disclaimer.
15  * 2. Redistributions in binary form must reproduce the above copyright
16  *    notice, this list of conditions and the following disclaimer in the
17  *    documentation and/or other materials provided with the distribution.
18  * 3. All advertising materials mentioning features or use of this software
19  *    must display the following acknowledgement:
20  *      This product includes software developed by the University of
21  *      California, Berkeley and its contributors.
22  * 4. Neither the name of the University nor the names of its contributors
23  *    may be used to endorse or promote products derived from this software
24  *    without specific prior written permission.
25  *
26  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
27  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
28  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
29  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
30  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
31  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
32  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
33  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
34  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
35  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
36  * SUCH DAMAGE.
37  *
38  *      @(#)vfs_subr.c  8.31 (Berkeley) 5/26/95
39  * $FreeBSD: src/sys/kern/vfs_subr.c,v 1.249.2.30 2003/04/04 20:35:57 tegge Exp $
40  * $DragonFly: src/sys/kern/vfs_subr.c,v 1.67 2006/03/02 19:07:59 dillon Exp $
41  */
42
43 /*
44  * External virtual filesystem routines
45  */
46 #include "opt_ddb.h"
47
48 #include <sys/param.h>
49 #include <sys/systm.h>
50 #include <sys/buf.h>
51 #include <sys/conf.h>
52 #include <sys/dirent.h>
53 #include <sys/domain.h>
54 #include <sys/eventhandler.h>
55 #include <sys/fcntl.h>
56 #include <sys/kernel.h>
57 #include <sys/kthread.h>
58 #include <sys/malloc.h>
59 #include <sys/mbuf.h>
60 #include <sys/mount.h>
61 #include <sys/proc.h>
62 #include <sys/reboot.h>
63 #include <sys/socket.h>
64 #include <sys/stat.h>
65 #include <sys/sysctl.h>
66 #include <sys/syslog.h>
67 #include <sys/unistd.h>
68 #include <sys/vmmeter.h>
69 #include <sys/vnode.h>
70
71 #include <machine/limits.h>
72
73 #include <vm/vm.h>
74 #include <vm/vm_object.h>
75 #include <vm/vm_extern.h>
76 #include <vm/vm_kern.h>
77 #include <vm/pmap.h>
78 #include <vm/vm_map.h>
79 #include <vm/vm_page.h>
80 #include <vm/vm_pager.h>
81 #include <vm/vnode_pager.h>
82 #include <vm/vm_zone.h>
83
84 #include <sys/buf2.h>
85 #include <sys/thread2.h>
86
87 static MALLOC_DEFINE(M_NETADDR, "Export Host", "Export host address structure");
88
89 int numvnodes;
90 SYSCTL_INT(_debug, OID_AUTO, numvnodes, CTLFLAG_RD, &numvnodes, 0, "");
91 int vfs_fastdev = 1;
92 SYSCTL_INT(_vfs, OID_AUTO, fastdev, CTLFLAG_RW, &vfs_fastdev, 0, "");
93
94 enum vtype iftovt_tab[16] = {
95         VNON, VFIFO, VCHR, VNON, VDIR, VNON, VBLK, VNON,
96         VREG, VNON, VLNK, VNON, VSOCK, VNON, VNON, VBAD,
97 };
98 int vttoif_tab[9] = {
99         0, S_IFREG, S_IFDIR, S_IFBLK, S_IFCHR, S_IFLNK,
100         S_IFSOCK, S_IFIFO, S_IFMT,
101 };
102
103 static int reassignbufcalls;
104 SYSCTL_INT(_vfs, OID_AUTO, reassignbufcalls, CTLFLAG_RW,
105                 &reassignbufcalls, 0, "");
106 static int reassignbufloops;
107 SYSCTL_INT(_vfs, OID_AUTO, reassignbufloops, CTLFLAG_RW,
108                 &reassignbufloops, 0, "");
109 static int reassignbufsortgood;
110 SYSCTL_INT(_vfs, OID_AUTO, reassignbufsortgood, CTLFLAG_RW,
111                 &reassignbufsortgood, 0, "");
112 static int reassignbufsortbad;
113 SYSCTL_INT(_vfs, OID_AUTO, reassignbufsortbad, CTLFLAG_RW,
114                 &reassignbufsortbad, 0, "");
115 static int reassignbufmethod = 1;
116 SYSCTL_INT(_vfs, OID_AUTO, reassignbufmethod, CTLFLAG_RW,
117                 &reassignbufmethod, 0, "");
118
119 int     nfs_mount_type = -1;
120 static struct lwkt_token spechash_token;
121 struct nfs_public nfs_pub;      /* publicly exported FS */
122
123 int desiredvnodes;
124 SYSCTL_INT(_kern, KERN_MAXVNODES, maxvnodes, CTLFLAG_RW, 
125                 &desiredvnodes, 0, "Maximum number of vnodes");
126
127 static void     vfs_free_addrlist (struct netexport *nep);
128 static int      vfs_free_netcred (struct radix_node *rn, void *w);
129 static int      vfs_hang_addrlist (struct mount *mp, struct netexport *nep,
130                                        struct export_args *argp);
131
132 extern int dev_ref_debug;
133 extern struct vnodeopv_entry_desc spec_vnodeop_entries[];
134
135 /*
136  * Red black tree functions
137  */
138 static int rb_buf_compare(struct buf *b1, struct buf *b2);
139 RB_GENERATE(buf_rb_tree, buf, b_rbnode, rb_buf_compare);
140
141 static int
142 rb_buf_compare(struct buf *b1, struct buf *b2)
143 {
144         if (b1->b_lblkno < b2->b_lblkno)
145                 return(-1);
146         if (b1->b_lblkno > b2->b_lblkno)
147                 return(1);
148         return(0);
149 }
150
151 /*
152  * Return 0 if the vnode is already on the free list or cannot be placed
153  * on the free list.  Return 1 if the vnode can be placed on the free list.
154  */
155 static __inline int
156 vshouldfree(struct vnode *vp, int usecount)
157 {
158         if (vp->v_flag & VFREE)
159                 return (0);             /* already free */
160         if (vp->v_holdcnt != 0 || vp->v_usecount != usecount)
161                 return (0);             /* other holderse */
162         if (vp->v_object &&
163             (vp->v_object->ref_count || vp->v_object->resident_page_count)) {
164                 return (0);
165         }
166         return (1);
167 }
168
169 /*
170  * Initialize the vnode management data structures. 
171  *
172  * Called from vfsinit()
173  */
174 void
175 vfs_subr_init(void)
176 {
177         /*
178          * Desired vnodes is a result of the physical page count
179          * and the size of kernel's heap.  It scales in proportion
180          * to the amount of available physical memory.  This can
181          * cause trouble on 64-bit and large memory platforms.
182          */
183         /* desiredvnodes = maxproc + vmstats.v_page_count / 4; */
184         desiredvnodes =
185                 min(maxproc + vmstats.v_page_count /4,
186                     2 * (VM_MAX_KERNEL_ADDRESS - VM_MIN_KERNEL_ADDRESS) /
187                     (5 * (sizeof(struct vm_object) + sizeof(struct vnode))));
188
189         lwkt_token_init(&spechash_token);
190 }
191
192 /*
193  * Knob to control the precision of file timestamps:
194  *
195  *   0 = seconds only; nanoseconds zeroed.
196  *   1 = seconds and nanoseconds, accurate within 1/HZ.
197  *   2 = seconds and nanoseconds, truncated to microseconds.
198  * >=3 = seconds and nanoseconds, maximum precision.
199  */
200 enum { TSP_SEC, TSP_HZ, TSP_USEC, TSP_NSEC };
201
202 static int timestamp_precision = TSP_SEC;
203 SYSCTL_INT(_vfs, OID_AUTO, timestamp_precision, CTLFLAG_RW,
204                 &timestamp_precision, 0, "");
205
206 /*
207  * Get a current timestamp.
208  */
209 void
210 vfs_timestamp(struct timespec *tsp)
211 {
212         struct timeval tv;
213
214         switch (timestamp_precision) {
215         case TSP_SEC:
216                 tsp->tv_sec = time_second;
217                 tsp->tv_nsec = 0;
218                 break;
219         case TSP_HZ:
220                 getnanotime(tsp);
221                 break;
222         case TSP_USEC:
223                 microtime(&tv);
224                 TIMEVAL_TO_TIMESPEC(&tv, tsp);
225                 break;
226         case TSP_NSEC:
227         default:
228                 nanotime(tsp);
229                 break;
230         }
231 }
232
233 /*
234  * Set vnode attributes to VNOVAL
235  */
236 void
237 vattr_null(struct vattr *vap)
238 {
239         vap->va_type = VNON;
240         vap->va_size = VNOVAL;
241         vap->va_bytes = VNOVAL;
242         vap->va_mode = VNOVAL;
243         vap->va_nlink = VNOVAL;
244         vap->va_uid = VNOVAL;
245         vap->va_gid = VNOVAL;
246         vap->va_fsid = VNOVAL;
247         vap->va_fileid = VNOVAL;
248         vap->va_blocksize = VNOVAL;
249         vap->va_rdev = VNOVAL;
250         vap->va_atime.tv_sec = VNOVAL;
251         vap->va_atime.tv_nsec = VNOVAL;
252         vap->va_mtime.tv_sec = VNOVAL;
253         vap->va_mtime.tv_nsec = VNOVAL;
254         vap->va_ctime.tv_sec = VNOVAL;
255         vap->va_ctime.tv_nsec = VNOVAL;
256         vap->va_flags = VNOVAL;
257         vap->va_gen = VNOVAL;
258         vap->va_vaflags = 0;
259         vap->va_fsmid = VNOVAL;
260 }
261
262 /*
263  * Flush out and invalidate all buffers associated with a vnode.
264  *
265  * vp must be locked.
266  */
267 static int vinvalbuf_bp(struct buf *bp, void *data);
268
269 struct vinvalbuf_bp_info {
270         struct vnode *vp;
271         int slptimeo;
272         int lkflags;
273         int flags;
274 };
275
276 int
277 vinvalbuf(struct vnode *vp, int flags, struct thread *td,
278         int slpflag, int slptimeo)
279 {
280         struct vinvalbuf_bp_info info;
281         int error;
282         vm_object_t object;
283
284         /*
285          * If we are being asked to save, call fsync to ensure that the inode
286          * is updated.
287          */
288         if (flags & V_SAVE) {
289                 crit_enter();
290                 while (vp->v_track_write.bk_active) {
291                         vp->v_track_write.bk_waitflag = 1;
292                         error = tsleep(&vp->v_track_write, slpflag,
293                                         "vinvlbuf", slptimeo);
294                         if (error) {
295                                 crit_exit();
296                                 return (error);
297                         }
298                 }
299                 if (!RB_EMPTY(&vp->v_rbdirty_tree)) {
300                         crit_exit();
301                         if ((error = VOP_FSYNC(vp, MNT_WAIT, td)) != 0)
302                                 return (error);
303                         crit_enter();
304                         if (vp->v_track_write.bk_active > 0 ||
305                             !RB_EMPTY(&vp->v_rbdirty_tree))
306                                 panic("vinvalbuf: dirty bufs");
307                 }
308                 crit_exit();
309         }
310         crit_enter();
311         info.slptimeo = slptimeo;
312         info.lkflags = LK_EXCLUSIVE | LK_SLEEPFAIL;
313         if (slpflag & PCATCH)
314                 info.lkflags |= LK_PCATCH;
315         info.flags = flags;
316         info.vp = vp;
317
318         /*
319          * Flush the buffer cache until nothing is left.
320          */
321         while (!RB_EMPTY(&vp->v_rbclean_tree) || 
322             !RB_EMPTY(&vp->v_rbdirty_tree)) {
323                 error = RB_SCAN(buf_rb_tree, &vp->v_rbclean_tree, NULL,
324                         vinvalbuf_bp, &info);
325                 if (error == 0) {
326                         error = RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree, NULL,
327                                         vinvalbuf_bp, &info);
328                 }
329         }
330
331         /*
332          * Wait for I/O to complete.  XXX needs cleaning up.  The vnode can
333          * have write I/O in-progress but if there is a VM object then the
334          * VM object can also have read-I/O in-progress.
335          */
336         do {
337                 while (vp->v_track_write.bk_active > 0) {
338                         vp->v_track_write.bk_waitflag = 1;
339                         tsleep(&vp->v_track_write, 0, "vnvlbv", 0);
340                 }
341                 if (VOP_GETVOBJECT(vp, &object) == 0) {
342                         while (object->paging_in_progress)
343                                 vm_object_pip_sleep(object, "vnvlbx");
344                 }
345         } while (vp->v_track_write.bk_active > 0);
346
347         crit_exit();
348
349         /*
350          * Destroy the copy in the VM cache, too.
351          */
352         if (VOP_GETVOBJECT(vp, &object) == 0) {
353                 vm_object_page_remove(object, 0, 0,
354                         (flags & V_SAVE) ? TRUE : FALSE);
355         }
356
357         if (!RB_EMPTY(&vp->v_rbdirty_tree) || !RB_EMPTY(&vp->v_rbclean_tree))
358                 panic("vinvalbuf: flush failed");
359         return (0);
360 }
361
362 static int
363 vinvalbuf_bp(struct buf *bp, void *data)
364 {
365         struct vinvalbuf_bp_info *info = data;
366         int error;
367
368         if (BUF_LOCK(bp, LK_EXCLUSIVE | LK_NOWAIT)) {
369                 error = BUF_TIMELOCK(bp, info->lkflags,
370                                      "vinvalbuf", info->slptimeo);
371                 if (error == 0) {
372                         BUF_UNLOCK(bp);
373                         error = ENOLCK;
374                 }
375                 if (error == ENOLCK)
376                         return(0);
377                 return (-error);
378         }
379         /*
380          * XXX Since there are no node locks for NFS, I
381          * believe there is a slight chance that a delayed
382          * write will occur while sleeping just above, so
383          * check for it.  Note that vfs_bio_awrite expects
384          * buffers to reside on a queue, while VOP_BWRITE and
385          * brelse do not.
386          */
387         if (((bp->b_flags & (B_DELWRI | B_INVAL)) == B_DELWRI) &&
388             (info->flags & V_SAVE)) {
389                 if (bp->b_vp == info->vp) {
390                         if (bp->b_flags & B_CLUSTEROK) {
391                                 BUF_UNLOCK(bp);
392                                 vfs_bio_awrite(bp);
393                         } else {
394                                 bremfree(bp);
395                                 bp->b_flags |= B_ASYNC;
396                                 VOP_BWRITE(bp->b_vp, bp);
397                         }
398                 } else {
399                         bremfree(bp);
400                         VOP_BWRITE(bp->b_vp, bp);
401                 }
402         } else {
403                 bremfree(bp);
404                 bp->b_flags |= (B_INVAL | B_NOCACHE | B_RELBUF);
405                 bp->b_flags &= ~B_ASYNC;
406                 brelse(bp);
407         }
408         return(0);
409 }
410
411 /*
412  * Truncate a file's buffer and pages to a specified length.  This
413  * is in lieu of the old vinvalbuf mechanism, which performed unneeded
414  * sync activity.
415  *
416  * The vnode must be locked.
417  */
418 static int vtruncbuf_bp_trunc_cmp(struct buf *bp, void *data);
419 static int vtruncbuf_bp_trunc(struct buf *bp, void *data);
420 static int vtruncbuf_bp_metasync_cmp(struct buf *bp, void *data);
421 static int vtruncbuf_bp_metasync(struct buf *bp, void *data);
422
423 int
424 vtruncbuf(struct vnode *vp, struct thread *td, off_t length, int blksize)
425 {
426         daddr_t trunclbn;
427         int count;
428
429         /*
430          * Round up to the *next* lbn, then destroy the buffers in question.  
431          * Since we are only removing some of the buffers we must rely on the
432          * scan count to determine whether a loop is necessary.
433          */
434         trunclbn = (length + blksize - 1) / blksize;
435
436         crit_enter();
437         do {
438                 count = RB_SCAN(buf_rb_tree, &vp->v_rbclean_tree, 
439                                 vtruncbuf_bp_trunc_cmp,
440                                 vtruncbuf_bp_trunc, &trunclbn);
441                 count += RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree,
442                                 vtruncbuf_bp_trunc_cmp,
443                                 vtruncbuf_bp_trunc, &trunclbn);
444         } while(count);
445
446         /*
447          * For safety, fsync any remaining metadata if the file is not being
448          * truncated to 0.  Since the metadata does not represent the entire
449          * dirty list we have to rely on the hit count to ensure that we get
450          * all of it.
451          */
452         if (length > 0) {
453                 do {
454                         count = RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree,
455                                         vtruncbuf_bp_metasync_cmp,
456                                         vtruncbuf_bp_metasync, vp);
457                 } while (count);
458         }
459
460         /*
461          * Wait for any in-progress I/O to complete before returning (why?)
462          */
463         while (vp->v_track_write.bk_active > 0) {
464                 vp->v_track_write.bk_waitflag = 1;
465                 tsleep(&vp->v_track_write, 0, "vbtrunc", 0);
466         }
467
468         crit_exit();
469
470         vnode_pager_setsize(vp, length);
471
472         return (0);
473 }
474
475 /*
476  * The callback buffer is beyond the new file EOF and must be destroyed.
477  * Note that the compare function must conform to the RB_SCAN's requirements.
478  */
479 static
480 int
481 vtruncbuf_bp_trunc_cmp(struct buf *bp, void *data)
482 {
483         if (bp->b_lblkno >= *(daddr_t *)data)
484                 return(0);
485         return(-1);
486 }
487
488 static 
489 int 
490 vtruncbuf_bp_trunc(struct buf *bp, void *data)
491 {
492         /*
493          * Do not try to use a buffer we cannot immediately lock, but sleep
494          * anyway to prevent a livelock.  The code will loop until all buffers
495          * can be acted upon.
496          */
497         if (BUF_LOCK(bp, LK_EXCLUSIVE | LK_NOWAIT)) {
498                 if (BUF_LOCK(bp, LK_EXCLUSIVE|LK_SLEEPFAIL) == 0)
499                         BUF_UNLOCK(bp);
500         } else {
501                 bremfree(bp);
502                 bp->b_flags |= (B_INVAL | B_RELBUF);
503                 bp->b_flags &= ~B_ASYNC;
504                 brelse(bp);
505         }
506         return(1);
507 }
508
509 /*
510  * Fsync all meta-data after truncating a file to be non-zero.  Only metadata
511  * blocks (with a negative lblkno) are scanned.
512  * Note that the compare function must conform to the RB_SCAN's requirements.
513  */
514 static int
515 vtruncbuf_bp_metasync_cmp(struct buf *bp, void *data)
516 {
517         if (bp->b_lblkno < 0)
518                 return(0);
519         return(1);
520 }
521
522 static int
523 vtruncbuf_bp_metasync(struct buf *bp, void *data)
524 {
525         struct vnode *vp = data;
526
527         if (bp->b_flags & B_DELWRI) {
528                 /*
529                  * Do not try to use a buffer we cannot immediately lock,
530                  * but sleep anyway to prevent a livelock.  The code will
531                  * loop until all buffers can be acted upon.
532                  */
533                 if (BUF_LOCK(bp, LK_EXCLUSIVE | LK_NOWAIT)) {
534                         if (BUF_LOCK(bp, LK_EXCLUSIVE|LK_SLEEPFAIL) == 0)
535                                 BUF_UNLOCK(bp);
536                 } else {
537                         bremfree(bp);
538                         if (bp->b_vp == vp) {
539                                 bp->b_flags |= B_ASYNC;
540                         } else {
541                                 bp->b_flags &= ~B_ASYNC;
542                         }
543                         VOP_BWRITE(bp->b_vp, bp);
544                 }
545                 return(1);
546         } else {
547                 return(0);
548         }
549 }
550
551 /*
552  * vfsync - implements a multipass fsync on a file which understands
553  * dependancies and meta-data.  The passed vnode must be locked.  The 
554  * waitfor argument may be MNT_WAIT or MNT_NOWAIT, or MNT_LAZY.
555  *
556  * When fsyncing data asynchronously just do one consolidated pass starting
557  * with the most negative block number.  This may not get all the data due
558  * to dependancies.
559  *
560  * When fsyncing data synchronously do a data pass, then a metadata pass,
561  * then do additional data+metadata passes to try to get all the data out.
562  */
563 static int vfsync_wait_output(struct vnode *vp, 
564                             int (*waitoutput)(struct vnode *, struct thread *));
565 static int vfsync_data_only_cmp(struct buf *bp, void *data);
566 static int vfsync_meta_only_cmp(struct buf *bp, void *data);
567 static int vfsync_lazy_range_cmp(struct buf *bp, void *data);
568 static int vfsync_bp(struct buf *bp, void *data);
569
570 struct vfsync_info {
571         struct vnode *vp;
572         int synchronous;
573         int syncdeps;
574         int lazycount;
575         int lazylimit;
576         daddr_t lbn;
577         int (*checkdef)(struct buf *);
578 };
579
580 int
581 vfsync(struct vnode *vp, int waitfor, int passes, daddr_t lbn,
582         int (*checkdef)(struct buf *),
583         int (*waitoutput)(struct vnode *, struct thread *))
584 {
585         struct vfsync_info info;
586         int error;
587
588         bzero(&info, sizeof(info));
589         info.vp = vp;
590         info.lbn = lbn;
591         if ((info.checkdef = checkdef) == NULL)
592                 info.syncdeps = 1;
593
594         crit_enter();
595
596         switch(waitfor) {
597         case MNT_LAZY:
598                 /*
599                  * Lazy (filesystem syncer typ) Asynchronous plus limit the
600                  * number of data (not meta) pages we try to flush to 1MB.
601                  * A non-zero return means that lazy limit was reached.
602                  */
603                 info.lazylimit = 1024 * 1024;
604                 info.syncdeps = 1;
605                 error = RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree, 
606                                 vfsync_lazy_range_cmp, vfsync_bp, &info);
607                 RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree, 
608                                 vfsync_meta_only_cmp, vfsync_bp, &info);
609                 if (error == 0)
610                         vp->v_lazyw = 0;
611                 else if (!RB_EMPTY(&vp->v_rbdirty_tree))
612                         vn_syncer_add_to_worklist(vp, 1);
613                 error = 0;
614                 break;
615         case MNT_NOWAIT:
616                 /*
617                  * Asynchronous.  Do a data-only pass and a meta-only pass.
618                  */
619                 info.syncdeps = 1;
620                 RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree, vfsync_data_only_cmp, 
621                         vfsync_bp, &info);
622                 RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree, vfsync_meta_only_cmp, 
623                         vfsync_bp, &info);
624                 error = 0;
625                 break;
626         default:
627                 /*
628                  * Synchronous.  Do a data-only pass, then a meta-data+data
629                  * pass, then additional integrated passes to try to get
630                  * all the dependancies flushed.
631                  */
632                 RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree, vfsync_data_only_cmp,
633                         vfsync_bp, &info);
634                 error = vfsync_wait_output(vp, waitoutput);
635                 if (error == 0) {
636                         RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree, NULL,
637                                 vfsync_bp, &info);
638                         error = vfsync_wait_output(vp, waitoutput);
639                 }
640                 while (error == 0 && passes > 0 &&
641                     !RB_EMPTY(&vp->v_rbdirty_tree)) {
642                         if (--passes == 0) {
643                                 info.synchronous = 1;
644                                 info.syncdeps = 1;
645                         }
646                         error = RB_SCAN(buf_rb_tree, &vp->v_rbdirty_tree, NULL,
647                                 vfsync_bp, &info);
648                         if (error < 0)
649                                 error = -error;
650                         info.syncdeps = 1;
651                         if (error == 0)
652                                 error = vfsync_wait_output(vp, waitoutput);
653                 }
654                 break;
655         }
656         crit_exit();
657         return(error);
658 }
659
660 static int
661 vfsync_wait_output(struct vnode *vp, int (*waitoutput)(struct vnode *, struct thread *))
662 {
663         int error = 0;
664
665         while (vp->v_track_write.bk_active) {
666                 vp->v_track_write.bk_waitflag = 1;
667                 tsleep(&vp->v_track_write, 0, "fsfsn", 0);
668         }
669         if (waitoutput)
670                 error = waitoutput(vp, curthread);
671         return(error);
672 }
673
674 static int
675 vfsync_data_only_cmp(struct buf *bp, void *data)
676 {
677         if (bp->b_lblkno < 0)
678                 return(-1);
679         return(0);
680 }
681
682 static int
683 vfsync_meta_only_cmp(struct buf *bp, void *data)
684 {
685         if (bp->b_lblkno < 0)
686                 return(0);
687         return(1);
688 }
689
690 static int
691 vfsync_lazy_range_cmp(struct buf *bp, void *data)
692 {
693         struct vfsync_info *info = data;
694         if (bp->b_lblkno < info->vp->v_lazyw)
695                 return(-1);
696         return(0);
697 }
698
699 static int
700 vfsync_bp(struct buf *bp, void *data)
701 {
702         struct vfsync_info *info = data;
703         struct vnode *vp = info->vp;
704         int error;
705
706         /*
707          * if syncdeps is not set we do not try to write buffers which have
708          * dependancies.
709          */
710         if (!info->synchronous && info->syncdeps == 0 && info->checkdef(bp))
711                 return(0);
712
713         /*
714          * Ignore buffers that we cannot immediately lock.  XXX
715          */
716         if (BUF_LOCK(bp, LK_EXCLUSIVE | LK_NOWAIT))
717                 return(0);
718         if ((bp->b_flags & B_DELWRI) == 0)
719                 panic("vfsync_bp: buffer not dirty");
720         if (vp != bp->b_vp)
721                 panic("vfsync_bp: buffer vp mismatch");
722
723         /*
724          * B_NEEDCOMMIT (primarily used by NFS) is a state where the buffer
725          * has been written but an additional handshake with the device
726          * is required before we can dispose of the buffer.  We have no idea
727          * how to do this so we have to skip these buffers.
728          */
729         if (bp->b_flags & B_NEEDCOMMIT) {
730                 BUF_UNLOCK(bp);
731                 return(0);
732         }
733
734         /*
735          * (LEGACY FROM UFS, REMOVE WHEN POSSIBLE) - invalidate any dirty
736          * buffers beyond the file EOF. 
737          */
738         if (info->lbn != (daddr_t)-1 && vp->v_type == VREG && 
739             bp->b_lblkno >= info->lbn) {
740                 bremfree(bp);
741                 bp->b_flags |= B_INVAL | B_NOCACHE;
742                 crit_exit();
743                 brelse(bp);
744                 crit_enter();
745         }
746
747         if (info->synchronous) {
748                 /*
749                  * Synchronous flushing.  An error may be returned.
750                  */
751                 bremfree(bp);
752                 crit_exit();
753                 error = bwrite(bp);
754                 crit_enter();
755         } else { 
756                 /*
757                  * Asynchronous flushing.  A negative return value simply
758                  * stops the scan and is not considered an error.  We use
759                  * this to support limited MNT_LAZY flushes.
760                  */
761                 vp->v_lazyw = bp->b_lblkno;
762                 if ((vp->v_flag & VOBJBUF) && (bp->b_flags & B_CLUSTEROK)) {
763                         BUF_UNLOCK(bp);
764                         info->lazycount += vfs_bio_awrite(bp);
765                 } else {
766                         info->lazycount += bp->b_bufsize;
767                         bremfree(bp);
768                         crit_exit();
769                         bawrite(bp);
770                         crit_enter();
771                 }
772                 if (info->lazylimit && info->lazycount >= info->lazylimit)
773                         error = 1;
774                 else
775                         error = 0;
776         }
777         return(-error);
778 }
779
780 /*
781  * Associate a buffer with a vnode.
782  */
783 void
784 bgetvp(struct vnode *vp, struct buf *bp)
785 {
786         KASSERT(bp->b_vp == NULL, ("bgetvp: not free"));
787
788         vhold(vp);
789         bp->b_vp = vp;
790         /*
791          * Insert onto list for new vnode.
792          */
793         crit_enter();
794         bp->b_xflags |= BX_VNCLEAN;
795         bp->b_xflags &= ~BX_VNDIRTY;
796         if (buf_rb_tree_RB_INSERT(&vp->v_rbclean_tree, bp))
797                 panic("reassignbuf: dup lblk vp %p bp %p", vp, bp);
798         crit_exit();
799 }
800
801 /*
802  * Disassociate a buffer from a vnode.
803  */
804 void
805 brelvp(struct buf *bp)
806 {
807         struct vnode *vp;
808
809         KASSERT(bp->b_vp != NULL, ("brelvp: NULL"));
810
811         /*
812          * Delete from old vnode list, if on one.
813          */
814         vp = bp->b_vp;
815         crit_enter();
816         if (bp->b_xflags & (BX_VNDIRTY | BX_VNCLEAN)) {
817                 if (bp->b_xflags & BX_VNDIRTY)
818                         buf_rb_tree_RB_REMOVE(&vp->v_rbdirty_tree, bp);
819                 else
820                         buf_rb_tree_RB_REMOVE(&vp->v_rbclean_tree, bp);
821                 bp->b_xflags &= ~(BX_VNDIRTY | BX_VNCLEAN);
822         }
823         if ((vp->v_flag & VONWORKLST) && RB_EMPTY(&vp->v_rbdirty_tree)) {
824                 vp->v_flag &= ~VONWORKLST;
825                 LIST_REMOVE(vp, v_synclist);
826         }
827         crit_exit();
828         bp->b_vp = NULL;
829         vdrop(vp);
830 }
831
832 /*
833  * Associate a p-buffer with a vnode.
834  *
835  * Also sets B_PAGING flag to indicate that vnode is not fully associated
836  * with the buffer.  i.e. the bp has not been linked into the vnode or
837  * ref-counted.
838  */
839 void
840 pbgetvp(struct vnode *vp, struct buf *bp)
841 {
842         KASSERT(bp->b_vp == NULL, ("pbgetvp: not free"));
843
844         bp->b_vp = vp;
845         bp->b_flags |= B_PAGING;
846 }
847
848 /*
849  * Disassociate a p-buffer from a vnode.
850  */
851 void
852 pbrelvp(struct buf *bp)
853 {
854         KASSERT(bp->b_vp != NULL, ("pbrelvp: NULL"));
855
856         bp->b_vp = NULL;
857         bp->b_flags &= ~B_PAGING;
858 }
859
860 void
861 pbreassignbuf(struct buf *bp, struct vnode *newvp)
862 {
863         if ((bp->b_flags & B_PAGING) == 0) {
864                 panic(
865                     "pbreassignbuf() on non phys bp %p", 
866                     bp
867                 );
868         }
869         bp->b_vp = newvp;
870 }
871
872 /*
873  * Reassign a buffer from one vnode to another.
874  * Used to assign file specific control information
875  * (indirect blocks) to the vnode to which they belong.
876  */
877 void
878 reassignbuf(struct buf *bp, struct vnode *newvp)
879 {
880         int delay;
881
882         if (newvp == NULL) {
883                 printf("reassignbuf: NULL");
884                 return;
885         }
886         ++reassignbufcalls;
887
888         /*
889          * B_PAGING flagged buffers cannot be reassigned because their vp
890          * is not fully linked in.
891          */
892         if (bp->b_flags & B_PAGING)
893                 panic("cannot reassign paging buffer");
894
895         crit_enter();
896         /*
897          * Delete from old vnode list, if on one.
898          */
899         if (bp->b_xflags & (BX_VNDIRTY | BX_VNCLEAN)) {
900                 if (bp->b_xflags & BX_VNDIRTY)
901                         buf_rb_tree_RB_REMOVE(&bp->b_vp->v_rbdirty_tree, bp);
902                 else 
903                         buf_rb_tree_RB_REMOVE(&bp->b_vp->v_rbclean_tree, bp);
904                 bp->b_xflags &= ~(BX_VNDIRTY | BX_VNCLEAN);
905                 if (bp->b_vp != newvp) {
906                         vdrop(bp->b_vp);
907                         bp->b_vp = NULL;        /* for clarification */
908                 }
909         }
910         /*
911          * If dirty, put on list of dirty buffers; otherwise insert onto list
912          * of clean buffers.
913          */
914         if (bp->b_flags & B_DELWRI) {
915                 if ((newvp->v_flag & VONWORKLST) == 0) {
916                         switch (newvp->v_type) {
917                         case VDIR:
918                                 delay = dirdelay;
919                                 break;
920                         case VCHR:
921                         case VBLK:
922                                 if (newvp->v_rdev && 
923                                     newvp->v_rdev->si_mountpoint != NULL) {
924                                         delay = metadelay;
925                                         break;
926                                 }
927                                 /* fall through */
928                         default:
929                                 delay = filedelay;
930                         }
931                         vn_syncer_add_to_worklist(newvp, delay);
932                 }
933                 bp->b_xflags |= BX_VNDIRTY;
934                 if (buf_rb_tree_RB_INSERT(&newvp->v_rbdirty_tree, bp))
935                         panic("reassignbuf: dup lblk vp %p bp %p", newvp, bp);
936         } else {
937                 bp->b_xflags |= BX_VNCLEAN;
938                 if (buf_rb_tree_RB_INSERT(&newvp->v_rbclean_tree, bp))
939                         panic("reassignbuf: dup lblk vp %p bp %p", newvp, bp);
940                 if ((newvp->v_flag & VONWORKLST) &&
941                     RB_EMPTY(&newvp->v_rbdirty_tree)) {
942                         newvp->v_flag &= ~VONWORKLST;
943                         LIST_REMOVE(newvp, v_synclist);
944                 }
945         }
946         if (bp->b_vp != newvp) {
947                 bp->b_vp = newvp;
948                 vhold(bp->b_vp);
949         }
950         crit_exit();
951 }
952
953 /*
954  * Create a vnode for a block device.
955  * Used for mounting the root file system.
956  */
957 int
958 bdevvp(dev_t dev, struct vnode **vpp)
959 {
960         struct vnode *vp;
961         struct vnode *nvp;
962         int error;
963
964         if (dev == NODEV) {
965                 *vpp = NULLVP;
966                 return (ENXIO);
967         }
968         error = getspecialvnode(VT_NON, NULL, &spec_vnode_vops, &nvp, 0, 0);
969         if (error) {
970                 *vpp = NULLVP;
971                 return (error);
972         }
973         vp = nvp;
974         vp->v_type = VCHR;
975         vp->v_udev = dev->si_udev;
976         vx_unlock(vp);
977         *vpp = vp;
978         return (0);
979 }
980
981 int
982 v_associate_rdev(struct vnode *vp, dev_t dev)
983 {
984         lwkt_tokref ilock;
985
986         if (dev == NULL || dev == NODEV)
987                 return(ENXIO);
988         if (dev_is_good(dev) == 0)
989                 return(ENXIO);
990         KKASSERT(vp->v_rdev == NULL);
991         if (dev_ref_debug)
992                 printf("Z1");
993         vp->v_rdev = reference_dev(dev);
994         lwkt_gettoken(&ilock, &spechash_token);
995         SLIST_INSERT_HEAD(&dev->si_hlist, vp, v_specnext);
996         lwkt_reltoken(&ilock);
997         return(0);
998 }
999
1000 void
1001 v_release_rdev(struct vnode *vp)
1002 {
1003         lwkt_tokref ilock;
1004         dev_t dev;
1005
1006         if ((dev = vp->v_rdev) != NULL) {
1007                 lwkt_gettoken(&ilock, &spechash_token);
1008                 SLIST_REMOVE(&dev->si_hlist, vp, vnode, v_specnext);
1009                 if (dev_ref_debug && vp->v_opencount != 0) {
1010                         printf("releasing rdev with non-0 "
1011                                 "v_opencount(%d) (revoked?)\n",
1012                                 vp->v_opencount);
1013                 }
1014                 vp->v_rdev = NULL;
1015                 vp->v_opencount = 0;
1016                 release_dev(dev);
1017                 lwkt_reltoken(&ilock);
1018         }
1019 }
1020
1021 /*
1022  * Add a vnode to the alias list hung off the dev_t.  We only associate
1023  * the device number with the vnode.  The actual device is not associated
1024  * until the vnode is opened (usually in spec_open()), and will be 
1025  * disassociated on last close.
1026  */
1027 void
1028 addaliasu(struct vnode *nvp, udev_t nvp_udev)
1029 {
1030         if (nvp->v_type != VBLK && nvp->v_type != VCHR)
1031                 panic("addaliasu on non-special vnode");
1032         nvp->v_udev = nvp_udev;
1033 }
1034
1035 /*
1036  * Disassociate a vnode from its underlying filesystem. 
1037  *
1038  * The vnode must be VX locked and refd
1039  *
1040  * If there are v_usecount references to the vnode other then ours we have
1041  * to VOP_CLOSE the vnode before we can deactivate and reclaim it.
1042  */
1043 void
1044 vclean(struct vnode *vp, int flags, struct thread *td)
1045 {
1046         int active;
1047         int retflags = 0;
1048
1049         /*
1050          * If the vnode has already been reclaimed we have nothing to do.
1051          */
1052         if (vp->v_flag & VRECLAIMED)
1053                 return;
1054         vp->v_flag |= VRECLAIMED;
1055
1056         /*
1057          * Scrap the vfs cache
1058          */
1059         while (cache_inval_vp(vp, 0, &retflags) != 0) {
1060                 printf("Warning: vnode %p clean/cache_resolution race detected\n", vp);
1061                 tsleep(vp, 0, "vclninv", 2);
1062         }
1063
1064         /*
1065          * Check to see if the vnode is in use. If so we have to reference it
1066          * before we clean it out so that its count cannot fall to zero and
1067          * generate a race against ourselves to recycle it.
1068          */
1069         active = (vp->v_usecount > 1);
1070
1071         /*
1072          * Clean out any buffers associated with the vnode and destroy its
1073          * object, if it has one.
1074          */
1075         vinvalbuf(vp, V_SAVE, td, 0, 0);
1076         VOP_DESTROYVOBJECT(vp);
1077
1078         /*
1079          * If purging an active vnode, it must be closed and
1080          * deactivated before being reclaimed.   XXX
1081          *
1082          * Note that neither of these routines unlocks the vnode.
1083          */
1084         if (active) {
1085                 if (flags & DOCLOSE)
1086                         VOP_CLOSE(vp, FNONBLOCK, td);
1087         }
1088
1089         /*
1090          * If the vnode has not be deactivated, deactivated it.
1091          */
1092         if ((vp->v_flag & VINACTIVE) == 0) {
1093                 vp->v_flag |= VINACTIVE;
1094                 VOP_INACTIVE(vp, td);
1095         }
1096
1097         /*
1098          * Reclaim the vnode.
1099          */
1100         if (VOP_RECLAIM(vp, retflags, td))
1101                 panic("vclean: cannot reclaim");
1102
1103         /*
1104          * Done with purge, notify sleepers of the grim news.
1105          */
1106         vp->v_ops = &dead_vnode_vops;
1107         vn_pollgone(vp);
1108         vp->v_tag = VT_NON;
1109 }
1110
1111 /*
1112  * Eliminate all activity associated with the requested vnode
1113  * and with all vnodes aliased to the requested vnode.
1114  *
1115  * The vnode must be referenced and vx_lock()'d
1116  *
1117  * revoke { struct vnode *a_vp, int a_flags }
1118  */
1119 int
1120 vop_stdrevoke(struct vop_revoke_args *ap)
1121 {
1122         struct vnode *vp, *vq;
1123         lwkt_tokref ilock;
1124         dev_t dev;
1125
1126         KASSERT((ap->a_flags & REVOKEALL) != 0, ("vop_revoke"));
1127
1128         vp = ap->a_vp;
1129
1130         /*
1131          * If the vnode is already dead don't try to revoke it
1132          */
1133         if (vp->v_flag & VRECLAIMED)
1134                 return (0);
1135
1136         /*
1137          * If the vnode has a device association, scrap all vnodes associated
1138          * with the device.  Don't let the device disappear on us while we
1139          * are scrapping the vnodes.
1140          *
1141          * The passed vp will probably show up in the list, do not VX lock
1142          * it twice!
1143          */
1144         if (vp->v_type != VCHR && vp->v_type != VBLK)
1145                 return(0);
1146         if ((dev = vp->v_rdev) == NULL) {
1147                 if ((dev = udev2dev(vp->v_udev, vp->v_type == VBLK)) == NODEV)
1148                         return(0);
1149         }
1150         reference_dev(dev);
1151         lwkt_gettoken(&ilock, &spechash_token);
1152         while ((vq = SLIST_FIRST(&dev->si_hlist)) != NULL) {
1153                 if (vp == vq || vx_get(vq) == 0) {
1154                         if (vq == SLIST_FIRST(&dev->si_hlist))
1155                                 vgone(vq);
1156                         if (vp != vq)
1157                                 vx_put(vq);
1158                 }
1159         }
1160         lwkt_reltoken(&ilock);
1161         release_dev(dev);
1162         return (0);
1163 }
1164
1165 /*
1166  * Recycle an unused vnode to the front of the free list.
1167  *
1168  * Returns 1 if we were successfully able to recycle the vnode, 
1169  * 0 otherwise.
1170  */
1171 int
1172 vrecycle(struct vnode *vp, struct thread *td)
1173 {
1174         if (vp->v_usecount == 1) {
1175                 vgone(vp);
1176                 return (1);
1177         }
1178         return (0);
1179 }
1180
1181 /*
1182  * Eliminate all activity associated with a vnode in preparation for reuse.
1183  *
1184  * The vnode must be VX locked and refd and will remain VX locked and refd
1185  * on return.  This routine may be called with the vnode in any state, as
1186  * long as it is VX locked.  The vnode will be cleaned out and marked
1187  * VRECLAIMED but will not actually be reused until all existing refs and
1188  * holds go away.
1189  *
1190  * NOTE: This routine may be called on a vnode which has not yet been
1191  * already been deactivated (VOP_INACTIVE), or on a vnode which has
1192  * already been reclaimed.
1193  *
1194  * This routine is not responsible for placing us back on the freelist. 
1195  * Instead, it happens automatically when the caller releases the VX lock
1196  * (assuming there aren't any other references).
1197  */
1198 void
1199 vgone(struct vnode *vp)
1200 {
1201         /*
1202          * assert that the VX lock is held.  This is an absolute requirement
1203          * now for vgone() to be called.
1204          */
1205         KKASSERT(vp->v_lock.lk_exclusivecount == 1);
1206
1207         /*
1208          * Clean out the filesystem specific data and set the VRECLAIMED
1209          * bit.  Also deactivate the vnode if necessary.
1210          */
1211         vclean(vp, DOCLOSE, curthread);
1212
1213         /*
1214          * Delete from old mount point vnode list, if on one.
1215          */
1216         if (vp->v_mount != NULL)
1217                 insmntque(vp, NULL);
1218
1219         /*
1220          * If special device, remove it from special device alias list
1221          * if it is on one.  This should normally only occur if a vnode is
1222          * being revoked as the device should otherwise have been released
1223          * naturally.
1224          */
1225         if ((vp->v_type == VBLK || vp->v_type == VCHR) && vp->v_rdev != NULL) {
1226                 v_release_rdev(vp);
1227         }
1228
1229         /*
1230          * Set us to VBAD
1231          */
1232         vp->v_type = VBAD;
1233 }
1234
1235 /*
1236  * Lookup a vnode by device number.
1237  */
1238 int
1239 vfinddev(dev_t dev, enum vtype type, struct vnode **vpp)
1240 {
1241         lwkt_tokref ilock;
1242         struct vnode *vp;
1243
1244         lwkt_gettoken(&ilock, &spechash_token);
1245         SLIST_FOREACH(vp, &dev->si_hlist, v_specnext) {
1246                 if (type == vp->v_type) {
1247                         *vpp = vp;
1248                         lwkt_reltoken(&ilock);
1249                         return (1);
1250                 }
1251         }
1252         lwkt_reltoken(&ilock);
1253         return (0);
1254 }
1255
1256 /*
1257  * Calculate the total number of references to a special device.  This
1258  * routine may only be called for VBLK and VCHR vnodes since v_rdev is
1259  * an overloaded field.  Since udev2dev can now return NODEV, we have
1260  * to check for a NULL v_rdev.
1261  */
1262 int
1263 count_dev(dev_t dev)
1264 {
1265         lwkt_tokref ilock;
1266         struct vnode *vp;
1267         int count = 0;
1268
1269         if (SLIST_FIRST(&dev->si_hlist)) {
1270                 lwkt_gettoken(&ilock, &spechash_token);
1271                 SLIST_FOREACH(vp, &dev->si_hlist, v_specnext) {
1272                         count += vp->v_usecount;
1273                 }
1274                 lwkt_reltoken(&ilock);
1275         }
1276         return(count);
1277 }
1278
1279 int
1280 count_udev(udev_t udev)
1281 {
1282         dev_t dev;
1283
1284         if ((dev = udev2dev(udev, 0)) == NODEV)
1285                 return(0);
1286         return(count_dev(dev));
1287 }
1288
1289 int
1290 vcount(struct vnode *vp)
1291 {
1292         if (vp->v_rdev == NULL)
1293                 return(0);
1294         return(count_dev(vp->v_rdev));
1295 }
1296
1297 /*
1298  * Print out a description of a vnode.
1299  */
1300 static char *typename[] =
1301 {"VNON", "VREG", "VDIR", "VBLK", "VCHR", "VLNK", "VSOCK", "VFIFO", "VBAD"};
1302
1303 void
1304 vprint(char *label, struct vnode *vp)
1305 {
1306         char buf[96];
1307
1308         if (label != NULL)
1309                 printf("%s: %p: ", label, (void *)vp);
1310         else
1311                 printf("%p: ", (void *)vp);
1312         printf("type %s, usecount %d, writecount %d, refcount %d,",
1313             typename[vp->v_type], vp->v_usecount, vp->v_writecount,
1314             vp->v_holdcnt);
1315         buf[0] = '\0';
1316         if (vp->v_flag & VROOT)
1317                 strcat(buf, "|VROOT");
1318         if (vp->v_flag & VTEXT)
1319                 strcat(buf, "|VTEXT");
1320         if (vp->v_flag & VSYSTEM)
1321                 strcat(buf, "|VSYSTEM");
1322         if (vp->v_flag & VFREE)
1323                 strcat(buf, "|VFREE");
1324         if (vp->v_flag & VOBJBUF)
1325                 strcat(buf, "|VOBJBUF");
1326         if (buf[0] != '\0')
1327                 printf(" flags (%s)", &buf[1]);
1328         if (vp->v_data == NULL) {
1329                 printf("\n");
1330         } else {
1331                 printf("\n\t");
1332                 VOP_PRINT(vp);
1333         }
1334 }
1335
1336 #ifdef DDB
1337 #include <ddb/ddb.h>
1338
1339 static int db_show_locked_vnodes(struct mount *mp, void *data);
1340
1341 /*
1342  * List all of the locked vnodes in the system.
1343  * Called when debugging the kernel.
1344  */
1345 DB_SHOW_COMMAND(lockedvnodes, lockedvnodes)
1346 {
1347         printf("Locked vnodes\n");
1348         mountlist_scan(db_show_locked_vnodes, NULL, 
1349                         MNTSCAN_FORWARD|MNTSCAN_NOBUSY);
1350 }
1351
1352 static int
1353 db_show_locked_vnodes(struct mount *mp, void *data __unused)
1354 {
1355         struct vnode *vp;
1356
1357         TAILQ_FOREACH(vp, &mp->mnt_nvnodelist, v_nmntvnodes) {
1358                 if (VOP_ISLOCKED(vp, NULL))
1359                         vprint((char *)0, vp);
1360         }
1361         return(0);
1362 }
1363 #endif
1364
1365 /*
1366  * Top level filesystem related information gathering.
1367  */
1368 static int      sysctl_ovfs_conf (SYSCTL_HANDLER_ARGS);
1369
1370 static int
1371 vfs_sysctl(SYSCTL_HANDLER_ARGS)
1372 {
1373         int *name = (int *)arg1 - 1;    /* XXX */
1374         u_int namelen = arg2 + 1;       /* XXX */
1375         struct vfsconf *vfsp;
1376
1377 #if 1 || defined(COMPAT_PRELITE2)
1378         /* Resolve ambiguity between VFS_VFSCONF and VFS_GENERIC. */
1379         if (namelen == 1)
1380                 return (sysctl_ovfs_conf(oidp, arg1, arg2, req));
1381 #endif
1382
1383 #ifdef notyet
1384         /* all sysctl names at this level are at least name and field */
1385         if (namelen < 2)
1386                 return (ENOTDIR);               /* overloaded */
1387         if (name[0] != VFS_GENERIC) {
1388                 for (vfsp = vfsconf; vfsp; vfsp = vfsp->vfc_next)
1389                         if (vfsp->vfc_typenum == name[0])
1390                                 break;
1391                 if (vfsp == NULL)
1392                         return (EOPNOTSUPP);
1393                 return ((*vfsp->vfc_vfsops->vfs_sysctl)(&name[1], namelen - 1,
1394                     oldp, oldlenp, newp, newlen, p));
1395         }
1396 #endif
1397         switch (name[1]) {
1398         case VFS_MAXTYPENUM:
1399                 if (namelen != 2)
1400                         return (ENOTDIR);
1401                 return (SYSCTL_OUT(req, &maxvfsconf, sizeof(int)));
1402         case VFS_CONF:
1403                 if (namelen != 3)
1404                         return (ENOTDIR);       /* overloaded */
1405                 for (vfsp = vfsconf; vfsp; vfsp = vfsp->vfc_next)
1406                         if (vfsp->vfc_typenum == name[2])
1407                                 break;
1408                 if (vfsp == NULL)
1409                         return (EOPNOTSUPP);
1410                 return (SYSCTL_OUT(req, vfsp, sizeof *vfsp));
1411         }
1412         return (EOPNOTSUPP);
1413 }
1414
1415 SYSCTL_NODE(_vfs, VFS_GENERIC, generic, CTLFLAG_RD, vfs_sysctl,
1416         "Generic filesystem");
1417
1418 #if 1 || defined(COMPAT_PRELITE2)
1419
1420 static int
1421 sysctl_ovfs_conf(SYSCTL_HANDLER_ARGS)
1422 {
1423         int error;
1424         struct vfsconf *vfsp;
1425         struct ovfsconf ovfs;
1426
1427         for (vfsp = vfsconf; vfsp; vfsp = vfsp->vfc_next) {
1428                 bzero(&ovfs, sizeof(ovfs));
1429                 ovfs.vfc_vfsops = vfsp->vfc_vfsops;     /* XXX used as flag */
1430                 strcpy(ovfs.vfc_name, vfsp->vfc_name);
1431                 ovfs.vfc_index = vfsp->vfc_typenum;
1432                 ovfs.vfc_refcount = vfsp->vfc_refcount;
1433                 ovfs.vfc_flags = vfsp->vfc_flags;
1434                 error = SYSCTL_OUT(req, &ovfs, sizeof ovfs);
1435                 if (error)
1436                         return error;
1437         }
1438         return 0;
1439 }
1440
1441 #endif /* 1 || COMPAT_PRELITE2 */
1442
1443 /*
1444  * Check to see if a filesystem is mounted on a block device.
1445  */
1446 int
1447 vfs_mountedon(struct vnode *vp)
1448 {
1449         dev_t dev;
1450
1451         if ((dev = vp->v_rdev) == NULL)
1452                 dev = udev2dev(vp->v_udev, (vp->v_type == VBLK));
1453         if (dev != NODEV && dev->si_mountpoint)
1454                 return (EBUSY);
1455         return (0);
1456 }
1457
1458 /*
1459  * Unmount all filesystems. The list is traversed in reverse order
1460  * of mounting to avoid dependencies.
1461  */
1462
1463 static int vfs_umountall_callback(struct mount *mp, void *data);
1464
1465 void
1466 vfs_unmountall(void)
1467 {
1468         struct thread *td = curthread;
1469         int count;
1470
1471         if (td->td_proc == NULL)
1472                 td = initproc->p_thread;        /* XXX XXX use proc0 instead? */
1473
1474         do {
1475                 count = mountlist_scan(vfs_umountall_callback, 
1476                                         &td, MNTSCAN_REVERSE|MNTSCAN_NOBUSY);
1477         } while (count);
1478 }
1479
1480 static
1481 int
1482 vfs_umountall_callback(struct mount *mp, void *data)
1483 {
1484         struct thread *td = *(struct thread **)data;
1485         int error;
1486
1487         error = dounmount(mp, MNT_FORCE, td);
1488         if (error) {
1489                 mountlist_remove(mp);
1490                 printf("unmount of filesystem mounted from %s failed (", 
1491                         mp->mnt_stat.f_mntfromname);
1492                 if (error == EBUSY)
1493                         printf("BUSY)\n");
1494                 else
1495                         printf("%d)\n", error);
1496         }
1497         return(1);
1498 }
1499
1500 /*
1501  * Build hash lists of net addresses and hang them off the mount point.
1502  * Called by ufs_mount() to set up the lists of export addresses.
1503  */
1504 static int
1505 vfs_hang_addrlist(struct mount *mp, struct netexport *nep,
1506                 struct export_args *argp)
1507 {
1508         struct netcred *np;
1509         struct radix_node_head *rnh;
1510         int i;
1511         struct radix_node *rn;
1512         struct sockaddr *saddr, *smask = 0;
1513         struct domain *dom;
1514         int error;
1515
1516         if (argp->ex_addrlen == 0) {
1517                 if (mp->mnt_flag & MNT_DEFEXPORTED)
1518                         return (EPERM);
1519                 np = &nep->ne_defexported;
1520                 np->netc_exflags = argp->ex_flags;
1521                 np->netc_anon = argp->ex_anon;
1522                 np->netc_anon.cr_ref = 1;
1523                 mp->mnt_flag |= MNT_DEFEXPORTED;
1524                 return (0);
1525         }
1526
1527         if (argp->ex_addrlen < 0 || argp->ex_addrlen > MLEN)
1528                 return (EINVAL);
1529         if (argp->ex_masklen < 0 || argp->ex_masklen > MLEN)
1530                 return (EINVAL);
1531
1532         i = sizeof(struct netcred) + argp->ex_addrlen + argp->ex_masklen;
1533         np = (struct netcred *) malloc(i, M_NETADDR, M_WAITOK);
1534         bzero((caddr_t) np, i);
1535         saddr = (struct sockaddr *) (np + 1);
1536         if ((error = copyin(argp->ex_addr, (caddr_t) saddr, argp->ex_addrlen)))
1537                 goto out;
1538         if (saddr->sa_len > argp->ex_addrlen)
1539                 saddr->sa_len = argp->ex_addrlen;
1540         if (argp->ex_masklen) {
1541                 smask = (struct sockaddr *)((caddr_t)saddr + argp->ex_addrlen);
1542                 error = copyin(argp->ex_mask, (caddr_t)smask, argp->ex_masklen);
1543                 if (error)
1544                         goto out;
1545                 if (smask->sa_len > argp->ex_masklen)
1546                         smask->sa_len = argp->ex_masklen;
1547         }
1548         i = saddr->sa_family;
1549         if ((rnh = nep->ne_rtable[i]) == 0) {
1550                 /*
1551                  * Seems silly to initialize every AF when most are not used,
1552                  * do so on demand here
1553                  */
1554                 SLIST_FOREACH(dom, &domains, dom_next)
1555                         if (dom->dom_family == i && dom->dom_rtattach) {
1556                                 dom->dom_rtattach((void **) &nep->ne_rtable[i],
1557                                     dom->dom_rtoffset);
1558                                 break;
1559                         }
1560                 if ((rnh = nep->ne_rtable[i]) == 0) {
1561                         error = ENOBUFS;
1562                         goto out;
1563                 }
1564         }
1565         rn = (*rnh->rnh_addaddr) ((char *) saddr, (char *) smask, rnh,
1566             np->netc_rnodes);
1567         if (rn == 0 || np != (struct netcred *) rn) {   /* already exists */
1568                 error = EPERM;
1569                 goto out;
1570         }
1571         np->netc_exflags = argp->ex_flags;
1572         np->netc_anon = argp->ex_anon;
1573         np->netc_anon.cr_ref = 1;
1574         return (0);
1575 out:
1576         free(np, M_NETADDR);
1577         return (error);
1578 }
1579
1580 /* ARGSUSED */
1581 static int
1582 vfs_free_netcred(struct radix_node *rn, void *w)
1583 {
1584         struct radix_node_head *rnh = (struct radix_node_head *) w;
1585
1586         (*rnh->rnh_deladdr) (rn->rn_key, rn->rn_mask, rnh);
1587         free((caddr_t) rn, M_NETADDR);
1588         return (0);
1589 }
1590
1591 /*
1592  * Free the net address hash lists that are hanging off the mount points.
1593  */
1594 static void
1595 vfs_free_addrlist(struct netexport *nep)
1596 {
1597         int i;
1598         struct radix_node_head *rnh;
1599
1600         for (i = 0; i <= AF_MAX; i++)
1601                 if ((rnh = nep->ne_rtable[i])) {
1602                         (*rnh->rnh_walktree) (rnh, vfs_free_netcred,
1603                             (caddr_t) rnh);
1604                         free((caddr_t) rnh, M_RTABLE);
1605                         nep->ne_rtable[i] = 0;
1606                 }
1607 }
1608
1609 int
1610 vfs_export(struct mount *mp, struct netexport *nep, struct export_args *argp)
1611 {
1612         int error;
1613
1614         if (argp->ex_flags & MNT_DELEXPORT) {
1615                 if (mp->mnt_flag & MNT_EXPUBLIC) {
1616                         vfs_setpublicfs(NULL, NULL, NULL);
1617                         mp->mnt_flag &= ~MNT_EXPUBLIC;
1618                 }
1619                 vfs_free_addrlist(nep);
1620                 mp->mnt_flag &= ~(MNT_EXPORTED | MNT_DEFEXPORTED);
1621         }
1622         if (argp->ex_flags & MNT_EXPORTED) {
1623                 if (argp->ex_flags & MNT_EXPUBLIC) {
1624                         if ((error = vfs_setpublicfs(mp, nep, argp)) != 0)
1625                                 return (error);
1626                         mp->mnt_flag |= MNT_EXPUBLIC;
1627                 }
1628                 if ((error = vfs_hang_addrlist(mp, nep, argp)))
1629                         return (error);
1630                 mp->mnt_flag |= MNT_EXPORTED;
1631         }
1632         return (0);
1633 }
1634
1635
1636 /*
1637  * Set the publicly exported filesystem (WebNFS). Currently, only
1638  * one public filesystem is possible in the spec (RFC 2054 and 2055)
1639  */
1640 int
1641 vfs_setpublicfs(struct mount *mp, struct netexport *nep,
1642                 struct export_args *argp)
1643 {
1644         int error;
1645         struct vnode *rvp;
1646         char *cp;
1647
1648         /*
1649          * mp == NULL -> invalidate the current info, the FS is
1650          * no longer exported. May be called from either vfs_export
1651          * or unmount, so check if it hasn't already been done.
1652          */
1653         if (mp == NULL) {
1654                 if (nfs_pub.np_valid) {
1655                         nfs_pub.np_valid = 0;
1656                         if (nfs_pub.np_index != NULL) {
1657                                 FREE(nfs_pub.np_index, M_TEMP);
1658                                 nfs_pub.np_index = NULL;
1659                         }
1660                 }
1661                 return (0);
1662         }
1663
1664         /*
1665          * Only one allowed at a time.
1666          */
1667         if (nfs_pub.np_valid != 0 && mp != nfs_pub.np_mount)
1668                 return (EBUSY);
1669
1670         /*
1671          * Get real filehandle for root of exported FS.
1672          */
1673         bzero((caddr_t)&nfs_pub.np_handle, sizeof(nfs_pub.np_handle));
1674         nfs_pub.np_handle.fh_fsid = mp->mnt_stat.f_fsid;
1675
1676         if ((error = VFS_ROOT(mp, &rvp)))
1677                 return (error);
1678
1679         if ((error = VFS_VPTOFH(rvp, &nfs_pub.np_handle.fh_fid)))
1680                 return (error);
1681
1682         vput(rvp);
1683
1684         /*
1685          * If an indexfile was specified, pull it in.
1686          */
1687         if (argp->ex_indexfile != NULL) {
1688                 int namelen;
1689
1690                 error = vn_get_namelen(rvp, &namelen);
1691                 if (error)
1692                         return (error);
1693                 MALLOC(nfs_pub.np_index, char *, namelen, M_TEMP,
1694                     M_WAITOK);
1695                 error = copyinstr(argp->ex_indexfile, nfs_pub.np_index,
1696                     namelen, (size_t *)0);
1697                 if (!error) {
1698                         /*
1699                          * Check for illegal filenames.
1700                          */
1701                         for (cp = nfs_pub.np_index; *cp; cp++) {
1702                                 if (*cp == '/') {
1703                                         error = EINVAL;
1704                                         break;
1705                                 }
1706                         }
1707                 }
1708                 if (error) {
1709                         FREE(nfs_pub.np_index, M_TEMP);
1710                         return (error);
1711                 }
1712         }
1713
1714         nfs_pub.np_mount = mp;
1715         nfs_pub.np_valid = 1;
1716         return (0);
1717 }
1718
1719 struct netcred *
1720 vfs_export_lookup(struct mount *mp, struct netexport *nep,
1721                 struct sockaddr *nam)
1722 {
1723         struct netcred *np;
1724         struct radix_node_head *rnh;
1725         struct sockaddr *saddr;
1726
1727         np = NULL;
1728         if (mp->mnt_flag & MNT_EXPORTED) {
1729                 /*
1730                  * Lookup in the export list first.
1731                  */
1732                 if (nam != NULL) {
1733                         saddr = nam;
1734                         rnh = nep->ne_rtable[saddr->sa_family];
1735                         if (rnh != NULL) {
1736                                 np = (struct netcred *)
1737                                         (*rnh->rnh_matchaddr)((char *)saddr,
1738                                                               rnh);
1739                                 if (np && np->netc_rnodes->rn_flags & RNF_ROOT)
1740                                         np = NULL;
1741                         }
1742                 }
1743                 /*
1744                  * If no address match, use the default if it exists.
1745                  */
1746                 if (np == NULL && mp->mnt_flag & MNT_DEFEXPORTED)
1747                         np = &nep->ne_defexported;
1748         }
1749         return (np);
1750 }
1751
1752 /*
1753  * perform msync on all vnodes under a mount point.  The mount point must
1754  * be locked.  This code is also responsible for lazy-freeing unreferenced
1755  * vnodes whos VM objects no longer contain pages.
1756  *
1757  * NOTE: MNT_WAIT still skips vnodes in the VXLOCK state.
1758  *
1759  * NOTE: XXX VOP_PUTPAGES and friends requires that the vnode be locked,
1760  * but vnode_pager_putpages() doesn't lock the vnode.  We have to do it
1761  * way up in this high level function.
1762  */
1763 static int vfs_msync_scan1(struct mount *mp, struct vnode *vp, void *data);
1764 static int vfs_msync_scan2(struct mount *mp, struct vnode *vp, void *data);
1765
1766 void
1767 vfs_msync(struct mount *mp, int flags) 
1768 {
1769         int vmsc_flags;
1770
1771         vmsc_flags = VMSC_GETVP;
1772         if (flags != MNT_WAIT)
1773                 vmsc_flags |= VMSC_NOWAIT;
1774         vmntvnodescan(mp, vmsc_flags, vfs_msync_scan1, vfs_msync_scan2,
1775                         (void *)flags);
1776 }
1777
1778 /*
1779  * scan1 is a fast pre-check.  There could be hundreds of thousands of
1780  * vnodes, we cannot afford to do anything heavy weight until we have a
1781  * fairly good indication that there is work to do.
1782  */
1783 static
1784 int
1785 vfs_msync_scan1(struct mount *mp, struct vnode *vp, void *data)
1786 {
1787         int flags = (int)data;
1788
1789         if ((vp->v_flag & VRECLAIMED) == 0) {
1790                 if (vshouldfree(vp, 0))
1791                         return(0);      /* call scan2 */
1792                 if ((mp->mnt_flag & MNT_RDONLY) == 0 &&
1793                     (vp->v_flag & VOBJDIRTY) &&
1794                     (flags == MNT_WAIT || VOP_ISLOCKED(vp, NULL) == 0)) {
1795                         return(0);      /* call scan2 */
1796                 }
1797         }
1798
1799         /*
1800          * do not call scan2, continue the loop
1801          */
1802         return(-1);
1803 }
1804
1805 /*
1806  * This callback is handed a locked vnode.
1807  */
1808 static
1809 int
1810 vfs_msync_scan2(struct mount *mp, struct vnode *vp, void *data)
1811 {
1812         vm_object_t obj;
1813         int flags = (int)data;
1814
1815         if (vp->v_flag & VRECLAIMED)
1816                 return(0);
1817
1818         if ((mp->mnt_flag & MNT_RDONLY) == 0 &&
1819             (vp->v_flag & VOBJDIRTY)) {
1820                 if (VOP_GETVOBJECT(vp, &obj) == 0) {
1821                         vm_object_page_clean(obj, 0, 0, 
1822                          flags == MNT_WAIT ? OBJPC_SYNC : OBJPC_NOSYNC);
1823                 }
1824         }
1825         return(0);
1826 }
1827
1828 /*
1829  * Create the VM object needed for VMIO and mmap support.  This
1830  * is done for all VREG files in the system.  Some filesystems might
1831  * afford the additional metadata buffering capability of the
1832  * VMIO code by making the device node be VMIO mode also.
1833  *
1834  * vp must be locked when vfs_object_create is called.
1835  */
1836 int
1837 vfs_object_create(struct vnode *vp, struct thread *td)
1838 {
1839         return (VOP_CREATEVOBJECT(vp, td));
1840 }
1841
1842 /*
1843  * Record a process's interest in events which might happen to
1844  * a vnode.  Because poll uses the historic select-style interface
1845  * internally, this routine serves as both the ``check for any
1846  * pending events'' and the ``record my interest in future events''
1847  * functions.  (These are done together, while the lock is held,
1848  * to avoid race conditions.)
1849  */
1850 int
1851 vn_pollrecord(struct vnode *vp, struct thread *td, int events)
1852 {
1853         lwkt_tokref ilock;
1854
1855         lwkt_gettoken(&ilock, &vp->v_pollinfo.vpi_token);
1856         if (vp->v_pollinfo.vpi_revents & events) {
1857                 /*
1858                  * This leaves events we are not interested
1859                  * in available for the other process which
1860                  * which presumably had requested them
1861                  * (otherwise they would never have been
1862                  * recorded).
1863                  */
1864                 events &= vp->v_pollinfo.vpi_revents;
1865                 vp->v_pollinfo.vpi_revents &= ~events;
1866
1867                 lwkt_reltoken(&ilock);
1868                 return events;
1869         }
1870         vp->v_pollinfo.vpi_events |= events;
1871         selrecord(td, &vp->v_pollinfo.vpi_selinfo);
1872         lwkt_reltoken(&ilock);
1873         return 0;
1874 }
1875
1876 /*
1877  * Note the occurrence of an event.  If the VN_POLLEVENT macro is used,
1878  * it is possible for us to miss an event due to race conditions, but
1879  * that condition is expected to be rare, so for the moment it is the
1880  * preferred interface.
1881  */
1882 void
1883 vn_pollevent(struct vnode *vp, int events)
1884 {
1885         lwkt_tokref ilock;
1886
1887         lwkt_gettoken(&ilock, &vp->v_pollinfo.vpi_token);
1888         if (vp->v_pollinfo.vpi_events & events) {
1889                 /*
1890                  * We clear vpi_events so that we don't
1891                  * call selwakeup() twice if two events are
1892                  * posted before the polling process(es) is
1893                  * awakened.  This also ensures that we take at
1894                  * most one selwakeup() if the polling process
1895                  * is no longer interested.  However, it does
1896                  * mean that only one event can be noticed at
1897                  * a time.  (Perhaps we should only clear those
1898                  * event bits which we note?) XXX
1899                  */
1900                 vp->v_pollinfo.vpi_events = 0;  /* &= ~events ??? */
1901                 vp->v_pollinfo.vpi_revents |= events;
1902                 selwakeup(&vp->v_pollinfo.vpi_selinfo);
1903         }
1904         lwkt_reltoken(&ilock);
1905 }
1906
1907 /*
1908  * Wake up anyone polling on vp because it is being revoked.
1909  * This depends on dead_poll() returning POLLHUP for correct
1910  * behavior.
1911  */
1912 void
1913 vn_pollgone(struct vnode *vp)
1914 {
1915         lwkt_tokref ilock;
1916
1917         lwkt_gettoken(&ilock, &vp->v_pollinfo.vpi_token);
1918         if (vp->v_pollinfo.vpi_events) {
1919                 vp->v_pollinfo.vpi_events = 0;
1920                 selwakeup(&vp->v_pollinfo.vpi_selinfo);
1921         }
1922         lwkt_reltoken(&ilock);
1923 }
1924
1925 /*
1926  * extract the dev_t from a VBLK or VCHR.  The vnode must have been opened
1927  * (or v_rdev might be NULL).
1928  */
1929 dev_t
1930 vn_todev(struct vnode *vp)
1931 {
1932         if (vp->v_type != VBLK && vp->v_type != VCHR)
1933                 return (NODEV);
1934         KKASSERT(vp->v_rdev != NULL);
1935         return (vp->v_rdev);
1936 }
1937
1938 /*
1939  * Check if vnode represents a disk device.  The vnode does not need to be
1940  * opened.
1941  */
1942 int
1943 vn_isdisk(struct vnode *vp, int *errp)
1944 {
1945         dev_t dev;
1946
1947         if (vp->v_type != VBLK && vp->v_type != VCHR) {
1948                 if (errp != NULL)
1949                         *errp = ENOTBLK;
1950                 return (0);
1951         }
1952
1953         if ((dev = vp->v_rdev) == NULL)
1954                 dev = udev2dev(vp->v_udev, (vp->v_type == VBLK));
1955         if (dev == NULL || dev == NODEV) {
1956                 if (errp != NULL)
1957                         *errp = ENXIO;
1958                 return (0);
1959         }
1960         if (dev_is_good(dev) == 0) {
1961                 if (errp != NULL)
1962                         *errp = ENXIO;
1963                 return (0);
1964         }
1965         if ((dev_dflags(dev) & D_DISK) == 0) {
1966                 if (errp != NULL)
1967                         *errp = ENOTBLK;
1968                 return (0);
1969         }
1970         if (errp != NULL)
1971                 *errp = 0;
1972         return (1);
1973 }
1974
1975 #ifdef DEBUG_VFS_LOCKS
1976
1977 void
1978 assert_vop_locked(struct vnode *vp, const char *str)
1979 {
1980         if (vp && IS_LOCKING_VFS(vp) && !VOP_ISLOCKED(vp, NULL)) {
1981                 panic("%s: %p is not locked shared but should be", str, vp);
1982         }
1983 }
1984
1985 void
1986 assert_vop_unlocked(struct vnode *vp, const char *str)
1987 {
1988         if (vp && IS_LOCKING_VFS(vp)) {
1989                 if (VOP_ISLOCKED(vp, curthread) == LK_EXCLUSIVE) {
1990                         panic("%s: %p is locked but should not be", str, vp);
1991                 }
1992         }
1993 }
1994
1995 #endif
1996
1997 int
1998 vn_get_namelen(struct vnode *vp, int *namelen)
1999 {
2000         int error, retval[2];
2001
2002         error = VOP_PATHCONF(vp, _PC_NAME_MAX, retval);
2003         if (error)
2004                 return (error);
2005         *namelen = *retval;
2006         return (0);
2007 }
2008
2009 int
2010 vop_write_dirent(int *error, struct uio *uio, ino_t d_ino, uint8_t d_type, 
2011                 uint16_t d_namlen, const char *d_name)
2012 {
2013         struct dirent *dp;
2014         size_t len;
2015
2016         len = _DIRENT_RECLEN(d_namlen);
2017         if (len > uio->uio_resid)
2018                 return(1);
2019
2020         dp = malloc(len, M_TEMP, M_WAITOK | M_ZERO);
2021
2022         dp->d_ino = d_ino;
2023         dp->d_namlen = d_namlen;
2024         dp->d_type = d_type;
2025         bcopy(d_name, dp->d_name, d_namlen);
2026
2027         *error = uiomove((caddr_t)dp, len, uio);
2028
2029         free(dp, M_TEMP);
2030
2031         return(0);
2032 }