26a5979f11cf54765bc14930ce81c0cd72ca8b5c
[dragonfly.git] / sys / kern / vfs_syscalls.c
1 /*
2  * Copyright (c) 1989, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  * (c) UNIX System Laboratories, Inc.
5  * All or some portions of this file are derived from material licensed
6  * to the University of California by American Telephone and Telegraph
7  * Co. or Unix System Laboratories, Inc. and are reproduced herein with
8  * the permission of UNIX System Laboratories, Inc.
9  *
10  * Redistribution and use in source and binary forms, with or without
11  * modification, are permitted provided that the following conditions
12  * are met:
13  * 1. Redistributions of source code must retain the above copyright
14  *    notice, this list of conditions and the following disclaimer.
15  * 2. Redistributions in binary form must reproduce the above copyright
16  *    notice, this list of conditions and the following disclaimer in the
17  *    documentation and/or other materials provided with the distribution.
18  * 3. All advertising materials mentioning features or use of this software
19  *    must display the following acknowledgement:
20  *      This product includes software developed by the University of
21  *      California, Berkeley and its contributors.
22  * 4. Neither the name of the University nor the names of its contributors
23  *    may be used to endorse or promote products derived from this software
24  *    without specific prior written permission.
25  *
26  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
27  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
28  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
29  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
30  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
31  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
32  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
33  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
34  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
35  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
36  * SUCH DAMAGE.
37  *
38  *      @(#)vfs_syscalls.c      8.13 (Berkeley) 4/15/94
39  * $FreeBSD: src/sys/kern/vfs_syscalls.c,v 1.151.2.18 2003/04/04 20:35:58 tegge Exp $
40  * $DragonFly: src/sys/kern/vfs_syscalls.c,v 1.135 2008/11/11 00:55:49 pavalos Exp $
41  */
42
43 #include <sys/param.h>
44 #include <sys/systm.h>
45 #include <sys/buf.h>
46 #include <sys/conf.h>
47 #include <sys/sysent.h>
48 #include <sys/malloc.h>
49 #include <sys/mount.h>
50 #include <sys/mountctl.h>
51 #include <sys/sysproto.h>
52 #include <sys/filedesc.h>
53 #include <sys/kernel.h>
54 #include <sys/fcntl.h>
55 #include <sys/file.h>
56 #include <sys/linker.h>
57 #include <sys/stat.h>
58 #include <sys/unistd.h>
59 #include <sys/vnode.h>
60 #include <sys/proc.h>
61 #include <sys/priv.h>
62 #include <sys/jail.h>
63 #include <sys/namei.h>
64 #include <sys/nlookup.h>
65 #include <sys/dirent.h>
66 #include <sys/extattr.h>
67 #include <sys/spinlock.h>
68 #include <sys/kern_syscall.h>
69 #include <sys/objcache.h>
70 #include <sys/sysctl.h>
71
72 #include <sys/buf2.h>
73 #include <sys/file2.h>
74 #include <sys/spinlock2.h>
75 #include <sys/mplock2.h>
76
77 #include <vm/vm.h>
78 #include <vm/vm_object.h>
79 #include <vm/vm_page.h>
80
81 #include <machine/limits.h>
82 #include <machine/stdarg.h>
83
84 #include <vfs/union/union.h>
85
86 static void mount_warning(struct mount *mp, const char *ctl, ...);
87 static int mount_path(struct proc *p, struct mount *mp, char **rb, char **fb);
88 static int checkvp_chdir (struct vnode *vn, struct thread *td);
89 static void checkdirs (struct nchandle *old_nch, struct nchandle *new_nch);
90 static int chroot_refuse_vdir_fds (struct filedesc *fdp);
91 static int chroot_visible_mnt(struct mount *mp, struct proc *p);
92 static int getutimes (const struct timeval *, struct timespec *);
93 static int setfown (struct vnode *, uid_t, gid_t);
94 static int setfmode (struct vnode *, int);
95 static int setfflags (struct vnode *, int);
96 static int setutimes (struct vnode *, struct vattr *,
97                         const struct timespec *, int);
98 static int      usermount = 0;  /* if 1, non-root can mount fs. */
99
100 int (*union_dircheckp) (struct thread *, struct vnode **, struct file *);
101
102 SYSCTL_INT(_vfs, OID_AUTO, usermount, CTLFLAG_RW, &usermount, 0, "");
103
104 /*
105  * Virtual File System System Calls
106  */
107
108 /*
109  * Mount a file system.
110  *
111  * mount_args(char *type, char *path, int flags, caddr_t data)
112  *
113  * MPALMOSTSAFE
114  */
115 int
116 sys_mount(struct mount_args *uap)
117 {
118         struct thread *td = curthread;
119         struct vnode *vp;
120         struct nchandle nch;
121         struct mount *mp, *nullmp;
122         struct vfsconf *vfsp;
123         int error, flag = 0, flag2 = 0;
124         int hasmount;
125         struct vattr va;
126         struct nlookupdata nd;
127         char fstypename[MFSNAMELEN];
128         struct ucred *cred;
129
130         get_mplock();
131         cred = td->td_ucred;
132         if (jailed(cred)) {
133                 error = EPERM;
134                 goto done;
135         }
136         if (usermount == 0 && (error = priv_check(td, PRIV_ROOT)))
137                 goto done;
138
139         /*
140          * Do not allow NFS export by non-root users.
141          */
142         if (uap->flags & MNT_EXPORTED) {
143                 error = priv_check(td, PRIV_ROOT);
144                 if (error)
145                         goto done;
146         }
147         /*
148          * Silently enforce MNT_NOSUID and MNT_NODEV for non-root users
149          */
150         if (priv_check(td, PRIV_ROOT)) 
151                 uap->flags |= MNT_NOSUID | MNT_NODEV;
152
153         /*
154          * Lookup the requested path and extract the nch and vnode.
155          */
156         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
157         if (error == 0) {
158                 if ((error = nlookup(&nd)) == 0) {
159                         if (nd.nl_nch.ncp->nc_vp == NULL)
160                                 error = ENOENT;
161                 }
162         }
163         if (error) {
164                 nlookup_done(&nd);
165                 goto done;
166         }
167
168         /*
169          * If the target filesystem is resolved via a nullfs mount, then
170          * nd.nl_nch.mount will be pointing to the nullfs mount structure
171          * instead of the target file system. We need it in case we are
172          * doing an update.
173          */
174         nullmp = nd.nl_nch.mount;
175
176         /*
177          * Extract the locked+refd ncp and cleanup the nd structure
178          */
179         nch = nd.nl_nch;
180         cache_zero(&nd.nl_nch);
181         nlookup_done(&nd);
182
183         if ((nch.ncp->nc_flag & NCF_ISMOUNTPT) && cache_findmount(&nch))
184                 hasmount = 1;
185         else
186                 hasmount = 0;
187
188
189         /*
190          * now we have the locked ref'd nch and unreferenced vnode.
191          */
192         vp = nch.ncp->nc_vp;
193         if ((error = vget(vp, LK_EXCLUSIVE)) != 0) {
194                 cache_put(&nch);
195                 goto done;
196         }
197         cache_unlock(&nch);
198
199         /*
200          * Extract the file system type. We need to know this early, to take
201          * appropriate actions if we are dealing with a nullfs.
202          */
203         if ((error = copyinstr(uap->type, fstypename, MFSNAMELEN, NULL)) != 0) {
204                 cache_drop(&nch);
205                 vput(vp);
206                 goto done;
207         }
208
209         /*
210          * Now we have an unlocked ref'd nch and a locked ref'd vp
211          */
212         if (uap->flags & MNT_UPDATE) {
213                 if ((vp->v_flag & (VROOT|VPFSROOT)) == 0) {
214                         cache_drop(&nch);
215                         vput(vp);
216                         error = EINVAL;
217                         goto done;
218                 }
219
220                 if (strncmp(fstypename, "null", 5) == 0) {
221                         KKASSERT(nullmp);
222                         mp = nullmp;
223                 } else {
224                         mp = vp->v_mount;
225                 }
226
227                 flag = mp->mnt_flag;
228                 flag2 = mp->mnt_kern_flag;
229                 /*
230                  * We only allow the filesystem to be reloaded if it
231                  * is currently mounted read-only.
232                  */
233                 if ((uap->flags & MNT_RELOAD) &&
234                     ((mp->mnt_flag & MNT_RDONLY) == 0)) {
235                         cache_drop(&nch);
236                         vput(vp);
237                         error = EOPNOTSUPP;     /* Needs translation */
238                         goto done;
239                 }
240                 /*
241                  * Only root, or the user that did the original mount is
242                  * permitted to update it.
243                  */
244                 if (mp->mnt_stat.f_owner != cred->cr_uid &&
245                     (error = priv_check(td, PRIV_ROOT))) {
246                         cache_drop(&nch);
247                         vput(vp);
248                         goto done;
249                 }
250                 if (vfs_busy(mp, LK_NOWAIT)) {
251                         cache_drop(&nch);
252                         vput(vp);
253                         error = EBUSY;
254                         goto done;
255                 }
256                 if ((vp->v_flag & VMOUNT) != 0 || hasmount) {
257                         cache_drop(&nch);
258                         vfs_unbusy(mp);
259                         vput(vp);
260                         error = EBUSY;
261                         goto done;
262                 }
263                 vp->v_flag |= VMOUNT;
264                 mp->mnt_flag |=
265                     uap->flags & (MNT_RELOAD | MNT_FORCE | MNT_UPDATE);
266                 vn_unlock(vp);
267                 goto update;
268         }
269         /*
270          * If the user is not root, ensure that they own the directory
271          * onto which we are attempting to mount.
272          */
273         if ((error = VOP_GETATTR(vp, &va)) ||
274             (va.va_uid != cred->cr_uid && (error = priv_check(td, PRIV_ROOT)))) {
275                 cache_drop(&nch);
276                 vput(vp);
277                 goto done;
278         }
279         if ((error = vinvalbuf(vp, V_SAVE, 0, 0)) != 0) {
280                 cache_drop(&nch);
281                 vput(vp);
282                 goto done;
283         }
284         if (vp->v_type != VDIR) {
285                 cache_drop(&nch);
286                 vput(vp);
287                 error = ENOTDIR;
288                 goto done;
289         }
290         if (vp->v_mount->mnt_kern_flag & MNTK_NOSTKMNT) {
291                 cache_drop(&nch);
292                 vput(vp);
293                 error = EPERM;
294                 goto done;
295         }
296         vfsp = vfsconf_find_by_name(fstypename);
297         if (vfsp == NULL) {
298                 linker_file_t lf;
299
300                 /* Only load modules for root (very important!) */
301                 if ((error = priv_check(td, PRIV_ROOT)) != 0) {
302                         cache_drop(&nch);
303                         vput(vp);
304                         goto done;
305                 }
306                 error = linker_load_file(fstypename, &lf);
307                 if (error || lf == NULL) {
308                         cache_drop(&nch);
309                         vput(vp);
310                         if (lf == NULL)
311                                 error = ENODEV;
312                         goto done;
313                 }
314                 lf->userrefs++;
315                 /* lookup again, see if the VFS was loaded */
316                 vfsp = vfsconf_find_by_name(fstypename);
317                 if (vfsp == NULL) {
318                         lf->userrefs--;
319                         linker_file_unload(lf);
320                         cache_drop(&nch);
321                         vput(vp);
322                         error = ENODEV;
323                         goto done;
324                 }
325         }
326         if ((vp->v_flag & VMOUNT) != 0 || hasmount) {
327                 cache_drop(&nch);
328                 vput(vp);
329                 error = EBUSY;
330                 goto done;
331         }
332         vp->v_flag |= VMOUNT;
333
334         /*
335          * Allocate and initialize the filesystem.
336          */
337         mp = kmalloc(sizeof(struct mount), M_MOUNT, M_ZERO|M_WAITOK);
338         mount_init(mp);
339         vfs_busy(mp, LK_NOWAIT);
340         mp->mnt_op = vfsp->vfc_vfsops;
341         mp->mnt_vfc = vfsp;
342         vfsp->vfc_refcount++;
343         mp->mnt_stat.f_type = vfsp->vfc_typenum;
344         mp->mnt_flag |= vfsp->vfc_flags & MNT_VISFLAGMASK;
345         strncpy(mp->mnt_stat.f_fstypename, vfsp->vfc_name, MFSNAMELEN);
346         mp->mnt_stat.f_owner = cred->cr_uid;
347         vn_unlock(vp);
348 update:
349         /*
350          * Set the mount level flags.
351          */
352         if (uap->flags & MNT_RDONLY)
353                 mp->mnt_flag |= MNT_RDONLY;
354         else if (mp->mnt_flag & MNT_RDONLY)
355                 mp->mnt_kern_flag |= MNTK_WANTRDWR;
356         mp->mnt_flag &=~ (MNT_NOSUID | MNT_NOEXEC | MNT_NODEV |
357             MNT_SYNCHRONOUS | MNT_UNION | MNT_ASYNC | MNT_NOATIME |
358             MNT_NOSYMFOLLOW | MNT_IGNORE |
359             MNT_NOCLUSTERR | MNT_NOCLUSTERW | MNT_SUIDDIR);
360         mp->mnt_flag |= uap->flags & (MNT_NOSUID | MNT_NOEXEC |
361             MNT_NODEV | MNT_SYNCHRONOUS | MNT_UNION | MNT_ASYNC | MNT_FORCE |
362             MNT_NOSYMFOLLOW | MNT_IGNORE |
363             MNT_NOATIME | MNT_NOCLUSTERR | MNT_NOCLUSTERW | MNT_SUIDDIR);
364         /*
365          * Mount the filesystem.
366          * XXX The final recipients of VFS_MOUNT just overwrite the ndp they
367          * get. 
368          */
369         error = VFS_MOUNT(mp, uap->path, uap->data, cred);
370         if (mp->mnt_flag & MNT_UPDATE) {
371                 if (mp->mnt_kern_flag & MNTK_WANTRDWR)
372                         mp->mnt_flag &= ~MNT_RDONLY;
373                 mp->mnt_flag &=~ (MNT_UPDATE | MNT_RELOAD | MNT_FORCE);
374                 mp->mnt_kern_flag &=~ MNTK_WANTRDWR;
375                 if (error) {
376                         mp->mnt_flag = flag;
377                         mp->mnt_kern_flag = flag2;
378                 }
379                 vfs_unbusy(mp);
380                 vp->v_flag &= ~VMOUNT;
381                 vrele(vp);
382                 cache_drop(&nch);
383                 goto done;
384         }
385         vn_lock(vp, LK_EXCLUSIVE | LK_RETRY);
386         /*
387          * Put the new filesystem on the mount list after root.  The mount
388          * point gets its own mnt_ncmountpt (unless the VFS already set one
389          * up) which represents the root of the mount.  The lookup code
390          * detects the mount point going forward and checks the root of
391          * the mount going backwards.
392          *
393          * It is not necessary to invalidate or purge the vnode underneath
394          * because elements under the mount will be given their own glue
395          * namecache record.
396          */
397         if (!error) {
398                 if (mp->mnt_ncmountpt.ncp == NULL) {
399                         /* 
400                          * allocate, then unlock, but leave the ref intact 
401                          */
402                         cache_allocroot(&mp->mnt_ncmountpt, mp, NULL);
403                         cache_unlock(&mp->mnt_ncmountpt);
404                 }
405                 mp->mnt_ncmounton = nch;                /* inherits ref */
406                 nch.ncp->nc_flag |= NCF_ISMOUNTPT;
407
408                 /* XXX get the root of the fs and cache_setvp(mnt_ncmountpt...) */
409                 vp->v_flag &= ~VMOUNT;
410                 mountlist_insert(mp, MNTINS_LAST);
411                 vn_unlock(vp);
412                 checkdirs(&mp->mnt_ncmounton, &mp->mnt_ncmountpt);
413                 error = vfs_allocate_syncvnode(mp);
414                 vfs_unbusy(mp);
415                 error = VFS_START(mp, 0);
416                 vrele(vp);
417         } else {
418                 vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_coherency_ops);
419                 vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_journal_ops);
420                 vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_norm_ops);
421                 vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_spec_ops);
422                 vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_fifo_ops);
423                 vp->v_flag &= ~VMOUNT;
424                 mp->mnt_vfc->vfc_refcount--;
425                 vfs_unbusy(mp);
426                 kfree(mp, M_MOUNT);
427                 cache_drop(&nch);
428                 vput(vp);
429         }
430 done:
431         rel_mplock();
432         return (error);
433 }
434
435 /*
436  * Scan all active processes to see if any of them have a current
437  * or root directory onto which the new filesystem has just been
438  * mounted. If so, replace them with the new mount point.
439  *
440  * The passed ncp is ref'd and locked (from the mount code) and
441  * must be associated with the vnode representing the root of the
442  * mount point.
443  */
444 struct checkdirs_info {
445         struct nchandle old_nch;
446         struct nchandle new_nch;
447         struct vnode *old_vp;
448         struct vnode *new_vp;
449 };
450
451 static int checkdirs_callback(struct proc *p, void *data);
452
453 static void
454 checkdirs(struct nchandle *old_nch, struct nchandle *new_nch)
455 {
456         struct checkdirs_info info;
457         struct vnode *olddp;
458         struct vnode *newdp;
459         struct mount *mp;
460
461         /*
462          * If the old mount point's vnode has a usecount of 1, it is not
463          * being held as a descriptor anywhere.
464          */
465         olddp = old_nch->ncp->nc_vp;
466         if (olddp == NULL || olddp->v_sysref.refcnt == 1)
467                 return;
468
469         /*
470          * Force the root vnode of the new mount point to be resolved
471          * so we can update any matching processes.
472          */
473         mp = new_nch->mount;
474         if (VFS_ROOT(mp, &newdp))
475                 panic("mount: lost mount");
476         cache_setunresolved(new_nch);
477         cache_setvp(new_nch, newdp);
478
479         /*
480          * Special handling of the root node
481          */
482         if (rootvnode == olddp) {
483                 vref(newdp);
484                 vfs_cache_setroot(newdp, cache_hold(new_nch));
485         }
486
487         /*
488          * Pass newdp separately so the callback does not have to access
489          * it via new_nch->ncp->nc_vp.
490          */
491         info.old_nch = *old_nch;
492         info.new_nch = *new_nch;
493         info.new_vp = newdp;
494         allproc_scan(checkdirs_callback, &info);
495         vput(newdp);
496 }
497
498 /*
499  * NOTE: callback is not MP safe because the scanned process's filedesc
500  * structure can be ripped out from under us, amoung other things.
501  */
502 static int
503 checkdirs_callback(struct proc *p, void *data)
504 {
505         struct checkdirs_info *info = data;
506         struct filedesc *fdp;
507         struct nchandle ncdrop1;
508         struct nchandle ncdrop2;
509         struct vnode *vprele1;
510         struct vnode *vprele2;
511
512         if ((fdp = p->p_fd) != NULL) {
513                 cache_zero(&ncdrop1);
514                 cache_zero(&ncdrop2);
515                 vprele1 = NULL;
516                 vprele2 = NULL;
517
518                 /*
519                  * MPUNSAFE - XXX fdp can be pulled out from under a
520                  * foreign process.
521                  *
522                  * A shared filedesc is ok, we don't have to copy it
523                  * because we are making this change globally.
524                  */
525                 spin_lock_wr(&fdp->fd_spin);
526                 if (fdp->fd_ncdir.mount == info->old_nch.mount &&
527                     fdp->fd_ncdir.ncp == info->old_nch.ncp) {
528                         vprele1 = fdp->fd_cdir;
529                         vref(info->new_vp);
530                         fdp->fd_cdir = info->new_vp;
531                         ncdrop1 = fdp->fd_ncdir;
532                         cache_copy(&info->new_nch, &fdp->fd_ncdir);
533                 }
534                 if (fdp->fd_nrdir.mount == info->old_nch.mount &&
535                     fdp->fd_nrdir.ncp == info->old_nch.ncp) {
536                         vprele2 = fdp->fd_rdir;
537                         vref(info->new_vp);
538                         fdp->fd_rdir = info->new_vp;
539                         ncdrop2 = fdp->fd_nrdir;
540                         cache_copy(&info->new_nch, &fdp->fd_nrdir);
541                 }
542                 spin_unlock_wr(&fdp->fd_spin);
543                 if (ncdrop1.ncp)
544                         cache_drop(&ncdrop1);
545                 if (ncdrop2.ncp)
546                         cache_drop(&ncdrop2);
547                 if (vprele1)
548                         vrele(vprele1);
549                 if (vprele2)
550                         vrele(vprele2);
551         }
552         return(0);
553 }
554
555 /*
556  * Unmount a file system.
557  *
558  * Note: unmount takes a path to the vnode mounted on as argument,
559  * not special file (as before).
560  *
561  * umount_args(char *path, int flags)
562  *
563  * MPALMOSTSAFE
564  */
565 int
566 sys_unmount(struct unmount_args *uap)
567 {
568         struct thread *td = curthread;
569         struct proc *p __debugvar = td->td_proc;
570         struct mount *mp = NULL;
571         struct nlookupdata nd;
572         int error;
573
574         KKASSERT(p);
575         get_mplock();
576         if (td->td_ucred->cr_prison != NULL) {
577                 error = EPERM;
578                 goto done;
579         }
580         if (usermount == 0 && (error = priv_check(td, PRIV_ROOT)))
581                 goto done;
582
583         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
584         if (error == 0)
585                 error = nlookup(&nd);
586         if (error)
587                 goto out;
588
589         mp = nd.nl_nch.mount;
590
591         /*
592          * Only root, or the user that did the original mount is
593          * permitted to unmount this filesystem.
594          */
595         if ((mp->mnt_stat.f_owner != td->td_ucred->cr_uid) &&
596             (error = priv_check(td, PRIV_ROOT)))
597                 goto out;
598
599         /*
600          * Don't allow unmounting the root file system.
601          */
602         if (mp->mnt_flag & MNT_ROOTFS) {
603                 error = EINVAL;
604                 goto out;
605         }
606
607         /*
608          * Must be the root of the filesystem
609          */
610         if (nd.nl_nch.ncp != mp->mnt_ncmountpt.ncp) {
611                 error = EINVAL;
612                 goto out;
613         }
614
615 out:
616         nlookup_done(&nd);
617         if (error == 0)
618                 error = dounmount(mp, uap->flags);
619 done:
620         rel_mplock();
621         return (error);
622 }
623
624 /*
625  * Do the actual file system unmount.
626  */
627 static int
628 dounmount_interlock(struct mount *mp)
629 {
630         if (mp->mnt_kern_flag & MNTK_UNMOUNT)
631                 return (EBUSY);
632         mp->mnt_kern_flag |= MNTK_UNMOUNT;
633         return(0);
634 }
635
636 int
637 dounmount(struct mount *mp, int flags)
638 {
639         struct namecache *ncp;
640         struct nchandle nch;
641         struct vnode *vp;
642         int error;
643         int async_flag;
644         int lflags;
645         int freeok = 1;
646
647         /*
648          * Exclusive access for unmounting purposes
649          */
650         if ((error = mountlist_interlock(dounmount_interlock, mp)) != 0)
651                 return (error);
652
653         /*
654          * Allow filesystems to detect that a forced unmount is in progress.
655          */
656         if (flags & MNT_FORCE)
657                 mp->mnt_kern_flag |= MNTK_UNMOUNTF;
658         lflags = LK_EXCLUSIVE | ((flags & MNT_FORCE) ? 0 : LK_NOWAIT);
659         error = lockmgr(&mp->mnt_lock, lflags);
660         if (error) {
661                 mp->mnt_kern_flag &= ~(MNTK_UNMOUNT | MNTK_UNMOUNTF);
662                 if (mp->mnt_kern_flag & MNTK_MWAIT)
663                         wakeup(mp);
664                 return (error);
665         }
666
667         if (mp->mnt_flag & MNT_EXPUBLIC)
668                 vfs_setpublicfs(NULL, NULL, NULL);
669
670         vfs_msync(mp, MNT_WAIT);
671         async_flag = mp->mnt_flag & MNT_ASYNC;
672         mp->mnt_flag &=~ MNT_ASYNC;
673
674         /*
675          * If this filesystem isn't aliasing other filesystems,
676          * try to invalidate any remaining namecache entries and
677          * check the count afterwords.
678          */
679         if ((mp->mnt_kern_flag & MNTK_NCALIASED) == 0) {
680                 cache_lock(&mp->mnt_ncmountpt);
681                 cache_inval(&mp->mnt_ncmountpt, CINV_DESTROY|CINV_CHILDREN);
682                 cache_unlock(&mp->mnt_ncmountpt);
683
684                 if ((ncp = mp->mnt_ncmountpt.ncp) != NULL &&
685                     (ncp->nc_refs != 1 || TAILQ_FIRST(&ncp->nc_list))) {
686
687                         if ((flags & MNT_FORCE) == 0) {
688                                 error = EBUSY;
689                                 mount_warning(mp, "Cannot unmount: "
690                                                   "%d namecache "
691                                                   "references still "
692                                                   "present",
693                                                   ncp->nc_refs - 1);
694                         } else {
695                                 mount_warning(mp, "Forced unmount: "
696                                                   "%d namecache "
697                                                   "references still "
698                                                   "present",
699                                                   ncp->nc_refs - 1);
700                                 freeok = 0;
701                         }
702                 }
703         }
704
705         /*
706          * nchandle records ref the mount structure.  Expect a count of 1
707          * (our mount->mnt_ncmountpt).
708          */
709         if (mp->mnt_refs != 1) {
710                 if ((flags & MNT_FORCE) == 0) {
711                         mount_warning(mp, "Cannot unmount: "
712                                           "%d process references still "
713                                           "present", mp->mnt_refs);
714                         error = EBUSY;
715                 } else {
716                         mount_warning(mp, "Forced unmount: "
717                                           "%d process references still "
718                                           "present", mp->mnt_refs);
719                         freeok = 0;
720                 }
721         }
722
723         /*
724          * Decomission our special mnt_syncer vnode.  This also stops
725          * the vnlru code.  If we are unable to unmount we recommission
726          * the vnode.
727          */
728         if (error == 0) {
729                 if ((vp = mp->mnt_syncer) != NULL) {
730                         mp->mnt_syncer = NULL;
731                         vrele(vp);
732                 }
733                 if (((mp->mnt_flag & MNT_RDONLY) ||
734                      (error = VFS_SYNC(mp, MNT_WAIT)) == 0) ||
735                     (flags & MNT_FORCE)) {
736                         error = VFS_UNMOUNT(mp, flags);
737                 }
738         }
739         if (error) {
740                 if (mp->mnt_syncer == NULL)
741                         vfs_allocate_syncvnode(mp);
742                 mp->mnt_kern_flag &= ~(MNTK_UNMOUNT | MNTK_UNMOUNTF);
743                 mp->mnt_flag |= async_flag;
744                 lockmgr(&mp->mnt_lock, LK_RELEASE);
745                 if (mp->mnt_kern_flag & MNTK_MWAIT)
746                         wakeup(mp);
747                 return (error);
748         }
749         /*
750          * Clean up any journals still associated with the mount after
751          * filesystem activity has ceased.
752          */
753         journal_remove_all_journals(mp, 
754             ((flags & MNT_FORCE) ? MC_JOURNAL_STOP_IMM : 0));
755
756         mountlist_remove(mp);
757
758         /*
759          * Remove any installed vnode ops here so the individual VFSs don't
760          * have to.
761          */
762         vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_coherency_ops);
763         vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_journal_ops);
764         vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_norm_ops);
765         vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_spec_ops);
766         vfs_rm_vnodeops(mp, NULL, &mp->mnt_vn_fifo_ops);
767
768         if (mp->mnt_ncmountpt.ncp != NULL) {
769                 nch = mp->mnt_ncmountpt;
770                 cache_zero(&mp->mnt_ncmountpt);
771                 cache_clrmountpt(&nch);
772                 cache_drop(&nch);
773         }
774         if (mp->mnt_ncmounton.ncp != NULL) {
775                 nch = mp->mnt_ncmounton;
776                 cache_zero(&mp->mnt_ncmounton);
777                 cache_clrmountpt(&nch);
778                 cache_drop(&nch);
779         }
780
781         mp->mnt_vfc->vfc_refcount--;
782         if (!TAILQ_EMPTY(&mp->mnt_nvnodelist))
783                 panic("unmount: dangling vnode");
784         lockmgr(&mp->mnt_lock, LK_RELEASE);
785         if (mp->mnt_kern_flag & MNTK_MWAIT)
786                 wakeup(mp);
787         if (freeok)
788                 kfree(mp, M_MOUNT);
789         return (0);
790 }
791
792 static
793 void
794 mount_warning(struct mount *mp, const char *ctl, ...)
795 {
796         char *ptr;
797         char *buf;
798         __va_list va;
799
800         __va_start(va, ctl);
801         if (cache_fullpath(NULL, &mp->mnt_ncmounton, &ptr, &buf) == 0) {
802                 kprintf("unmount(%s): ", ptr);
803                 kvprintf(ctl, va);
804                 kprintf("\n");
805                 kfree(buf, M_TEMP);
806         } else {
807                 kprintf("unmount(%p", mp);
808                 if (mp->mnt_ncmounton.ncp && mp->mnt_ncmounton.ncp->nc_name)
809                         kprintf(",%s", mp->mnt_ncmounton.ncp->nc_name);
810                 kprintf("): ");
811                 kvprintf(ctl, va);
812                 kprintf("\n");
813         }
814         __va_end(va);
815 }
816
817 /*
818  * Shim cache_fullpath() to handle the case where a process is chrooted into
819  * a subdirectory of a mount.  In this case if the root mount matches the
820  * process root directory's mount we have to specify the process's root
821  * directory instead of the mount point, because the mount point might
822  * be above the root directory.
823  */
824 static
825 int
826 mount_path(struct proc *p, struct mount *mp, char **rb, char **fb)
827 {
828         struct nchandle *nch;
829
830         if (p && p->p_fd->fd_nrdir.mount == mp)
831                 nch = &p->p_fd->fd_nrdir;
832         else
833                 nch = &mp->mnt_ncmountpt;
834         return(cache_fullpath(p, nch, rb, fb));
835 }
836
837 /*
838  * Sync each mounted filesystem.
839  */
840
841 #ifdef DEBUG
842 static int syncprt = 0;
843 SYSCTL_INT(_debug, OID_AUTO, syncprt, CTLFLAG_RW, &syncprt, 0, "");
844 #endif /* DEBUG */
845
846 static int sync_callback(struct mount *mp, void *data);
847
848 /*
849  * MPALMOSTSAFE
850  */
851 int
852 sys_sync(struct sync_args *uap)
853 {
854         get_mplock();
855         mountlist_scan(sync_callback, NULL, MNTSCAN_FORWARD);
856 #ifdef DEBUG
857         /*
858          * print out buffer pool stat information on each sync() call.
859          */
860         if (syncprt)
861                 vfs_bufstats();
862 #endif /* DEBUG */
863         rel_mplock();
864         return (0);
865 }
866
867 static
868 int
869 sync_callback(struct mount *mp, void *data __unused)
870 {
871         int asyncflag;
872
873         if ((mp->mnt_flag & MNT_RDONLY) == 0) {
874                 asyncflag = mp->mnt_flag & MNT_ASYNC;
875                 mp->mnt_flag &= ~MNT_ASYNC;
876                 vfs_msync(mp, MNT_NOWAIT);
877                 VFS_SYNC(mp, MNT_NOWAIT);
878                 mp->mnt_flag |= asyncflag;
879         }
880         return(0);
881 }
882
883 /* XXX PRISON: could be per prison flag */
884 static int prison_quotas;
885 #if 0
886 SYSCTL_INT(_kern_prison, OID_AUTO, quotas, CTLFLAG_RW, &prison_quotas, 0, "");
887 #endif
888
889 /*
890  *  quotactl_args(char *path, int fcmd, int uid, caddr_t arg)
891  *
892  * Change filesystem quotas.
893  *
894  * MPALMOSTSAFE
895  */
896 int
897 sys_quotactl(struct quotactl_args *uap)
898 {
899         struct nlookupdata nd;
900         struct thread *td;
901         struct proc *p;
902         struct mount *mp;
903         int error;
904
905         get_mplock();
906         td = curthread;
907         p = td->td_proc;
908         if (td->td_ucred->cr_prison && !prison_quotas) {
909                 error = EPERM;
910                 goto done;
911         }
912
913         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
914         if (error == 0)
915                 error = nlookup(&nd);
916         if (error == 0) {
917                 mp = nd.nl_nch.mount;
918                 error = VFS_QUOTACTL(mp, uap->cmd, uap->uid,
919                                     uap->arg, nd.nl_cred);
920         }
921         nlookup_done(&nd);
922 done:
923         rel_mplock();
924         return (error);
925 }
926
927 /*
928  * mountctl(char *path, int op, int fd, const void *ctl, int ctllen,
929  *              void *buf, int buflen)
930  *
931  * This function operates on a mount point and executes the specified
932  * operation using the specified control data, and possibly returns data.
933  *
934  * The actual number of bytes stored in the result buffer is returned, 0
935  * if none, otherwise an error is returned.
936  *
937  * MPALMOSTSAFE
938  */
939 int
940 sys_mountctl(struct mountctl_args *uap)
941 {
942         struct thread *td = curthread;
943         struct proc *p = td->td_proc;
944         struct file *fp;
945         void *ctl = NULL;
946         void *buf = NULL;
947         char *path = NULL;
948         int error;
949
950         /*
951          * Sanity and permissions checks.  We must be root.
952          */
953         KKASSERT(p);
954         if (td->td_ucred->cr_prison != NULL)
955                 return (EPERM);
956         if ((uap->op != MOUNTCTL_MOUNTFLAGS) &&
957             (error = priv_check(td, PRIV_ROOT)) != 0)
958                 return (error);
959
960         /*
961          * Argument length checks
962          */
963         if (uap->ctllen < 0 || uap->ctllen > 1024)
964                 return (EINVAL);
965         if (uap->buflen < 0 || uap->buflen > 16 * 1024)
966                 return (EINVAL);
967         if (uap->path == NULL)
968                 return (EINVAL);
969
970         /*
971          * Allocate the necessary buffers and copyin data
972          */
973         path = objcache_get(namei_oc, M_WAITOK);
974         error = copyinstr(uap->path, path, MAXPATHLEN, NULL);
975         if (error)
976                 goto done;
977
978         if (uap->ctllen) {
979                 ctl = kmalloc(uap->ctllen + 1, M_TEMP, M_WAITOK|M_ZERO);
980                 error = copyin(uap->ctl, ctl, uap->ctllen);
981                 if (error)
982                         goto done;
983         }
984         if (uap->buflen)
985                 buf = kmalloc(uap->buflen + 1, M_TEMP, M_WAITOK|M_ZERO);
986
987         /*
988          * Validate the descriptor
989          */
990         if (uap->fd >= 0) {
991                 fp = holdfp(p->p_fd, uap->fd, -1);
992                 if (fp == NULL) {
993                         error = EBADF;
994                         goto done;
995                 }
996         } else {
997                 fp = NULL;
998         }
999
1000         /*
1001          * Execute the internal kernel function and clean up.
1002          */
1003         get_mplock();
1004         error = kern_mountctl(path, uap->op, fp, ctl, uap->ctllen, buf, uap->buflen, &uap->sysmsg_result);
1005         rel_mplock();
1006         if (fp)
1007                 fdrop(fp);
1008         if (error == 0 && uap->sysmsg_result > 0)
1009                 error = copyout(buf, uap->buf, uap->sysmsg_result);
1010 done:
1011         if (path)
1012                 objcache_put(namei_oc, path);
1013         if (ctl)
1014                 kfree(ctl, M_TEMP);
1015         if (buf)
1016                 kfree(buf, M_TEMP);
1017         return (error);
1018 }
1019
1020 /*
1021  * Execute a mount control operation by resolving the path to a mount point
1022  * and calling vop_mountctl().  
1023  *
1024  * Use the mount point from the nch instead of the vnode so nullfs mounts
1025  * can properly spike the VOP.
1026  */
1027 int
1028 kern_mountctl(const char *path, int op, struct file *fp, 
1029                 const void *ctl, int ctllen, 
1030                 void *buf, int buflen, int *res)
1031 {
1032         struct vnode *vp;
1033         struct mount *mp;
1034         struct nlookupdata nd;
1035         int error;
1036
1037         *res = 0;
1038         vp = NULL;
1039         error = nlookup_init(&nd, path, UIO_SYSSPACE, NLC_FOLLOW);
1040         if (error == 0)
1041                 error = nlookup(&nd);
1042         if (error == 0)
1043                 error = cache_vget(&nd.nl_nch, nd.nl_cred, LK_EXCLUSIVE, &vp);
1044         mp = nd.nl_nch.mount;
1045         nlookup_done(&nd);
1046         if (error)
1047                 return (error);
1048         vn_unlock(vp);
1049
1050         /*
1051          * Must be the root of the filesystem
1052          */
1053         if ((vp->v_flag & (VROOT|VPFSROOT)) == 0) {
1054                 vrele(vp);
1055                 return (EINVAL);
1056         }
1057         error = vop_mountctl(mp->mnt_vn_use_ops, vp, op, fp, ctl, ctllen,
1058                              buf, buflen, res);
1059         vrele(vp);
1060         return (error);
1061 }
1062
1063 int
1064 kern_statfs(struct nlookupdata *nd, struct statfs *buf)
1065 {
1066         struct thread *td = curthread;
1067         struct proc *p = td->td_proc;
1068         struct mount *mp;
1069         struct statfs *sp;
1070         char *fullpath, *freepath;
1071         int error;
1072
1073         if ((error = nlookup(nd)) != 0)
1074                 return (error);
1075         mp = nd->nl_nch.mount;
1076         sp = &mp->mnt_stat;
1077         if ((error = VFS_STATFS(mp, sp, nd->nl_cred)) != 0)
1078                 return (error);
1079
1080         error = mount_path(p, mp, &fullpath, &freepath);
1081         if (error)
1082                 return(error);
1083         bzero(sp->f_mntonname, sizeof(sp->f_mntonname));
1084         strlcpy(sp->f_mntonname, fullpath, sizeof(sp->f_mntonname));
1085         kfree(freepath, M_TEMP);
1086
1087         sp->f_flags = mp->mnt_flag & MNT_VISFLAGMASK;
1088         bcopy(sp, buf, sizeof(*buf));
1089         /* Only root should have access to the fsid's. */
1090         if (priv_check(td, PRIV_ROOT))
1091                 buf->f_fsid.val[0] = buf->f_fsid.val[1] = 0;
1092         return (0);
1093 }
1094
1095 /*
1096  * statfs_args(char *path, struct statfs *buf)
1097  *
1098  * Get filesystem statistics.
1099  *
1100  * MPALMOSTSAFE
1101  */
1102 int
1103 sys_statfs(struct statfs_args *uap)
1104 {
1105         struct nlookupdata nd;
1106         struct statfs buf;
1107         int error;
1108
1109         get_mplock();
1110         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
1111         if (error == 0)
1112                 error = kern_statfs(&nd, &buf);
1113         nlookup_done(&nd);
1114         if (error == 0)
1115                 error = copyout(&buf, uap->buf, sizeof(*uap->buf));
1116         rel_mplock();
1117         return (error);
1118 }
1119
1120 /*
1121  * MPALMOSTSAFE
1122  */
1123 int
1124 kern_fstatfs(int fd, struct statfs *buf)
1125 {
1126         struct thread *td = curthread;
1127         struct proc *p = td->td_proc;
1128         struct file *fp;
1129         struct mount *mp;
1130         struct statfs *sp;
1131         char *fullpath, *freepath;
1132         int error;
1133
1134         KKASSERT(p);
1135         if ((error = holdvnode(p->p_fd, fd, &fp)) != 0)
1136                 return (error);
1137         get_mplock();
1138         mp = ((struct vnode *)fp->f_data)->v_mount;
1139         if (mp == NULL) {
1140                 error = EBADF;
1141                 goto done;
1142         }
1143         if (fp->f_cred == NULL) {
1144                 error = EINVAL;
1145                 goto done;
1146         }
1147         sp = &mp->mnt_stat;
1148         if ((error = VFS_STATFS(mp, sp, fp->f_cred)) != 0)
1149                 goto done;
1150
1151         if ((error = mount_path(p, mp, &fullpath, &freepath)) != 0)
1152                 goto done;
1153         bzero(sp->f_mntonname, sizeof(sp->f_mntonname));
1154         strlcpy(sp->f_mntonname, fullpath, sizeof(sp->f_mntonname));
1155         kfree(freepath, M_TEMP);
1156
1157         sp->f_flags = mp->mnt_flag & MNT_VISFLAGMASK;
1158         bcopy(sp, buf, sizeof(*buf));
1159
1160         /* Only root should have access to the fsid's. */
1161         if (priv_check(td, PRIV_ROOT))
1162                 buf->f_fsid.val[0] = buf->f_fsid.val[1] = 0;
1163         error = 0;
1164 done:
1165         rel_mplock();
1166         fdrop(fp);
1167         return (error);
1168 }
1169
1170 /*
1171  * fstatfs_args(int fd, struct statfs *buf)
1172  *
1173  * Get filesystem statistics.
1174  *
1175  * MPSAFE
1176  */
1177 int
1178 sys_fstatfs(struct fstatfs_args *uap)
1179 {
1180         struct statfs buf;
1181         int error;
1182
1183         error = kern_fstatfs(uap->fd, &buf);
1184
1185         if (error == 0)
1186                 error = copyout(&buf, uap->buf, sizeof(*uap->buf));
1187         return (error);
1188 }
1189
1190 int
1191 kern_statvfs(struct nlookupdata *nd, struct statvfs *buf)
1192 {
1193         struct mount *mp;
1194         struct statvfs *sp;
1195         int error;
1196
1197         if ((error = nlookup(nd)) != 0)
1198                 return (error);
1199         mp = nd->nl_nch.mount;
1200         sp = &mp->mnt_vstat;
1201         if ((error = VFS_STATVFS(mp, sp, nd->nl_cred)) != 0)
1202                 return (error);
1203
1204         sp->f_flag = 0;
1205         if (mp->mnt_flag & MNT_RDONLY)
1206                 sp->f_flag |= ST_RDONLY;
1207         if (mp->mnt_flag & MNT_NOSUID)
1208                 sp->f_flag |= ST_NOSUID;
1209         bcopy(sp, buf, sizeof(*buf));
1210         return (0);
1211 }
1212
1213 /*
1214  * statfs_args(char *path, struct statfs *buf)
1215  *
1216  * Get filesystem statistics.
1217  *
1218  * MPALMOSTSAFE
1219  */
1220 int
1221 sys_statvfs(struct statvfs_args *uap)
1222 {
1223         struct nlookupdata nd;
1224         struct statvfs buf;
1225         int error;
1226
1227         get_mplock();
1228         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
1229         if (error == 0)
1230                 error = kern_statvfs(&nd, &buf);
1231         nlookup_done(&nd);
1232         if (error == 0)
1233                 error = copyout(&buf, uap->buf, sizeof(*uap->buf));
1234         rel_mplock();
1235         return (error);
1236 }
1237
1238 int
1239 kern_fstatvfs(int fd, struct statvfs *buf)
1240 {
1241         struct thread *td = curthread;
1242         struct proc *p = td->td_proc;
1243         struct file *fp;
1244         struct mount *mp;
1245         struct statvfs *sp;
1246         int error;
1247
1248         KKASSERT(p);
1249         if ((error = holdvnode(p->p_fd, fd, &fp)) != 0)
1250                 return (error);
1251         mp = ((struct vnode *)fp->f_data)->v_mount;
1252         if (mp == NULL) {
1253                 error = EBADF;
1254                 goto done;
1255         }
1256         if (fp->f_cred == NULL) {
1257                 error = EINVAL;
1258                 goto done;
1259         }
1260         sp = &mp->mnt_vstat;
1261         if ((error = VFS_STATVFS(mp, sp, fp->f_cred)) != 0)
1262                 goto done;
1263
1264         sp->f_flag = 0;
1265         if (mp->mnt_flag & MNT_RDONLY)
1266                 sp->f_flag |= ST_RDONLY;
1267         if (mp->mnt_flag & MNT_NOSUID)
1268                 sp->f_flag |= ST_NOSUID;
1269
1270         bcopy(sp, buf, sizeof(*buf));
1271         error = 0;
1272 done:
1273         fdrop(fp);
1274         return (error);
1275 }
1276
1277 /*
1278  * fstatfs_args(int fd, struct statfs *buf)
1279  *
1280  * Get filesystem statistics.
1281  *
1282  * MPALMOSTSAFE
1283  */
1284 int
1285 sys_fstatvfs(struct fstatvfs_args *uap)
1286 {
1287         struct statvfs buf;
1288         int error;
1289
1290         get_mplock();
1291         error = kern_fstatvfs(uap->fd, &buf);
1292         rel_mplock();
1293
1294         if (error == 0)
1295                 error = copyout(&buf, uap->buf, sizeof(*uap->buf));
1296         return (error);
1297 }
1298
1299 /*
1300  * getfsstat_args(struct statfs *buf, long bufsize, int flags)
1301  *
1302  * Get statistics on all filesystems.
1303  */
1304
1305 struct getfsstat_info {
1306         struct statfs *sfsp;
1307         long count;
1308         long maxcount;
1309         int error;
1310         int flags;
1311         struct thread *td;
1312 };
1313
1314 static int getfsstat_callback(struct mount *, void *);
1315
1316 /*
1317  * MPALMOSTSAFE
1318  */
1319 int
1320 sys_getfsstat(struct getfsstat_args *uap)
1321 {
1322         struct thread *td = curthread;
1323         struct getfsstat_info info;
1324
1325         bzero(&info, sizeof(info));
1326
1327         info.maxcount = uap->bufsize / sizeof(struct statfs);
1328         info.sfsp = uap->buf;
1329         info.count = 0;
1330         info.flags = uap->flags;
1331         info.td = td;
1332
1333         get_mplock();
1334         mountlist_scan(getfsstat_callback, &info, MNTSCAN_FORWARD);
1335         rel_mplock();
1336         if (info.sfsp && info.count > info.maxcount)
1337                 uap->sysmsg_result = info.maxcount;
1338         else
1339                 uap->sysmsg_result = info.count;
1340         return (info.error);
1341 }
1342
1343 static int
1344 getfsstat_callback(struct mount *mp, void *data)
1345 {
1346         struct getfsstat_info *info = data;
1347         struct statfs *sp;
1348         char *freepath;
1349         char *fullpath;
1350         int error;
1351
1352         if (info->sfsp && info->count < info->maxcount) {
1353                 if (info->td->td_proc &&
1354                     !chroot_visible_mnt(mp, info->td->td_proc)) {
1355                         return(0);
1356                 }
1357                 sp = &mp->mnt_stat;
1358
1359                 /*
1360                  * If MNT_NOWAIT or MNT_LAZY is specified, do not
1361                  * refresh the fsstat cache. MNT_NOWAIT or MNT_LAZY
1362                  * overrides MNT_WAIT.
1363                  */
1364                 if (((info->flags & (MNT_LAZY|MNT_NOWAIT)) == 0 ||
1365                     (info->flags & MNT_WAIT)) &&
1366                     (error = VFS_STATFS(mp, sp, info->td->td_ucred))) {
1367                         return(0);
1368                 }
1369                 sp->f_flags = mp->mnt_flag & MNT_VISFLAGMASK;
1370
1371                 error = mount_path(info->td->td_proc, mp, &fullpath, &freepath);
1372                 if (error) {
1373                         info->error = error;
1374                         return(-1);
1375                 }
1376                 bzero(sp->f_mntonname, sizeof(sp->f_mntonname));
1377                 strlcpy(sp->f_mntonname, fullpath, sizeof(sp->f_mntonname));
1378                 kfree(freepath, M_TEMP);
1379
1380                 error = copyout(sp, info->sfsp, sizeof(*sp));
1381                 if (error) {
1382                         info->error = error;
1383                         return (-1);
1384                 }
1385                 ++info->sfsp;
1386         }
1387         info->count++;
1388         return(0);
1389 }
1390
1391 /*
1392  * getvfsstat_args(struct statfs *buf, struct statvfs *vbuf,
1393                    long bufsize, int flags)
1394  *
1395  * Get statistics on all filesystems.
1396  */
1397
1398 struct getvfsstat_info {
1399         struct statfs *sfsp;
1400         struct statvfs *vsfsp;
1401         long count;
1402         long maxcount;
1403         int error;
1404         int flags;
1405         struct thread *td;
1406 };
1407
1408 static int getvfsstat_callback(struct mount *, void *);
1409
1410 /*
1411  * MPALMOSTSAFE
1412  */
1413 int
1414 sys_getvfsstat(struct getvfsstat_args *uap)
1415 {
1416         struct thread *td = curthread;
1417         struct getvfsstat_info info;
1418
1419         bzero(&info, sizeof(info));
1420
1421         info.maxcount = uap->vbufsize / sizeof(struct statvfs);
1422         info.sfsp = uap->buf;
1423         info.vsfsp = uap->vbuf;
1424         info.count = 0;
1425         info.flags = uap->flags;
1426         info.td = td;
1427
1428         get_mplock();
1429         mountlist_scan(getvfsstat_callback, &info, MNTSCAN_FORWARD);
1430         if (info.vsfsp && info.count > info.maxcount)
1431                 uap->sysmsg_result = info.maxcount;
1432         else
1433                 uap->sysmsg_result = info.count;
1434         rel_mplock();
1435         return (info.error);
1436 }
1437
1438 static int
1439 getvfsstat_callback(struct mount *mp, void *data)
1440 {
1441         struct getvfsstat_info *info = data;
1442         struct statfs *sp;
1443         struct statvfs *vsp;
1444         char *freepath;
1445         char *fullpath;
1446         int error;
1447
1448         if (info->vsfsp && info->count < info->maxcount) {
1449                 if (info->td->td_proc &&
1450                     !chroot_visible_mnt(mp, info->td->td_proc)) {
1451                         return(0);
1452                 }
1453                 sp = &mp->mnt_stat;
1454                 vsp = &mp->mnt_vstat;
1455
1456                 /*
1457                  * If MNT_NOWAIT or MNT_LAZY is specified, do not
1458                  * refresh the fsstat cache. MNT_NOWAIT or MNT_LAZY
1459                  * overrides MNT_WAIT.
1460                  */
1461                 if (((info->flags & (MNT_LAZY|MNT_NOWAIT)) == 0 ||
1462                     (info->flags & MNT_WAIT)) &&
1463                     (error = VFS_STATFS(mp, sp, info->td->td_ucred))) {
1464                         return(0);
1465                 }
1466                 sp->f_flags = mp->mnt_flag & MNT_VISFLAGMASK;
1467
1468                 if (((info->flags & (MNT_LAZY|MNT_NOWAIT)) == 0 ||
1469                     (info->flags & MNT_WAIT)) &&
1470                     (error = VFS_STATVFS(mp, vsp, info->td->td_ucred))) {
1471                         return(0);
1472                 }
1473                 vsp->f_flag = 0;
1474                 if (mp->mnt_flag & MNT_RDONLY)
1475                         vsp->f_flag |= ST_RDONLY;
1476                 if (mp->mnt_flag & MNT_NOSUID)
1477                         vsp->f_flag |= ST_NOSUID;
1478
1479                 error = mount_path(info->td->td_proc, mp, &fullpath, &freepath);
1480                 if (error) {
1481                         info->error = error;
1482                         return(-1);
1483                 }
1484                 bzero(sp->f_mntonname, sizeof(sp->f_mntonname));
1485                 strlcpy(sp->f_mntonname, fullpath, sizeof(sp->f_mntonname));
1486                 kfree(freepath, M_TEMP);
1487
1488                 error = copyout(sp, info->sfsp, sizeof(*sp));
1489                 if (error == 0)
1490                         error = copyout(vsp, info->vsfsp, sizeof(*vsp));
1491                 if (error) {
1492                         info->error = error;
1493                         return (-1);
1494                 }
1495                 ++info->sfsp;
1496                 ++info->vsfsp;
1497         }
1498         info->count++;
1499         return(0);
1500 }
1501
1502
1503 /*
1504  * fchdir_args(int fd)
1505  *
1506  * Change current working directory to a given file descriptor.
1507  *
1508  * MPALMOSTSAFE
1509  */
1510 int
1511 sys_fchdir(struct fchdir_args *uap)
1512 {
1513         struct thread *td = curthread;
1514         struct proc *p = td->td_proc;
1515         struct filedesc *fdp = p->p_fd;
1516         struct vnode *vp, *ovp;
1517         struct mount *mp;
1518         struct file *fp;
1519         struct nchandle nch, onch, tnch;
1520         int error;
1521
1522         if ((error = holdvnode(fdp, uap->fd, &fp)) != 0)
1523                 return (error);
1524         get_mplock();
1525         vp = (struct vnode *)fp->f_data;
1526         vref(vp);
1527         vn_lock(vp, LK_EXCLUSIVE | LK_RETRY);
1528         if (fp->f_nchandle.ncp == NULL)
1529                 error = ENOTDIR;
1530         else
1531                 error = checkvp_chdir(vp, td);
1532         if (error) {
1533                 vput(vp);
1534                 goto done;
1535         }
1536         cache_copy(&fp->f_nchandle, &nch);
1537
1538         /*
1539          * If the ncp has become a mount point, traverse through
1540          * the mount point.
1541          */
1542
1543         while (!error && (nch.ncp->nc_flag & NCF_ISMOUNTPT) &&
1544                (mp = cache_findmount(&nch)) != NULL
1545         ) {
1546                 error = nlookup_mp(mp, &tnch);
1547                 if (error == 0) {
1548                         cache_unlock(&tnch);    /* leave ref intact */
1549                         vput(vp);
1550                         vp = tnch.ncp->nc_vp;
1551                         error = vget(vp, LK_SHARED);
1552                         KKASSERT(error == 0);
1553                         cache_drop(&nch);
1554                         nch = tnch;
1555                 }
1556         }
1557         if (error == 0) {
1558                 ovp = fdp->fd_cdir;
1559                 onch = fdp->fd_ncdir;
1560                 vn_unlock(vp);          /* leave ref intact */
1561                 fdp->fd_cdir = vp;
1562                 fdp->fd_ncdir = nch;
1563                 cache_drop(&onch);
1564                 vrele(ovp);
1565         } else {
1566                 cache_drop(&nch);
1567                 vput(vp);
1568         }
1569         fdrop(fp);
1570 done:
1571         rel_mplock();
1572         return (error);
1573 }
1574
1575 int
1576 kern_chdir(struct nlookupdata *nd)
1577 {
1578         struct thread *td = curthread;
1579         struct proc *p = td->td_proc;
1580         struct filedesc *fdp = p->p_fd;
1581         struct vnode *vp, *ovp;
1582         struct nchandle onch;
1583         int error;
1584
1585         if ((error = nlookup(nd)) != 0)
1586                 return (error);
1587         if ((vp = nd->nl_nch.ncp->nc_vp) == NULL)
1588                 return (ENOENT);
1589         if ((error = vget(vp, LK_SHARED)) != 0)
1590                 return (error);
1591
1592         error = checkvp_chdir(vp, td);
1593         vn_unlock(vp);
1594         if (error == 0) {
1595                 ovp = fdp->fd_cdir;
1596                 onch = fdp->fd_ncdir;
1597                 cache_unlock(&nd->nl_nch);      /* leave reference intact */
1598                 fdp->fd_ncdir = nd->nl_nch;
1599                 fdp->fd_cdir = vp;
1600                 cache_drop(&onch);
1601                 vrele(ovp);
1602                 cache_zero(&nd->nl_nch);
1603         } else {
1604                 vrele(vp);
1605         }
1606         return (error);
1607 }
1608
1609 /*
1610  * chdir_args(char *path)
1611  *
1612  * Change current working directory (``.'').
1613  *
1614  * MPALMOSTSAFE
1615  */
1616 int
1617 sys_chdir(struct chdir_args *uap)
1618 {
1619         struct nlookupdata nd;
1620         int error;
1621
1622         get_mplock();
1623         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
1624         if (error == 0)
1625                 error = kern_chdir(&nd);
1626         nlookup_done(&nd);
1627         rel_mplock();
1628         return (error);
1629 }
1630
1631 /*
1632  * Helper function for raised chroot(2) security function:  Refuse if
1633  * any filedescriptors are open directories.
1634  */
1635 static int
1636 chroot_refuse_vdir_fds(struct filedesc *fdp)
1637 {
1638         struct vnode *vp;
1639         struct file *fp;
1640         int error;
1641         int fd;
1642
1643         for (fd = 0; fd < fdp->fd_nfiles ; fd++) {
1644                 if ((error = holdvnode(fdp, fd, &fp)) != 0)
1645                         continue;
1646                 vp = (struct vnode *)fp->f_data;
1647                 if (vp->v_type != VDIR) {
1648                         fdrop(fp);
1649                         continue;
1650                 }
1651                 fdrop(fp);
1652                 return(EPERM);
1653         }
1654         return (0);
1655 }
1656
1657 /*
1658  * This sysctl determines if we will allow a process to chroot(2) if it
1659  * has a directory open:
1660  *      0: disallowed for all processes.
1661  *      1: allowed for processes that were not already chroot(2)'ed.
1662  *      2: allowed for all processes.
1663  */
1664
1665 static int chroot_allow_open_directories = 1;
1666
1667 SYSCTL_INT(_kern, OID_AUTO, chroot_allow_open_directories, CTLFLAG_RW,
1668      &chroot_allow_open_directories, 0, "");
1669
1670 /*
1671  * chroot to the specified namecache entry.  We obtain the vp from the
1672  * namecache data.  The passed ncp must be locked and referenced and will
1673  * remain locked and referenced on return.
1674  */
1675 int
1676 kern_chroot(struct nchandle *nch)
1677 {
1678         struct thread *td = curthread;
1679         struct proc *p = td->td_proc;
1680         struct filedesc *fdp = p->p_fd;
1681         struct vnode *vp;
1682         int error;
1683
1684         /*
1685          * Only privileged user can chroot
1686          */
1687         error = priv_check_cred(td->td_ucred, PRIV_VFS_CHROOT, 0);
1688         if (error)
1689                 return (error);
1690
1691         /*
1692          * Disallow open directory descriptors (fchdir() breakouts).
1693          */
1694         if (chroot_allow_open_directories == 0 ||
1695            (chroot_allow_open_directories == 1 && fdp->fd_rdir != rootvnode)) {
1696                 if ((error = chroot_refuse_vdir_fds(fdp)) != 0)
1697                         return (error);
1698         }
1699         if ((vp = nch->ncp->nc_vp) == NULL)
1700                 return (ENOENT);
1701
1702         if ((error = vget(vp, LK_SHARED)) != 0)
1703                 return (error);
1704
1705         /*
1706          * Check the validity of vp as a directory to change to and 
1707          * associate it with rdir/jdir.
1708          */
1709         error = checkvp_chdir(vp, td);
1710         vn_unlock(vp);                  /* leave reference intact */
1711         if (error == 0) {
1712                 vrele(fdp->fd_rdir);
1713                 fdp->fd_rdir = vp;      /* reference inherited by fd_rdir */
1714                 cache_drop(&fdp->fd_nrdir);
1715                 cache_copy(nch, &fdp->fd_nrdir);
1716                 if (fdp->fd_jdir == NULL) {
1717                         fdp->fd_jdir = vp;
1718                         vref(fdp->fd_jdir);
1719                         cache_copy(nch, &fdp->fd_njdir);
1720                 }
1721         } else {
1722                 vrele(vp);
1723         }
1724         return (error);
1725 }
1726
1727 /*
1728  * chroot_args(char *path)
1729  *
1730  * Change notion of root (``/'') directory.
1731  *
1732  * MPALMOSTSAFE
1733  */
1734 int
1735 sys_chroot(struct chroot_args *uap)
1736 {
1737         struct thread *td __debugvar = curthread;
1738         struct nlookupdata nd;
1739         int error;
1740
1741         KKASSERT(td->td_proc);
1742         get_mplock();
1743         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
1744         if (error == 0) {
1745                 nd.nl_flags |= NLC_EXEC;
1746                 error = nlookup(&nd);
1747                 if (error == 0)
1748                         error = kern_chroot(&nd.nl_nch);
1749         }
1750         nlookup_done(&nd);
1751         rel_mplock();
1752         return(error);
1753 }
1754
1755 /*
1756  * Common routine for chroot and chdir.  Given a locked, referenced vnode,
1757  * determine whether it is legal to chdir to the vnode.  The vnode's state
1758  * is not changed by this call.
1759  */
1760 int
1761 checkvp_chdir(struct vnode *vp, struct thread *td)
1762 {
1763         int error;
1764
1765         if (vp->v_type != VDIR)
1766                 error = ENOTDIR;
1767         else
1768                 error = VOP_EACCESS(vp, VEXEC, td->td_ucred);
1769         return (error);
1770 }
1771
1772 /*
1773  * MPSAFE
1774  */
1775 int
1776 kern_open(struct nlookupdata *nd, int oflags, int mode, int *res)
1777 {
1778         struct thread *td = curthread;
1779         struct proc *p = td->td_proc;
1780         struct lwp *lp = td->td_lwp;
1781         struct filedesc *fdp = p->p_fd;
1782         int cmode, flags;
1783         struct file *nfp;
1784         struct file *fp;
1785         struct vnode *vp;
1786         int type, indx, error;
1787         struct flock lf;
1788
1789         if ((oflags & O_ACCMODE) == O_ACCMODE)
1790                 return (EINVAL);
1791         flags = FFLAGS(oflags);
1792         error = falloc(lp, &nfp, NULL);
1793         if (error)
1794                 return (error);
1795         fp = nfp;
1796         cmode = ((mode &~ fdp->fd_cmask) & ALLPERMS) & ~S_ISTXT;
1797
1798         /*
1799          * XXX p_dupfd is a real mess.  It allows a device to return a
1800          * file descriptor to be duplicated rather then doing the open
1801          * itself.
1802          */
1803         lp->lwp_dupfd = -1;
1804
1805         /*
1806          * Call vn_open() to do the lookup and assign the vnode to the 
1807          * file pointer.  vn_open() does not change the ref count on fp
1808          * and the vnode, on success, will be inherited by the file pointer
1809          * and unlocked.
1810          */
1811         nd->nl_flags |= NLC_LOCKVP;
1812         error = vn_open(nd, fp, flags, cmode);
1813         nlookup_done(nd);
1814         if (error) {
1815                 /*
1816                  * handle special fdopen() case.  bleh.  dupfdopen() is
1817                  * responsible for dropping the old contents of ofiles[indx]
1818                  * if it succeeds.
1819                  *
1820                  * Note that fsetfd() will add a ref to fp which represents
1821                  * the fd_files[] assignment.  We must still drop our
1822                  * reference.
1823                  */
1824                 if ((error == ENODEV || error == ENXIO) && lp->lwp_dupfd >= 0) {
1825                         if (fdalloc(p, 0, &indx) == 0) {
1826                                 error = dupfdopen(fdp, indx, lp->lwp_dupfd, flags, error);
1827                                 if (error == 0) {
1828                                         *res = indx;
1829                                         fdrop(fp);      /* our ref */
1830                                         return (0);
1831                                 }
1832                                 fsetfd(fdp, NULL, indx);
1833                         }
1834                 }
1835                 fdrop(fp);      /* our ref */
1836                 if (error == ERESTART)
1837                         error = EINTR;
1838                 return (error);
1839         }
1840
1841         /*
1842          * ref the vnode for ourselves so it can't be ripped out from under
1843          * is.  XXX need an ND flag to request that the vnode be returned
1844          * anyway.
1845          *
1846          * Reserve a file descriptor but do not assign it until the open
1847          * succeeds.
1848          */
1849         vp = (struct vnode *)fp->f_data;
1850         vref(vp);
1851         if ((error = fdalloc(p, 0, &indx)) != 0) {
1852                 fdrop(fp);
1853                 vrele(vp);
1854                 return (error);
1855         }
1856
1857         /*
1858          * If no error occurs the vp will have been assigned to the file
1859          * pointer.
1860          */
1861         lp->lwp_dupfd = 0;
1862
1863         if (flags & (O_EXLOCK | O_SHLOCK)) {
1864                 lf.l_whence = SEEK_SET;
1865                 lf.l_start = 0;
1866                 lf.l_len = 0;
1867                 if (flags & O_EXLOCK)
1868                         lf.l_type = F_WRLCK;
1869                 else
1870                         lf.l_type = F_RDLCK;
1871                 if (flags & FNONBLOCK)
1872                         type = 0;
1873                 else
1874                         type = F_WAIT;
1875
1876                 if ((error = VOP_ADVLOCK(vp, (caddr_t)fp, F_SETLK, &lf, type)) != 0) {
1877                         /*
1878                          * lock request failed.  Clean up the reserved
1879                          * descriptor.
1880                          */
1881                         vrele(vp);
1882                         fsetfd(fdp, NULL, indx);
1883                         fdrop(fp);
1884                         return (error);
1885                 }
1886                 fp->f_flag |= FHASLOCK;
1887         }
1888 #if 0
1889         /*
1890          * Assert that all regular file vnodes were created with a object.
1891          */
1892         KASSERT(vp->v_type != VREG || vp->v_object != NULL,
1893                 ("open: regular file has no backing object after vn_open"));
1894 #endif
1895
1896         vrele(vp);
1897
1898         /*
1899          * release our private reference, leaving the one associated with the
1900          * descriptor table intact.
1901          */
1902         fsetfd(fdp, fp, indx);
1903         fdrop(fp);
1904         *res = indx;
1905         return (0);
1906 }
1907
1908 /*
1909  * open_args(char *path, int flags, int mode)
1910  *
1911  * Check permissions, allocate an open file structure,
1912  * and call the device open routine if any.
1913  *
1914  * MPALMOSTSAFE
1915  */
1916 int
1917 sys_open(struct open_args *uap)
1918 {
1919         struct nlookupdata nd;
1920         int error;
1921
1922         get_mplock();
1923         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
1924         if (error == 0) {
1925                 error = kern_open(&nd, uap->flags,
1926                                     uap->mode, &uap->sysmsg_result);
1927         }
1928         nlookup_done(&nd);
1929         rel_mplock();
1930         return (error);
1931 }
1932
1933 /*
1934  * openat_args(int fd, char *path, int flags, int mode)
1935  *
1936  * MPALMOSTSAFE
1937  */
1938 int
1939 sys_openat(struct openat_args *uap)
1940 {
1941         struct nlookupdata nd;
1942         int error;
1943         struct file *fp;
1944
1945         get_mplock();
1946         error = nlookup_init_at(&nd, &fp, uap->fd, uap->path, UIO_USERSPACE, 0);
1947         if (error == 0) {
1948                 error = kern_open(&nd, uap->flags, uap->mode, 
1949                                         &uap->sysmsg_result);
1950         }
1951         nlookup_done_at(&nd, fp);
1952         rel_mplock();
1953         return (error);
1954 }
1955
1956 int
1957 kern_mknod(struct nlookupdata *nd, int mode, int rmajor, int rminor)
1958 {
1959         struct thread *td = curthread;
1960         struct proc *p = td->td_proc;
1961         struct vnode *vp;
1962         struct vattr vattr;
1963         int error;
1964         int whiteout = 0;
1965
1966         KKASSERT(p);
1967
1968         VATTR_NULL(&vattr);
1969         vattr.va_mode = (mode & ALLPERMS) &~ p->p_fd->fd_cmask;
1970         vattr.va_rmajor = rmajor;
1971         vattr.va_rminor = rminor;
1972
1973         switch (mode & S_IFMT) {
1974         case S_IFMT:    /* used by badsect to flag bad sectors */
1975                 error = priv_check_cred(td->td_ucred, PRIV_VFS_MKNOD_BAD, 0);
1976                 vattr.va_type = VBAD;
1977                 break;
1978         case S_IFCHR:
1979                 error = priv_check(td, PRIV_VFS_MKNOD_DEV);
1980                 vattr.va_type = VCHR;
1981                 break;
1982         case S_IFBLK:
1983                 error = priv_check(td, PRIV_VFS_MKNOD_DEV);
1984                 vattr.va_type = VBLK;
1985                 break;
1986         case S_IFWHT:
1987                 error = priv_check_cred(td->td_ucred, PRIV_VFS_MKNOD_WHT, 0);
1988                 whiteout = 1;
1989                 break;
1990         case S_IFDIR:   /* special directories support for HAMMER */
1991                 error = priv_check_cred(td->td_ucred, PRIV_VFS_MKNOD_DIR, 0);
1992                 vattr.va_type = VDIR;
1993                 break;
1994         default:
1995                 error = EINVAL;
1996                 break;
1997         }
1998
1999         if (error)
2000                 return (error);
2001
2002         bwillinode(1);
2003         nd->nl_flags |= NLC_CREATE | NLC_REFDVP;
2004         if ((error = nlookup(nd)) != 0)
2005                 return (error);
2006         if (nd->nl_nch.ncp->nc_vp)
2007                 return (EEXIST);
2008         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
2009                 return (error);
2010
2011         if (whiteout) {
2012                 error = VOP_NWHITEOUT(&nd->nl_nch, nd->nl_dvp,
2013                                       nd->nl_cred, NAMEI_CREATE);
2014         } else {
2015                 vp = NULL;
2016                 error = VOP_NMKNOD(&nd->nl_nch, nd->nl_dvp,
2017                                    &vp, nd->nl_cred, &vattr);
2018                 if (error == 0)
2019                         vput(vp);
2020         }
2021         return (error);
2022 }
2023
2024 /*
2025  * mknod_args(char *path, int mode, int dev)
2026  *
2027  * Create a special file.
2028  *
2029  * MPALMOSTSAFE
2030  */
2031 int
2032 sys_mknod(struct mknod_args *uap)
2033 {
2034         struct nlookupdata nd;
2035         int error;
2036
2037         get_mplock();
2038         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
2039         if (error == 0) {
2040                 error = kern_mknod(&nd, uap->mode,
2041                                    umajor(uap->dev), uminor(uap->dev));
2042         }
2043         nlookup_done(&nd);
2044         rel_mplock();
2045         return (error);
2046 }
2047
2048 int
2049 kern_mkfifo(struct nlookupdata *nd, int mode)
2050 {
2051         struct thread *td = curthread;
2052         struct proc *p = td->td_proc;
2053         struct vattr vattr;
2054         struct vnode *vp;
2055         int error;
2056
2057         bwillinode(1);
2058
2059         nd->nl_flags |= NLC_CREATE | NLC_REFDVP;
2060         if ((error = nlookup(nd)) != 0)
2061                 return (error);
2062         if (nd->nl_nch.ncp->nc_vp)
2063                 return (EEXIST);
2064         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
2065                 return (error);
2066
2067         VATTR_NULL(&vattr);
2068         vattr.va_type = VFIFO;
2069         vattr.va_mode = (mode & ALLPERMS) &~ p->p_fd->fd_cmask;
2070         vp = NULL;
2071         error = VOP_NMKNOD(&nd->nl_nch, nd->nl_dvp, &vp, nd->nl_cred, &vattr);
2072         if (error == 0)
2073                 vput(vp);
2074         return (error);
2075 }
2076
2077 /*
2078  * mkfifo_args(char *path, int mode)
2079  *
2080  * Create a named pipe.
2081  *
2082  * MPALMOSTSAFE
2083  */
2084 int
2085 sys_mkfifo(struct mkfifo_args *uap)
2086 {
2087         struct nlookupdata nd;
2088         int error;
2089
2090         get_mplock();
2091         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
2092         if (error == 0)
2093                 error = kern_mkfifo(&nd, uap->mode);
2094         nlookup_done(&nd);
2095         rel_mplock();
2096         return (error);
2097 }
2098
2099 static int hardlink_check_uid = 0;
2100 SYSCTL_INT(_security, OID_AUTO, hardlink_check_uid, CTLFLAG_RW,
2101     &hardlink_check_uid, 0, 
2102     "Unprivileged processes cannot create hard links to files owned by other "
2103     "users");
2104 static int hardlink_check_gid = 0;
2105 SYSCTL_INT(_security, OID_AUTO, hardlink_check_gid, CTLFLAG_RW,
2106     &hardlink_check_gid, 0,
2107     "Unprivileged processes cannot create hard links to files owned by other "
2108     "groups");
2109
2110 static int
2111 can_hardlink(struct vnode *vp, struct thread *td, struct ucred *cred)
2112 {
2113         struct vattr va;
2114         int error;
2115
2116         /*
2117          * Shortcut if disabled
2118          */
2119         if (hardlink_check_uid == 0 && hardlink_check_gid == 0)
2120                 return (0);
2121
2122         /*
2123          * Privileged user can always hardlink
2124          */
2125         if (priv_check_cred(cred, PRIV_VFS_LINK, 0) == 0)
2126                 return (0);
2127
2128         /*
2129          * Otherwise only if the originating file is owned by the
2130          * same user or group.  Note that any group is allowed if
2131          * the file is owned by the caller.
2132          */
2133         error = VOP_GETATTR(vp, &va);
2134         if (error != 0)
2135                 return (error);
2136         
2137         if (hardlink_check_uid) {
2138                 if (cred->cr_uid != va.va_uid)
2139                         return (EPERM);
2140         }
2141         
2142         if (hardlink_check_gid) {
2143                 if (cred->cr_uid != va.va_uid && !groupmember(va.va_gid, cred))
2144                         return (EPERM);
2145         }
2146
2147         return (0);
2148 }
2149
2150 int
2151 kern_link(struct nlookupdata *nd, struct nlookupdata *linknd)
2152 {
2153         struct thread *td = curthread;
2154         struct vnode *vp;
2155         int error;
2156
2157         /*
2158          * Lookup the source and obtained a locked vnode.
2159          *
2160          * You may only hardlink a file which you have write permission
2161          * on or which you own.
2162          *
2163          * XXX relookup on vget failure / race ?
2164          */
2165         bwillinode(1);
2166         nd->nl_flags |= NLC_WRITE | NLC_OWN | NLC_HLINK;
2167         if ((error = nlookup(nd)) != 0)
2168                 return (error);
2169         vp = nd->nl_nch.ncp->nc_vp;
2170         KKASSERT(vp != NULL);
2171         if (vp->v_type == VDIR)
2172                 return (EPERM);         /* POSIX */
2173         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
2174                 return (error);
2175         if ((error = vget(vp, LK_EXCLUSIVE)) != 0)
2176                 return (error);
2177
2178         /*
2179          * Unlock the source so we can lookup the target without deadlocking
2180          * (XXX vp is locked already, possible other deadlock?).  The target
2181          * must not exist.
2182          */
2183         KKASSERT(nd->nl_flags & NLC_NCPISLOCKED);
2184         nd->nl_flags &= ~NLC_NCPISLOCKED;
2185         cache_unlock(&nd->nl_nch);
2186         vn_unlock(vp);
2187
2188         linknd->nl_flags |= NLC_CREATE | NLC_REFDVP;
2189         if ((error = nlookup(linknd)) != 0) {
2190                 vrele(vp);
2191                 return (error);
2192         }
2193         if (linknd->nl_nch.ncp->nc_vp) {
2194                 vrele(vp);
2195                 return (EEXIST);
2196         }
2197         if ((error = vn_lock(vp, LK_EXCLUSIVE | LK_RETRY)) != 0) {
2198                 vrele(vp);
2199                 return (error);
2200         }
2201
2202         /*
2203          * Finally run the new API VOP.
2204          */
2205         error = can_hardlink(vp, td, td->td_ucred);
2206         if (error == 0) {
2207                 error = VOP_NLINK(&linknd->nl_nch, linknd->nl_dvp,
2208                                   vp, linknd->nl_cred);
2209         }
2210         vput(vp);
2211         return (error);
2212 }
2213
2214 /*
2215  * link_args(char *path, char *link)
2216  *
2217  * Make a hard file link.
2218  *
2219  * MPALMOSTSAFE
2220  */
2221 int
2222 sys_link(struct link_args *uap)
2223 {
2224         struct nlookupdata nd, linknd;
2225         int error;
2226
2227         get_mplock();
2228         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
2229         if (error == 0) {
2230                 error = nlookup_init(&linknd, uap->link, UIO_USERSPACE, 0);
2231                 if (error == 0)
2232                         error = kern_link(&nd, &linknd);
2233                 nlookup_done(&linknd);
2234         }
2235         nlookup_done(&nd);
2236         rel_mplock();
2237         return (error);
2238 }
2239
2240 int
2241 kern_symlink(struct nlookupdata *nd, char *path, int mode)
2242 {
2243         struct vattr vattr;
2244         struct vnode *vp;
2245         struct vnode *dvp;
2246         int error;
2247
2248         bwillinode(1);
2249         nd->nl_flags |= NLC_CREATE | NLC_REFDVP;
2250         if ((error = nlookup(nd)) != 0)
2251                 return (error);
2252         if (nd->nl_nch.ncp->nc_vp)
2253                 return (EEXIST);
2254         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
2255                 return (error);
2256         dvp = nd->nl_dvp;
2257         VATTR_NULL(&vattr);
2258         vattr.va_mode = mode;
2259         error = VOP_NSYMLINK(&nd->nl_nch, dvp, &vp, nd->nl_cred, &vattr, path);
2260         if (error == 0)
2261                 vput(vp);
2262         return (error);
2263 }
2264
2265 /*
2266  * symlink(char *path, char *link)
2267  *
2268  * Make a symbolic link.
2269  *
2270  * MPALMOSTSAFE
2271  */
2272 int
2273 sys_symlink(struct symlink_args *uap)
2274 {
2275         struct thread *td = curthread;
2276         struct nlookupdata nd;
2277         char *path;
2278         int error;
2279         int mode;
2280
2281         path = objcache_get(namei_oc, M_WAITOK);
2282         error = copyinstr(uap->path, path, MAXPATHLEN, NULL);
2283         if (error == 0) {
2284                 get_mplock();
2285                 error = nlookup_init(&nd, uap->link, UIO_USERSPACE, 0);
2286                 if (error == 0) {
2287                         mode = ACCESSPERMS & ~td->td_proc->p_fd->fd_cmask;
2288                         error = kern_symlink(&nd, path, mode);
2289                 }
2290                 nlookup_done(&nd);
2291                 rel_mplock();
2292         }
2293         objcache_put(namei_oc, path);
2294         return (error);
2295 }
2296
2297 /*
2298  * undelete_args(char *path)
2299  *
2300  * Delete a whiteout from the filesystem.
2301  *
2302  * MPALMOSTSAFE
2303  */
2304 int
2305 sys_undelete(struct undelete_args *uap)
2306 {
2307         struct nlookupdata nd;
2308         int error;
2309
2310         get_mplock();
2311         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
2312         bwillinode(1);
2313         nd.nl_flags |= NLC_DELETE | NLC_REFDVP;
2314         if (error == 0)
2315                 error = nlookup(&nd);
2316         if (error == 0)
2317                 error = ncp_writechk(&nd.nl_nch);
2318         if (error == 0) {
2319                 error = VOP_NWHITEOUT(&nd.nl_nch, nd.nl_dvp, nd.nl_cred,
2320                                       NAMEI_DELETE);
2321         }
2322         nlookup_done(&nd);
2323         rel_mplock();
2324         return (error);
2325 }
2326
2327 int
2328 kern_unlink(struct nlookupdata *nd)
2329 {
2330         int error;
2331
2332         bwillinode(1);
2333         nd->nl_flags |= NLC_DELETE | NLC_REFDVP;
2334         if ((error = nlookup(nd)) != 0)
2335                 return (error);
2336         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
2337                 return (error);
2338         error = VOP_NREMOVE(&nd->nl_nch, nd->nl_dvp, nd->nl_cred);
2339         return (error);
2340 }
2341
2342 /*
2343  * unlink_args(char *path)
2344  *
2345  * Delete a name from the filesystem.
2346  *
2347  * MPALMOSTSAFE
2348  */
2349 int
2350 sys_unlink(struct unlink_args *uap)
2351 {
2352         struct nlookupdata nd;
2353         int error;
2354
2355         get_mplock();
2356         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
2357         if (error == 0)
2358                 error = kern_unlink(&nd);
2359         nlookup_done(&nd);
2360         rel_mplock();
2361         return (error);
2362 }
2363
2364
2365 /*
2366  * unlinkat_args(int fd, char *path, int flags)
2367  *
2368  * Delete the file or directory entry pointed to by fd/path.
2369  *
2370  * MPALMOSTSAFE
2371  */
2372 int
2373 sys_unlinkat(struct unlinkat_args *uap)
2374 {
2375         struct nlookupdata nd;
2376         struct file *fp;
2377         int error;
2378
2379         if (uap->flags & ~AT_REMOVEDIR)
2380                 return (EINVAL);
2381
2382         get_mplock();
2383         error = nlookup_init_at(&nd, &fp, uap->fd, uap->path, UIO_USERSPACE, 0);
2384         if (error == 0) {
2385                 if (uap->flags & AT_REMOVEDIR)
2386                         error = kern_rmdir(&nd);
2387                 else
2388                         error = kern_unlink(&nd);
2389         }
2390         nlookup_done_at(&nd, fp);
2391         rel_mplock();
2392         return (error);
2393 }
2394
2395 /*
2396  * MPALMOSTSAFE
2397  */
2398 int
2399 kern_lseek(int fd, off_t offset, int whence, off_t *res)
2400 {
2401         struct thread *td = curthread;
2402         struct proc *p = td->td_proc;
2403         struct file *fp;
2404         struct vnode *vp;
2405         struct vattr vattr;
2406         off_t new_offset;
2407         int error;
2408
2409         fp = holdfp(p->p_fd, fd, -1);
2410         if (fp == NULL)
2411                 return (EBADF);
2412         if (fp->f_type != DTYPE_VNODE) {
2413                 error = ESPIPE;
2414                 goto done;
2415         }
2416         vp = (struct vnode *)fp->f_data;
2417
2418         switch (whence) {
2419         case L_INCR:
2420                 spin_lock_wr(&fp->f_spin);
2421                 new_offset = fp->f_offset + offset;
2422                 error = 0;
2423                 break;
2424         case L_XTND:
2425                 get_mplock();
2426                 error = VOP_GETATTR(vp, &vattr);
2427                 rel_mplock();
2428                 spin_lock_wr(&fp->f_spin);
2429                 new_offset = offset + vattr.va_size;
2430                 break;
2431         case L_SET:
2432                 new_offset = offset;
2433                 error = 0;
2434                 spin_lock_wr(&fp->f_spin);
2435                 break;
2436         default:
2437                 new_offset = 0;
2438                 error = EINVAL;
2439                 spin_lock_wr(&fp->f_spin);
2440                 break;
2441         }
2442
2443         /*
2444          * Validate the seek position.  Negative offsets are not allowed
2445          * for regular files or directories.
2446          *
2447          * Normally we would also not want to allow negative offsets for
2448          * character and block-special devices.  However kvm addresses
2449          * on 64 bit architectures might appear to be negative and must
2450          * be allowed.
2451          */
2452         if (error == 0) {
2453                 if (new_offset < 0 &&
2454                     (vp->v_type == VREG || vp->v_type == VDIR)) {
2455                         error = EINVAL;
2456                 } else {
2457                         fp->f_offset = new_offset;
2458                 }
2459         }
2460         *res = fp->f_offset;
2461         spin_unlock_wr(&fp->f_spin);
2462 done:
2463         fdrop(fp);
2464         return (error);
2465 }
2466
2467 /*
2468  * lseek_args(int fd, int pad, off_t offset, int whence)
2469  *
2470  * Reposition read/write file offset.
2471  *
2472  * MPSAFE
2473  */
2474 int
2475 sys_lseek(struct lseek_args *uap)
2476 {
2477         int error;
2478
2479         error = kern_lseek(uap->fd, uap->offset, uap->whence,
2480                            &uap->sysmsg_offset);
2481
2482         return (error);
2483 }
2484
2485 /*
2486  * Check if current process can access given file.  amode is a bitmask of *_OK
2487  * access bits.  flags is a bitmask of AT_* flags.
2488  */
2489 int
2490 kern_access(struct nlookupdata *nd, int amode, int flags)
2491 {
2492         struct vnode *vp;
2493         int error, mode;
2494
2495         if (flags & ~AT_EACCESS)
2496                 return (EINVAL);
2497         if ((error = nlookup(nd)) != 0)
2498                 return (error);
2499 retry:
2500         error = cache_vget(&nd->nl_nch, nd->nl_cred, LK_EXCLUSIVE, &vp);
2501         if (error)
2502                 return (error);
2503
2504         /* Flags == 0 means only check for existence. */
2505         if (amode) {
2506                 mode = 0;
2507                 if (amode & R_OK)
2508                         mode |= VREAD;
2509                 if (amode & W_OK)
2510                         mode |= VWRITE;
2511                 if (amode & X_OK)
2512                         mode |= VEXEC;
2513                 if ((mode & VWRITE) == 0 || 
2514                     (error = vn_writechk(vp, &nd->nl_nch)) == 0)
2515                         error = VOP_ACCESS_FLAGS(vp, mode, flags, nd->nl_cred);
2516
2517                 /*
2518                  * If the file handle is stale we have to re-resolve the
2519                  * entry.  This is a hack at the moment.
2520                  */
2521                 if (error == ESTALE) {
2522                         vput(vp);
2523                         cache_setunresolved(&nd->nl_nch);
2524                         error = cache_resolve(&nd->nl_nch, nd->nl_cred);
2525                         if (error == 0) {
2526                                 vp = NULL;
2527                                 goto retry;
2528                         }
2529                         return(error);
2530                 }
2531         }
2532         vput(vp);
2533         return (error);
2534 }
2535
2536 /*
2537  * access_args(char *path, int flags)
2538  *
2539  * Check access permissions.
2540  *
2541  * MPALMOSTSAFE
2542  */
2543 int
2544 sys_access(struct access_args *uap)
2545 {
2546         struct nlookupdata nd;
2547         int error;
2548
2549         get_mplock();
2550         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
2551         if (error == 0)
2552                 error = kern_access(&nd, uap->flags, 0);
2553         nlookup_done(&nd);
2554         rel_mplock();
2555         return (error);
2556 }
2557
2558
2559 /*
2560  * faccessat_args(int fd, char *path, int amode, int flags)
2561  *
2562  * Check access permissions.
2563  *
2564  * MPALMOSTSAFE
2565  */
2566 int
2567 sys_faccessat(struct faccessat_args *uap)
2568 {
2569         struct nlookupdata nd;
2570         struct file *fp;
2571         int error;
2572
2573         get_mplock();
2574         error = nlookup_init_at(&nd, &fp, uap->fd, uap->path, UIO_USERSPACE, 
2575                                 NLC_FOLLOW);
2576         if (error == 0)
2577                 error = kern_access(&nd, uap->amode, uap->flags);
2578         nlookup_done_at(&nd, fp);
2579         rel_mplock();
2580         return (error);
2581 }
2582
2583
2584 int
2585 kern_stat(struct nlookupdata *nd, struct stat *st)
2586 {
2587         int error;
2588         struct vnode *vp;
2589         thread_t td;
2590
2591         if ((error = nlookup(nd)) != 0)
2592                 return (error);
2593 again:
2594         if ((vp = nd->nl_nch.ncp->nc_vp) == NULL)
2595                 return (ENOENT);
2596
2597         td = curthread;
2598         if ((error = vget(vp, LK_SHARED)) != 0)
2599                 return (error);
2600         error = vn_stat(vp, st, nd->nl_cred);
2601
2602         /*
2603          * If the file handle is stale we have to re-resolve the entry.  This
2604          * is a hack at the moment.
2605          */
2606         if (error == ESTALE) {
2607                 vput(vp);
2608                 cache_setunresolved(&nd->nl_nch);
2609                 error = cache_resolve(&nd->nl_nch, nd->nl_cred);
2610                 if (error == 0)
2611                         goto again;
2612         } else {
2613                 vput(vp);
2614         }
2615         return (error);
2616 }
2617
2618 /*
2619  * stat_args(char *path, struct stat *ub)
2620  *
2621  * Get file status; this version follows links.
2622  *
2623  * MPALMOSTSAFE
2624  */
2625 int
2626 sys_stat(struct stat_args *uap)
2627 {
2628         struct nlookupdata nd;
2629         struct stat st;
2630         int error;
2631
2632         get_mplock();
2633         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
2634         if (error == 0) {
2635                 error = kern_stat(&nd, &st);
2636                 if (error == 0)
2637                         error = copyout(&st, uap->ub, sizeof(*uap->ub));
2638         }
2639         nlookup_done(&nd);
2640         rel_mplock();
2641         return (error);
2642 }
2643
2644 /*
2645  * lstat_args(char *path, struct stat *ub)
2646  *
2647  * Get file status; this version does not follow links.
2648  *
2649  * MPALMOSTSAFE
2650  */
2651 int
2652 sys_lstat(struct lstat_args *uap)
2653 {
2654         struct nlookupdata nd;
2655         struct stat st;
2656         int error;
2657
2658         get_mplock();
2659         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
2660         if (error == 0) {
2661                 error = kern_stat(&nd, &st);
2662                 if (error == 0)
2663                         error = copyout(&st, uap->ub, sizeof(*uap->ub));
2664         }
2665         nlookup_done(&nd);
2666         rel_mplock();
2667         return (error);
2668 }
2669
2670 /*
2671  * fstatat_args(int fd, char *path, struct stat *sb, int flags)
2672  *
2673  * Get status of file pointed to by fd/path.
2674  *
2675  * MPALMOSTSAFE
2676  */
2677 int
2678 sys_fstatat(struct fstatat_args *uap)
2679 {
2680         struct nlookupdata nd;
2681         struct stat st;
2682         int error;
2683         int flags;
2684         struct file *fp;
2685
2686         if (uap->flags & ~AT_SYMLINK_NOFOLLOW)
2687                 return (EINVAL);
2688
2689         flags = (uap->flags & AT_SYMLINK_NOFOLLOW) ? 0 : NLC_FOLLOW;
2690
2691         get_mplock();
2692         error = nlookup_init_at(&nd, &fp, uap->fd, uap->path, 
2693                                 UIO_USERSPACE, flags);
2694         if (error == 0) {
2695                 error = kern_stat(&nd, &st);
2696                 if (error == 0)
2697                         error = copyout(&st, uap->sb, sizeof(*uap->sb));
2698         }
2699         nlookup_done_at(&nd, fp);
2700         rel_mplock();
2701         return (error);
2702 }
2703
2704 /*
2705  * pathconf_Args(char *path, int name)
2706  *
2707  * Get configurable pathname variables.
2708  *
2709  * MPALMOSTSAFE
2710  */
2711 int
2712 sys_pathconf(struct pathconf_args *uap)
2713 {
2714         struct nlookupdata nd;
2715         struct vnode *vp;
2716         int error;
2717
2718         vp = NULL;
2719         get_mplock();
2720         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
2721         if (error == 0)
2722                 error = nlookup(&nd);
2723         if (error == 0)
2724                 error = cache_vget(&nd.nl_nch, nd.nl_cred, LK_EXCLUSIVE, &vp);
2725         nlookup_done(&nd);
2726         if (error == 0) {
2727                 error = VOP_PATHCONF(vp, uap->name, &uap->sysmsg_reg);
2728                 vput(vp);
2729         }
2730         rel_mplock();
2731         return (error);
2732 }
2733
2734 /*
2735  * XXX: daver
2736  * kern_readlink isn't properly split yet.  There is a copyin burried
2737  * in VOP_READLINK().
2738  */
2739 int
2740 kern_readlink(struct nlookupdata *nd, char *buf, int count, int *res)
2741 {
2742         struct thread *td = curthread;
2743         struct vnode *vp;
2744         struct iovec aiov;
2745         struct uio auio;
2746         int error;
2747
2748         if ((error = nlookup(nd)) != 0)
2749                 return (error);
2750         error = cache_vget(&nd->nl_nch, nd->nl_cred, LK_EXCLUSIVE, &vp);
2751         if (error)
2752                 return (error);
2753         if (vp->v_type != VLNK) {
2754                 error = EINVAL;
2755         } else {
2756                 aiov.iov_base = buf;
2757                 aiov.iov_len = count;
2758                 auio.uio_iov = &aiov;
2759                 auio.uio_iovcnt = 1;
2760                 auio.uio_offset = 0;
2761                 auio.uio_rw = UIO_READ;
2762                 auio.uio_segflg = UIO_USERSPACE;
2763                 auio.uio_td = td;
2764                 auio.uio_resid = count;
2765                 error = VOP_READLINK(vp, &auio, td->td_ucred);
2766         }
2767         vput(vp);
2768         *res = count - auio.uio_resid;
2769         return (error);
2770 }
2771
2772 /*
2773  * readlink_args(char *path, char *buf, int count)
2774  *
2775  * Return target name of a symbolic link.
2776  *
2777  * MPALMOSTSAFE
2778  */
2779 int
2780 sys_readlink(struct readlink_args *uap)
2781 {
2782         struct nlookupdata nd;
2783         int error;
2784
2785         get_mplock();
2786         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
2787         if (error == 0) {
2788                 error = kern_readlink(&nd, uap->buf, uap->count,
2789                                         &uap->sysmsg_result);
2790         }
2791         nlookup_done(&nd);
2792         rel_mplock();
2793         return (error);
2794 }
2795
2796 static int
2797 setfflags(struct vnode *vp, int flags)
2798 {
2799         struct thread *td = curthread;
2800         int error;
2801         struct vattr vattr;
2802
2803         /*
2804          * Prevent non-root users from setting flags on devices.  When
2805          * a device is reused, users can retain ownership of the device
2806          * if they are allowed to set flags and programs assume that
2807          * chown can't fail when done as root.
2808          */
2809         if ((vp->v_type == VCHR || vp->v_type == VBLK) && 
2810             ((error = priv_check_cred(td->td_ucred, PRIV_VFS_CHFLAGS_DEV, 0)) != 0))
2811                 return (error);
2812
2813         /*
2814          * note: vget is required for any operation that might mod the vnode
2815          * so VINACTIVE is properly cleared.
2816          */
2817         if ((error = vget(vp, LK_EXCLUSIVE)) == 0) {
2818                 VATTR_NULL(&vattr);
2819                 vattr.va_flags = flags;
2820                 error = VOP_SETATTR(vp, &vattr, td->td_ucred);
2821                 vput(vp);
2822         }
2823         return (error);
2824 }
2825
2826 /*
2827  * chflags(char *path, int flags)
2828  *
2829  * Change flags of a file given a path name.
2830  *
2831  * MPALMOSTSAFE
2832  */
2833 int
2834 sys_chflags(struct chflags_args *uap)
2835 {
2836         struct nlookupdata nd;
2837         struct vnode *vp;
2838         int error;
2839
2840         vp = NULL;
2841         get_mplock();
2842         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
2843         if (error == 0)
2844                 error = nlookup(&nd);
2845         if (error == 0)
2846                 error = ncp_writechk(&nd.nl_nch);
2847         if (error == 0)
2848                 error = cache_vref(&nd.nl_nch, nd.nl_cred, &vp);
2849         nlookup_done(&nd);
2850         if (error == 0) {
2851                 error = setfflags(vp, uap->flags);
2852                 vrele(vp);
2853         }
2854         rel_mplock();
2855         return (error);
2856 }
2857
2858 /*
2859  * lchflags(char *path, int flags)
2860  *
2861  * Change flags of a file given a path name, but don't follow symlinks.
2862  *
2863  * MPALMOSTSAFE
2864  */
2865 int
2866 sys_lchflags(struct lchflags_args *uap)
2867 {
2868         struct nlookupdata nd;
2869         struct vnode *vp;
2870         int error;
2871
2872         vp = NULL;
2873         get_mplock();
2874         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
2875         if (error == 0)
2876                 error = nlookup(&nd);
2877         if (error == 0)
2878                 error = ncp_writechk(&nd.nl_nch);
2879         if (error == 0)
2880                 error = cache_vref(&nd.nl_nch, nd.nl_cred, &vp);
2881         nlookup_done(&nd);
2882         if (error == 0) {
2883                 error = setfflags(vp, uap->flags);
2884                 vrele(vp);
2885         }
2886         rel_mplock();
2887         return (error);
2888 }
2889
2890 /*
2891  * fchflags_args(int fd, int flags)
2892  *
2893  * Change flags of a file given a file descriptor.
2894  *
2895  * MPALMOSTSAFE
2896  */
2897 int
2898 sys_fchflags(struct fchflags_args *uap)
2899 {
2900         struct thread *td = curthread;
2901         struct proc *p = td->td_proc;
2902         struct file *fp;
2903         int error;
2904
2905         if ((error = holdvnode(p->p_fd, uap->fd, &fp)) != 0)
2906                 return (error);
2907         get_mplock();
2908         if (fp->f_nchandle.ncp)
2909                 error = ncp_writechk(&fp->f_nchandle);
2910         if (error == 0)
2911                 error = setfflags((struct vnode *) fp->f_data, uap->flags);
2912         rel_mplock();
2913         fdrop(fp);
2914         return (error);
2915 }
2916
2917 static int
2918 setfmode(struct vnode *vp, int mode)
2919 {
2920         struct thread *td = curthread;
2921         int error;
2922         struct vattr vattr;
2923
2924         /*
2925          * note: vget is required for any operation that might mod the vnode
2926          * so VINACTIVE is properly cleared.
2927          */
2928         if ((error = vget(vp, LK_EXCLUSIVE)) == 0) {
2929                 VATTR_NULL(&vattr);
2930                 vattr.va_mode = mode & ALLPERMS;
2931                 error = VOP_SETATTR(vp, &vattr, td->td_ucred);
2932                 vput(vp);
2933         }
2934         return error;
2935 }
2936
2937 int
2938 kern_chmod(struct nlookupdata *nd, int mode)
2939 {
2940         struct vnode *vp;
2941         int error;
2942
2943         if ((error = nlookup(nd)) != 0)
2944                 return (error);
2945         if ((error = cache_vref(&nd->nl_nch, nd->nl_cred, &vp)) != 0)
2946                 return (error);
2947         if ((error = ncp_writechk(&nd->nl_nch)) == 0)
2948                 error = setfmode(vp, mode);
2949         vrele(vp);
2950         return (error);
2951 }
2952
2953 /*
2954  * chmod_args(char *path, int mode)
2955  *
2956  * Change mode of a file given path name.
2957  *
2958  * MPALMOSTSAFE
2959  */
2960 int
2961 sys_chmod(struct chmod_args *uap)
2962 {
2963         struct nlookupdata nd;
2964         int error;
2965
2966         get_mplock();
2967         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
2968         if (error == 0)
2969                 error = kern_chmod(&nd, uap->mode);
2970         nlookup_done(&nd);
2971         rel_mplock();
2972         return (error);
2973 }
2974
2975 /*
2976  * lchmod_args(char *path, int mode)
2977  *
2978  * Change mode of a file given path name (don't follow links.)
2979  *
2980  * MPALMOSTSAFE
2981  */
2982 int
2983 sys_lchmod(struct lchmod_args *uap)
2984 {
2985         struct nlookupdata nd;
2986         int error;
2987
2988         get_mplock();
2989         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
2990         if (error == 0)
2991                 error = kern_chmod(&nd, uap->mode);
2992         nlookup_done(&nd);
2993         rel_mplock();
2994         return (error);
2995 }
2996
2997 /*
2998  * fchmod_args(int fd, int mode)
2999  *
3000  * Change mode of a file given a file descriptor.
3001  *
3002  * MPALMOSTSAFE
3003  */
3004 int
3005 sys_fchmod(struct fchmod_args *uap)
3006 {
3007         struct thread *td = curthread;
3008         struct proc *p = td->td_proc;
3009         struct file *fp;
3010         int error;
3011
3012         if ((error = holdvnode(p->p_fd, uap->fd, &fp)) != 0)
3013                 return (error);
3014         get_mplock();
3015         if (fp->f_nchandle.ncp)
3016                 error = ncp_writechk(&fp->f_nchandle);
3017         if (error == 0)
3018                 error = setfmode((struct vnode *)fp->f_data, uap->mode);
3019         rel_mplock();
3020         fdrop(fp);
3021         return (error);
3022 }
3023
3024 /*
3025  * fchmodat_args(char *path, int mode)
3026  *
3027  * Change mode of a file pointed to by fd/path.
3028  *
3029  * MPALMOSTSAFE
3030  */
3031 int
3032 sys_fchmodat(struct fchmodat_args *uap)
3033 {
3034         struct nlookupdata nd;
3035         struct file *fp;
3036         int error;
3037         int flags;
3038
3039         if (uap->flags & ~AT_SYMLINK_NOFOLLOW)
3040                 return (EINVAL);
3041         flags = (uap->flags & AT_SYMLINK_NOFOLLOW) ? 0 : NLC_FOLLOW;
3042
3043         get_mplock();
3044         error = nlookup_init_at(&nd, &fp, uap->fd, uap->path, 
3045                                 UIO_USERSPACE, flags);
3046         if (error == 0)
3047                 error = kern_chmod(&nd, uap->mode);
3048         nlookup_done_at(&nd, fp);
3049         rel_mplock();
3050         return (error);
3051 }
3052
3053 static int
3054 setfown(struct vnode *vp, uid_t uid, gid_t gid)
3055 {
3056         struct thread *td = curthread;
3057         int error;
3058         struct vattr vattr;
3059
3060         /*
3061          * note: vget is required for any operation that might mod the vnode
3062          * so VINACTIVE is properly cleared.
3063          */
3064         if ((error = vget(vp, LK_EXCLUSIVE)) == 0) {
3065                 VATTR_NULL(&vattr);
3066                 vattr.va_uid = uid;
3067                 vattr.va_gid = gid;
3068                 error = VOP_SETATTR(vp, &vattr, td->td_ucred);
3069                 vput(vp);
3070         }
3071         return error;
3072 }
3073
3074 int
3075 kern_chown(struct nlookupdata *nd, int uid, int gid)
3076 {
3077         struct vnode *vp;
3078         int error;
3079
3080         if ((error = nlookup(nd)) != 0)
3081                 return (error);
3082         if ((error = cache_vref(&nd->nl_nch, nd->nl_cred, &vp)) != 0)
3083                 return (error);
3084         if ((error = ncp_writechk(&nd->nl_nch)) == 0)
3085                 error = setfown(vp, uid, gid);
3086         vrele(vp);
3087         return (error);
3088 }
3089
3090 /*
3091  * chown(char *path, int uid, int gid)
3092  *
3093  * Set ownership given a path name.
3094  *
3095  * MPALMOSTSAFE
3096  */
3097 int
3098 sys_chown(struct chown_args *uap)
3099 {
3100         struct nlookupdata nd;
3101         int error;
3102
3103         get_mplock();
3104         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
3105         if (error == 0)
3106                 error = kern_chown(&nd, uap->uid, uap->gid);
3107         nlookup_done(&nd);
3108         rel_mplock();
3109         return (error);
3110 }
3111
3112 /*
3113  * lchown_args(char *path, int uid, int gid)
3114  *
3115  * Set ownership given a path name, do not cross symlinks.
3116  *
3117  * MPALMOSTSAFE
3118  */
3119 int
3120 sys_lchown(struct lchown_args *uap)
3121 {
3122         struct nlookupdata nd;
3123         int error;
3124
3125         get_mplock();
3126         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
3127         if (error == 0)
3128                 error = kern_chown(&nd, uap->uid, uap->gid);
3129         nlookup_done(&nd);
3130         rel_mplock();
3131         return (error);
3132 }
3133
3134 /*
3135  * fchown_args(int fd, int uid, int gid)
3136  *
3137  * Set ownership given a file descriptor.
3138  *
3139  * MPALMOSTSAFE
3140  */
3141 int
3142 sys_fchown(struct fchown_args *uap)
3143 {
3144         struct thread *td = curthread;
3145         struct proc *p = td->td_proc;
3146         struct file *fp;
3147         int error;
3148
3149         if ((error = holdvnode(p->p_fd, uap->fd, &fp)) != 0)
3150                 return (error);
3151         get_mplock();
3152         if (fp->f_nchandle.ncp)
3153                 error = ncp_writechk(&fp->f_nchandle);
3154         if (error == 0)
3155                 error = setfown((struct vnode *)fp->f_data, uap->uid, uap->gid);
3156         rel_mplock();
3157         fdrop(fp);
3158         return (error);
3159 }
3160
3161 /*
3162  * fchownat(int fd, char *path, int uid, int gid, int flags)
3163  *
3164  * Set ownership of file pointed to by fd/path.
3165  *
3166  * MPALMOSTSAFE
3167  */
3168 int
3169 sys_fchownat(struct fchownat_args *uap)
3170 {
3171         struct nlookupdata nd;
3172         struct file *fp;
3173         int error;
3174         int flags;
3175
3176         if (uap->flags & ~AT_SYMLINK_NOFOLLOW)
3177                 return (EINVAL);
3178         flags = (uap->flags & AT_SYMLINK_NOFOLLOW) ? 0 : NLC_FOLLOW;
3179
3180         get_mplock();
3181         error = nlookup_init_at(&nd, &fp, uap->fd, uap->path, 
3182                                 UIO_USERSPACE, flags);
3183         if (error == 0)
3184                 error = kern_chown(&nd, uap->uid, uap->gid);
3185         nlookup_done_at(&nd, fp);
3186         rel_mplock();
3187         return (error);
3188 }
3189
3190
3191 static int
3192 getutimes(const struct timeval *tvp, struct timespec *tsp)
3193 {
3194         struct timeval tv[2];
3195
3196         if (tvp == NULL) {
3197                 microtime(&tv[0]);
3198                 TIMEVAL_TO_TIMESPEC(&tv[0], &tsp[0]);
3199                 tsp[1] = tsp[0];
3200         } else {
3201                 TIMEVAL_TO_TIMESPEC(&tvp[0], &tsp[0]);
3202                 TIMEVAL_TO_TIMESPEC(&tvp[1], &tsp[1]);
3203         }
3204         return 0;
3205 }
3206
3207 static int
3208 setutimes(struct vnode *vp, struct vattr *vattr,
3209           const struct timespec *ts, int nullflag)
3210 {
3211         struct thread *td = curthread;
3212         int error;
3213
3214         VATTR_NULL(vattr);
3215         vattr->va_atime = ts[0];
3216         vattr->va_mtime = ts[1];
3217         if (nullflag)
3218                 vattr->va_vaflags |= VA_UTIMES_NULL;
3219         error = VOP_SETATTR(vp, vattr, td->td_ucred);
3220
3221         return error;
3222 }
3223
3224 int
3225 kern_utimes(struct nlookupdata *nd, struct timeval *tptr)
3226 {
3227         struct timespec ts[2];
3228         struct vnode *vp;
3229         struct vattr vattr;
3230         int error;
3231
3232         if ((error = getutimes(tptr, ts)) != 0)
3233                 return (error);
3234
3235         /*
3236          * NOTE: utimes() succeeds for the owner even if the file
3237          * is not user-writable.
3238          */
3239         nd->nl_flags |= NLC_OWN | NLC_WRITE;
3240
3241         if ((error = nlookup(nd)) != 0)
3242                 return (error);
3243         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
3244                 return (error);
3245         if ((error = cache_vref(&nd->nl_nch, nd->nl_cred, &vp)) != 0)
3246                 return (error);
3247
3248         /*
3249          * note: vget is required for any operation that might mod the vnode
3250          * so VINACTIVE is properly cleared.
3251          */
3252         if ((error = vn_writechk(vp, &nd->nl_nch)) == 0) {
3253                 error = vget(vp, LK_EXCLUSIVE);
3254                 if (error == 0) {
3255                         error = setutimes(vp, &vattr, ts, (tptr == NULL));
3256                         vput(vp);
3257                 }
3258         }
3259         vrele(vp);
3260         return (error);
3261 }
3262
3263 /*
3264  * utimes_args(char *path, struct timeval *tptr)
3265  *
3266  * Set the access and modification times of a file.
3267  *
3268  * MPALMOSTSAFE
3269  */
3270 int
3271 sys_utimes(struct utimes_args *uap)
3272 {
3273         struct timeval tv[2];
3274         struct nlookupdata nd;
3275         int error;
3276
3277         if (uap->tptr) {
3278                 error = copyin(uap->tptr, tv, sizeof(tv));
3279                 if (error)
3280                         return (error);
3281         }
3282         get_mplock();
3283         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
3284         if (error == 0)
3285                 error = kern_utimes(&nd, uap->tptr ? tv : NULL);
3286         nlookup_done(&nd);
3287         rel_mplock();
3288         return (error);
3289 }
3290
3291 /*
3292  * lutimes_args(char *path, struct timeval *tptr)
3293  *
3294  * Set the access and modification times of a file.
3295  *
3296  * MPALMOSTSAFE
3297  */
3298 int
3299 sys_lutimes(struct lutimes_args *uap)
3300 {
3301         struct timeval tv[2];
3302         struct nlookupdata nd;
3303         int error;
3304
3305         if (uap->tptr) {
3306                 error = copyin(uap->tptr, tv, sizeof(tv));
3307                 if (error)
3308                         return (error);
3309         }
3310         get_mplock();
3311         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
3312         if (error == 0)
3313                 error = kern_utimes(&nd, uap->tptr ? tv : NULL);
3314         nlookup_done(&nd);
3315         rel_mplock();
3316         return (error);
3317 }
3318
3319 /*
3320  * Set utimes on a file descriptor.  The creds used to open the
3321  * file are used to determine whether the operation is allowed
3322  * or not.
3323  */
3324 int
3325 kern_futimes(int fd, struct timeval *tptr)
3326 {
3327         struct thread *td = curthread;
3328         struct proc *p = td->td_proc;
3329         struct timespec ts[2];
3330         struct file *fp;
3331         struct vnode *vp;
3332         struct vattr vattr;
3333         int error;
3334
3335         error = getutimes(tptr, ts);
3336         if (error)
3337                 return (error);
3338         if ((error = holdvnode(p->p_fd, fd, &fp)) != 0)
3339                 return (error);
3340         if (fp->f_nchandle.ncp)
3341                 error = ncp_writechk(&fp->f_nchandle);
3342         if (error == 0) {
3343                 vp = fp->f_data;
3344                 error = vget(vp, LK_EXCLUSIVE);
3345                 if (error == 0) {
3346                         error = VOP_GETATTR(vp, &vattr);
3347                         if (error == 0) {
3348                                 error = naccess_va(&vattr, NLC_OWN | NLC_WRITE,
3349                                                    fp->f_cred);
3350                         }
3351                         if (error == 0) {
3352                                 error = setutimes(vp, &vattr, ts,
3353                                                   (tptr == NULL));
3354                         }
3355                         vput(vp);
3356                 }
3357         }
3358         fdrop(fp);
3359         return (error);
3360 }
3361
3362 /*
3363  * futimes_args(int fd, struct timeval *tptr)
3364  *
3365  * Set the access and modification times of a file.
3366  *
3367  * MPALMOSTSAFE
3368  */
3369 int
3370 sys_futimes(struct futimes_args *uap)
3371 {
3372         struct timeval tv[2];
3373         int error;
3374
3375         if (uap->tptr) {
3376                 error = copyin(uap->tptr, tv, sizeof(tv));
3377                 if (error)
3378                         return (error);
3379         }
3380         get_mplock();
3381         error = kern_futimes(uap->fd, uap->tptr ? tv : NULL);
3382         rel_mplock();
3383
3384         return (error);
3385 }
3386
3387 int
3388 kern_truncate(struct nlookupdata *nd, off_t length)
3389 {
3390         struct vnode *vp;
3391         struct vattr vattr;
3392         int error;
3393
3394         if (length < 0)
3395                 return(EINVAL);
3396         nd->nl_flags |= NLC_WRITE | NLC_TRUNCATE;
3397         if ((error = nlookup(nd)) != 0)
3398                 return (error);
3399         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
3400                 return (error);
3401         if ((error = cache_vref(&nd->nl_nch, nd->nl_cred, &vp)) != 0)
3402                 return (error);
3403         if ((error = vn_lock(vp, LK_EXCLUSIVE | LK_RETRY)) != 0) {
3404                 vrele(vp);
3405                 return (error);
3406         }
3407         if (vp->v_type == VDIR) {
3408                 error = EISDIR;
3409         } else if ((error = vn_writechk(vp, &nd->nl_nch)) == 0) {
3410                 VATTR_NULL(&vattr);
3411                 vattr.va_size = length;
3412                 error = VOP_SETATTR(vp, &vattr, nd->nl_cred);
3413         }
3414         vput(vp);
3415         return (error);
3416 }
3417
3418 /*
3419  * truncate(char *path, int pad, off_t length)
3420  *
3421  * Truncate a file given its path name.
3422  *
3423  * MPALMOSTSAFE
3424  */
3425 int
3426 sys_truncate(struct truncate_args *uap)
3427 {
3428         struct nlookupdata nd;
3429         int error;
3430
3431         get_mplock();
3432         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
3433         if (error == 0)
3434                 error = kern_truncate(&nd, uap->length);
3435         nlookup_done(&nd);
3436         rel_mplock();
3437         return error;
3438 }
3439
3440 int
3441 kern_ftruncate(int fd, off_t length)
3442 {
3443         struct thread *td = curthread;
3444         struct proc *p = td->td_proc;
3445         struct vattr vattr;
3446         struct vnode *vp;
3447         struct file *fp;
3448         int error;
3449
3450         if (length < 0)
3451                 return(EINVAL);
3452         if ((error = holdvnode(p->p_fd, fd, &fp)) != 0)
3453                 return (error);
3454         if (fp->f_nchandle.ncp) {
3455                 error = ncp_writechk(&fp->f_nchandle);
3456                 if (error)
3457                         goto done;
3458         }
3459         if ((fp->f_flag & FWRITE) == 0) {
3460                 error = EINVAL;
3461                 goto done;
3462         }
3463         if (fp->f_flag & FAPPENDONLY) { /* inode was set s/uapnd */
3464                 error = EINVAL;
3465                 goto done;
3466         }
3467         vp = (struct vnode *)fp->f_data;
3468         vn_lock(vp, LK_EXCLUSIVE | LK_RETRY);
3469         if (vp->v_type == VDIR) {
3470                 error = EISDIR;
3471         } else if ((error = vn_writechk(vp, NULL)) == 0) {
3472                 VATTR_NULL(&vattr);
3473                 vattr.va_size = length;
3474                 error = VOP_SETATTR(vp, &vattr, fp->f_cred);
3475         }
3476         vn_unlock(vp);
3477 done:
3478         fdrop(fp);
3479         return (error);
3480 }
3481
3482 /*
3483  * ftruncate_args(int fd, int pad, off_t length)
3484  *
3485  * Truncate a file given a file descriptor.
3486  *
3487  * MPALMOSTSAFE
3488  */
3489 int
3490 sys_ftruncate(struct ftruncate_args *uap)
3491 {
3492         int error;
3493
3494         get_mplock();
3495         error = kern_ftruncate(uap->fd, uap->length);
3496         rel_mplock();
3497
3498         return (error);
3499 }
3500
3501 /*
3502  * fsync(int fd)
3503  *
3504  * Sync an open file.
3505  *
3506  * MPALMOSTSAFE
3507  */
3508 int
3509 sys_fsync(struct fsync_args *uap)
3510 {
3511         struct thread *td = curthread;
3512         struct proc *p = td->td_proc;
3513         struct vnode *vp;
3514         struct file *fp;
3515         vm_object_t obj;
3516         int error;
3517
3518         if ((error = holdvnode(p->p_fd, uap->fd, &fp)) != 0)
3519                 return (error);
3520         get_mplock();
3521         vp = (struct vnode *)fp->f_data;
3522         vn_lock(vp, LK_EXCLUSIVE | LK_RETRY);
3523         if ((obj = vp->v_object) != NULL)
3524                 vm_object_page_clean(obj, 0, 0, 0);
3525         error = VOP_FSYNC(vp, MNT_WAIT, VOP_FSYNC_SYSCALL);
3526         if (error == 0 && vp->v_mount)
3527                 error = buf_fsync(vp);
3528         vn_unlock(vp);
3529         rel_mplock();
3530         fdrop(fp);
3531
3532         return (error);
3533 }
3534
3535 int
3536 kern_rename(struct nlookupdata *fromnd, struct nlookupdata *tond)
3537 {
3538         struct nchandle fnchd;
3539         struct nchandle tnchd;
3540         struct namecache *ncp;
3541         struct vnode *fdvp;
3542         struct vnode *tdvp;
3543         struct mount *mp;
3544         int error;
3545
3546         bwillinode(1);
3547         fromnd->nl_flags |= NLC_REFDVP | NLC_RENAME_SRC;
3548         if ((error = nlookup(fromnd)) != 0)
3549                 return (error);
3550         if ((fnchd.ncp = fromnd->nl_nch.ncp->nc_parent) == NULL)
3551                 return (ENOENT);
3552         fnchd.mount = fromnd->nl_nch.mount;
3553         cache_hold(&fnchd);
3554
3555         /*
3556          * unlock the source nch so we can lookup the target nch without
3557          * deadlocking.  The target may or may not exist so we do not check
3558          * for a target vp like kern_mkdir() and other creation functions do.
3559          *
3560          * The source and target directories are ref'd and rechecked after
3561          * everything is relocked to determine if the source or target file
3562          * has been renamed.
3563          */
3564         KKASSERT(fromnd->nl_flags & NLC_NCPISLOCKED);
3565         fromnd->nl_flags &= ~NLC_NCPISLOCKED;
3566         cache_unlock(&fromnd->nl_nch);
3567
3568         tond->nl_flags |= NLC_RENAME_DST | NLC_REFDVP;
3569         if ((error = nlookup(tond)) != 0) {
3570                 cache_drop(&fnchd);
3571                 return (error);
3572         }
3573         if ((tnchd.ncp = tond->nl_nch.ncp->nc_parent) == NULL) {
3574                 cache_drop(&fnchd);
3575                 return (ENOENT);
3576         }
3577         tnchd.mount = tond->nl_nch.mount;
3578         cache_hold(&tnchd);
3579
3580         /*
3581          * If the source and target are the same there is nothing to do
3582          */
3583         if (fromnd->nl_nch.ncp == tond->nl_nch.ncp) {
3584                 cache_drop(&fnchd);
3585                 cache_drop(&tnchd);
3586                 return (0);
3587         }
3588
3589         /*
3590          * Mount points cannot be renamed or overwritten
3591          */
3592         if ((fromnd->nl_nch.ncp->nc_flag | tond->nl_nch.ncp->nc_flag) &
3593             NCF_ISMOUNTPT
3594         ) {
3595                 cache_drop(&fnchd);
3596                 cache_drop(&tnchd);
3597                 return (EINVAL);
3598         }
3599
3600         /*
3601          * relock the source ncp.  NOTE AFTER RELOCKING: the source ncp
3602          * may have become invalid while it was unlocked, nc_vp and nc_mount
3603          * could be NULL.
3604          */
3605         if (cache_lock_nonblock(&fromnd->nl_nch) == 0) {
3606                 cache_resolve(&fromnd->nl_nch, fromnd->nl_cred);
3607         } else if (fromnd->nl_nch.ncp > tond->nl_nch.ncp) {
3608                 cache_lock(&fromnd->nl_nch);
3609                 cache_resolve(&fromnd->nl_nch, fromnd->nl_cred);
3610         } else {
3611                 cache_unlock(&tond->nl_nch);
3612                 cache_lock(&fromnd->nl_nch);
3613                 cache_resolve(&fromnd->nl_nch, fromnd->nl_cred);
3614                 cache_lock(&tond->nl_nch);
3615                 cache_resolve(&tond->nl_nch, tond->nl_cred);
3616         }
3617         fromnd->nl_flags |= NLC_NCPISLOCKED;
3618
3619         /*
3620          * make sure the parent directories linkages are the same
3621          */
3622         if (fnchd.ncp != fromnd->nl_nch.ncp->nc_parent ||
3623             tnchd.ncp != tond->nl_nch.ncp->nc_parent) {
3624                 cache_drop(&fnchd);
3625                 cache_drop(&tnchd);
3626                 return (ENOENT);
3627         }
3628
3629         /*
3630          * Both the source and target must be within the same filesystem and
3631          * in the same filesystem as their parent directories within the
3632          * namecache topology.
3633          *
3634          * NOTE: fromnd's nc_mount or nc_vp could be NULL.
3635          */
3636         mp = fnchd.mount;
3637         if (mp != tnchd.mount || mp != fromnd->nl_nch.mount ||
3638             mp != tond->nl_nch.mount) {
3639                 cache_drop(&fnchd);
3640                 cache_drop(&tnchd);
3641                 return (EXDEV);
3642         }
3643
3644         /*
3645          * Make sure the mount point is writable
3646          */
3647         if ((error = ncp_writechk(&tond->nl_nch)) != 0) {
3648                 cache_drop(&fnchd);
3649                 cache_drop(&tnchd);
3650                 return (error);
3651         }
3652
3653         /*
3654          * If the target exists and either the source or target is a directory,
3655          * then both must be directories.
3656          *
3657          * Due to relocking of the source, fromnd->nl_nch.ncp->nc_vp might h
3658          * have become NULL.
3659          */
3660         if (tond->nl_nch.ncp->nc_vp) {
3661                 if (fromnd->nl_nch.ncp->nc_vp == NULL) {
3662                         error = ENOENT;
3663                 } else if (fromnd->nl_nch.ncp->nc_vp->v_type == VDIR) {
3664                         if (tond->nl_nch.ncp->nc_vp->v_type != VDIR)
3665                                 error = ENOTDIR;
3666                 } else if (tond->nl_nch.ncp->nc_vp->v_type == VDIR) {
3667                         error = EISDIR;
3668                 }
3669         }
3670
3671         /*
3672          * You cannot rename a source into itself or a subdirectory of itself.
3673          * We check this by travsersing the target directory upwards looking
3674          * for a match against the source.
3675          */
3676         if (error == 0) {
3677                 for (ncp = tnchd.ncp; ncp; ncp = ncp->nc_parent) {
3678                         if (fromnd->nl_nch.ncp == ncp) {
3679                                 error = EINVAL;
3680                                 break;
3681                         }
3682                 }
3683         }
3684
3685         cache_drop(&fnchd);
3686         cache_drop(&tnchd);
3687
3688         /*
3689          * Even though the namespaces are different, they may still represent
3690          * hardlinks to the same file.  The filesystem might have a hard time
3691          * with this so we issue a NREMOVE of the source instead of a NRENAME
3692          * when we detect the situation.
3693          */
3694         if (error == 0) {
3695                 fdvp = fromnd->nl_dvp;
3696                 tdvp = tond->nl_dvp;
3697                 if (fdvp == NULL || tdvp == NULL) {
3698                         error = EPERM;
3699                 } else if (fromnd->nl_nch.ncp->nc_vp == tond->nl_nch.ncp->nc_vp) {
3700                         error = VOP_NREMOVE(&fromnd->nl_nch, fdvp,
3701                                             fromnd->nl_cred);
3702                 } else {
3703                         error = VOP_NRENAME(&fromnd->nl_nch, &tond->nl_nch, 
3704                                             fdvp, tdvp, tond->nl_cred);
3705                 }
3706         }
3707         return (error);
3708 }
3709
3710 /*
3711  * rename_args(char *from, char *to)
3712  *
3713  * Rename files.  Source and destination must either both be directories,
3714  * or both not be directories.  If target is a directory, it must be empty.
3715  *
3716  * MPALMOSTSAFE
3717  */
3718 int
3719 sys_rename(struct rename_args *uap)
3720 {
3721         struct nlookupdata fromnd, tond;
3722         int error;
3723
3724         get_mplock();
3725         error = nlookup_init(&fromnd, uap->from, UIO_USERSPACE, 0);
3726         if (error == 0) {
3727                 error = nlookup_init(&tond, uap->to, UIO_USERSPACE, 0);
3728                 if (error == 0)
3729                         error = kern_rename(&fromnd, &tond);
3730                 nlookup_done(&tond);
3731         }
3732         nlookup_done(&fromnd);
3733         rel_mplock();
3734         return (error);
3735 }
3736
3737 int
3738 kern_mkdir(struct nlookupdata *nd, int mode)
3739 {
3740         struct thread *td = curthread;
3741         struct proc *p = td->td_proc;
3742         struct vnode *vp;
3743         struct vattr vattr;
3744         int error;
3745
3746         bwillinode(1);
3747         nd->nl_flags |= NLC_WILLBEDIR | NLC_CREATE | NLC_REFDVP;
3748         if ((error = nlookup(nd)) != 0)
3749                 return (error);
3750
3751         if (nd->nl_nch.ncp->nc_vp)
3752                 return (EEXIST);
3753         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
3754                 return (error);
3755         VATTR_NULL(&vattr);
3756         vattr.va_type = VDIR;
3757         vattr.va_mode = (mode & ACCESSPERMS) &~ p->p_fd->fd_cmask;
3758
3759         vp = NULL;
3760         error = VOP_NMKDIR(&nd->nl_nch, nd->nl_dvp, &vp, td->td_ucred, &vattr);
3761         if (error == 0)
3762                 vput(vp);
3763         return (error);
3764 }
3765
3766 /*
3767  * mkdir_args(char *path, int mode)
3768  *
3769  * Make a directory file.
3770  *
3771  * MPALMOSTSAFE
3772  */
3773 int
3774 sys_mkdir(struct mkdir_args *uap)
3775 {
3776         struct nlookupdata nd;
3777         int error;
3778
3779         get_mplock();
3780         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
3781         if (error == 0)
3782                 error = kern_mkdir(&nd, uap->mode);
3783         nlookup_done(&nd);
3784         rel_mplock();
3785         return (error);
3786 }
3787
3788 int
3789 kern_rmdir(struct nlookupdata *nd)
3790 {
3791         int error;
3792
3793         bwillinode(1);
3794         nd->nl_flags |= NLC_DELETE | NLC_REFDVP;
3795         if ((error = nlookup(nd)) != 0)
3796                 return (error);
3797
3798         /*
3799          * Do not allow directories representing mount points to be
3800          * deleted, even if empty.  Check write perms on mount point
3801          * in case the vnode is aliased (aka nullfs).
3802          */
3803         if (nd->nl_nch.ncp->nc_flag & (NCF_ISMOUNTPT))
3804                 return (EINVAL);
3805         if ((error = ncp_writechk(&nd->nl_nch)) != 0)
3806                 return (error);
3807         error = VOP_NRMDIR(&nd->nl_nch, nd->nl_dvp, nd->nl_cred);
3808         return (error);
3809 }
3810
3811 /*
3812  * rmdir_args(char *path)
3813  *
3814  * Remove a directory file.
3815  *
3816  * MPALMOSTSAFE
3817  */
3818 int
3819 sys_rmdir(struct rmdir_args *uap)
3820 {
3821         struct nlookupdata nd;
3822         int error;
3823
3824         get_mplock();
3825         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, 0);
3826         if (error == 0)
3827                 error = kern_rmdir(&nd);
3828         nlookup_done(&nd);
3829         rel_mplock();
3830         return (error);
3831 }
3832
3833 int
3834 kern_getdirentries(int fd, char *buf, u_int count, long *basep, int *res,
3835     enum uio_seg direction)
3836 {
3837         struct thread *td = curthread;
3838         struct proc *p = td->td_proc;
3839         struct vnode *vp;
3840         struct file *fp;
3841         struct uio auio;
3842         struct iovec aiov;
3843         off_t loff;
3844         int error, eofflag;
3845
3846         if ((error = holdvnode(p->p_fd, fd, &fp)) != 0)
3847                 return (error);
3848         if ((fp->f_flag & FREAD) == 0) {
3849                 error = EBADF;
3850                 goto done;
3851         }
3852         vp = (struct vnode *)fp->f_data;
3853 unionread:
3854         if (vp->v_type != VDIR) {
3855                 error = EINVAL;
3856                 goto done;
3857         }
3858         aiov.iov_base = buf;
3859         aiov.iov_len = count;
3860         auio.uio_iov = &aiov;
3861         auio.uio_iovcnt = 1;
3862         auio.uio_rw = UIO_READ;
3863         auio.uio_segflg = direction;
3864         auio.uio_td = td;
3865         auio.uio_resid = count;
3866         loff = auio.uio_offset = fp->f_offset;
3867         error = VOP_READDIR(vp, &auio, fp->f_cred, &eofflag, NULL, NULL);
3868         fp->f_offset = auio.uio_offset;
3869         if (error)
3870                 goto done;
3871         if (count == auio.uio_resid) {
3872                 if (union_dircheckp) {
3873                         error = union_dircheckp(td, &vp, fp);
3874                         if (error == -1)
3875                                 goto unionread;
3876                         if (error)
3877                                 goto done;
3878                 }
3879 #if 0
3880                 if ((vp->v_flag & VROOT) &&
3881                     (vp->v_mount->mnt_flag & MNT_UNION)) {
3882                         struct vnode *tvp = vp;
3883                         vp = vp->v_mount->mnt_vnodecovered;
3884                         vref(vp);
3885                         fp->f_data = vp;
3886                         fp->f_offset = 0;
3887                         vrele(tvp);
3888                         goto unionread;
3889                 }
3890 #endif
3891         }
3892
3893         /*
3894          * WARNING!  *basep may not be wide enough to accomodate the
3895          * seek offset.   XXX should we hack this to return the upper 32 bits
3896          * for offsets greater then 4G?
3897          */
3898         if (basep) {
3899                 *basep = (long)loff;
3900         }
3901         *res = count - auio.uio_resid;
3902 done:
3903         fdrop(fp);
3904         return (error);
3905 }
3906
3907 /*
3908  * getdirentries_args(int fd, char *buf, u_int conut, long *basep)
3909  *
3910  * Read a block of directory entries in a file system independent format.
3911  *
3912  * MPALMOSTSAFE
3913  */
3914 int
3915 sys_getdirentries(struct getdirentries_args *uap)
3916 {
3917         long base;
3918         int error;
3919
3920         get_mplock();
3921         error = kern_getdirentries(uap->fd, uap->buf, uap->count, &base,
3922                                    &uap->sysmsg_result, UIO_USERSPACE);
3923         rel_mplock();
3924
3925         if (error == 0 && uap->basep)
3926                 error = copyout(&base, uap->basep, sizeof(*uap->basep));
3927         return (error);
3928 }
3929
3930 /*
3931  * getdents_args(int fd, char *buf, size_t count)
3932  *
3933  * MPALMOSTSAFE
3934  */
3935 int
3936 sys_getdents(struct getdents_args *uap)
3937 {
3938         int error;
3939
3940         get_mplock();
3941         error = kern_getdirentries(uap->fd, uap->buf, uap->count, NULL,
3942                                    &uap->sysmsg_result, UIO_USERSPACE);
3943         rel_mplock();
3944
3945         return (error);
3946 }
3947
3948 /*
3949  * Set the mode mask for creation of filesystem nodes.
3950  *
3951  * umask(int newmask)
3952  *
3953  * MPSAFE
3954  */
3955 int
3956 sys_umask(struct umask_args *uap)
3957 {
3958         struct thread *td = curthread;
3959         struct proc *p = td->td_proc;
3960         struct filedesc *fdp;
3961
3962         fdp = p->p_fd;
3963         uap->sysmsg_result = fdp->fd_cmask;
3964         fdp->fd_cmask = uap->newmask & ALLPERMS;
3965         return (0);
3966 }
3967
3968 /*
3969  * revoke(char *path)
3970  *
3971  * Void all references to file by ripping underlying filesystem
3972  * away from vnode.
3973  *
3974  * MPALMOSTSAFE
3975  */
3976 int
3977 sys_revoke(struct revoke_args *uap)
3978 {
3979         struct nlookupdata nd;
3980         struct vattr vattr;
3981         struct vnode *vp;
3982         struct ucred *cred;
3983         int error;
3984
3985         vp = NULL;
3986         get_mplock();
3987         error = nlookup_init(&nd, uap->path, UIO_USERSPACE, NLC_FOLLOW);
3988         if (error == 0)
3989                 error = nlookup(&nd);
3990         if (error == 0)
3991                 error = cache_vref(&nd.nl_nch, nd.nl_cred, &vp);
3992         cred = crhold(nd.nl_cred);
3993         nlookup_done(&nd);
3994         if (error == 0) {
3995                 if (error == 0)
3996                         error = VOP_GETATTR(vp, &vattr);
3997                 if (error == 0 && cred->cr_uid != vattr.va_uid)
3998                         error = priv_check_cred(cred, PRIV_VFS_REVOKE, 0);
3999                 if (error == 0 && (vp->v_type == VCHR || vp->v_type == VBLK)) {
4000                         if (vcount(vp) > 0)
4001                                 error = vrevoke(vp, cred);
4002                 } else if (error == 0) {
4003                         error = vrevoke(vp, cred);
4004                 }
4005                 vrele(vp);
4006         }
4007         if (cred)
4008                 crfree(cred);
4009         rel_mplock();
4010         return (error);
4011 }
4012
4013 /*
4014  * getfh_args(char *fname, fhandle_t *fhp)
4015  *
4016  * Get (NFS) file handle
4017  *
4018  * NOTE: We use the fsid of the covering mount, even if it is a nullfs
4019  * mount.  This allows nullfs mounts to be explicitly exported. 
4020  *
4021  * WARNING: nullfs mounts of HAMMER PFS ROOTs are safe.
4022  *
4023  *          nullfs mounts of subdirectories are not safe.  That is, it will
4024  *          work, but you do not really have protection against access to
4025  *          the related parent directories.
4026  *
4027  * MPALMOSTSAFE
4028  */
4029 int
4030 sys_getfh(struct getfh_args *uap)
4031 {
4032         struct thread *td = curthread;
4033         struct nlookupdata nd;
4034         fhandle_t fh;
4035         struct vnode *vp;
4036         struct mount *mp;
4037         int error;
4038
4039         /*
4040          * Must be super user
4041          */
4042         if ((error = priv_check(td, PRIV_ROOT)) != 0)
4043                 return (error);
4044
4045         vp = NULL;
4046         get_mplock();
4047         error = nlookup_init(&nd, uap->fname, UIO_USERSPACE, NLC_FOLLOW);
4048         if (error == 0)
4049                 error = nlookup(&nd);
4050         if (error == 0)
4051                 error = cache_vget(&nd.nl_nch, nd.nl_cred, LK_EXCLUSIVE, &vp);
4052         mp = nd.nl_nch.mount;
4053         nlookup_done(&nd);
4054         if (error == 0) {
4055                 bzero(&fh, sizeof(fh));
4056                 fh.fh_fsid = mp->mnt_stat.f_fsid;
4057                 error = VFS_VPTOFH(vp, &fh.fh_fid);
4058                 vput(vp);
4059                 if (error == 0)
4060                         error = copyout(&fh, uap->fhp, sizeof(fh));
4061         }
4062         rel_mplock();
4063         return (error);
4064 }
4065
4066 /*
4067  * fhopen_args(const struct fhandle *u_fhp, int flags)
4068  *
4069  * syscall for the rpc.lockd to use to translate a NFS file handle into
4070  * an open descriptor.
4071  *
4072  * warning: do not remove the priv_check() call or this becomes one giant
4073  * security hole.
4074  *
4075  * MPALMOSTSAFE
4076  */
4077 int
4078 sys_fhopen(struct fhopen_args *uap)
4079 {
4080         struct thread *td = curthread;
4081         struct filedesc *fdp = td->td_proc->p_fd;
4082         struct mount *mp;
4083         struct vnode *vp;
4084         struct fhandle fhp;
4085         struct vattr vat;
4086         struct vattr *vap = &vat;
4087         struct flock lf;
4088         int fmode, mode, error, type;
4089         struct file *nfp; 
4090         struct file *fp;
4091         int indx;
4092
4093         /*
4094          * Must be super user
4095          */
4096         error = priv_check(td, PRIV_ROOT);
4097         if (error)
4098                 return (error);
4099
4100         fmode = FFLAGS(uap->flags);
4101
4102         /*
4103          * Why not allow a non-read/write open for our lockd?
4104          */
4105         if (((fmode & (FREAD | FWRITE)) == 0) || (fmode & O_CREAT))
4106                 return (EINVAL);
4107         error = copyin(uap->u_fhp, &fhp, sizeof(fhp));
4108         if (error)
4109                 return(error);
4110
4111         /*
4112          * Find the mount point
4113          */
4114         get_mplock();
4115         mp = vfs_getvfs(&fhp.fh_fsid);
4116         if (mp == NULL) {
4117                 error = ESTALE;
4118                 goto  done;
4119         }
4120         /* now give me my vnode, it gets returned to me locked */
4121         error = VFS_FHTOVP(mp, NULL, &fhp.fh_fid, &vp);
4122         if (error)
4123                 goto done;
4124         /*
4125          * from now on we have to make sure not
4126          * to forget about the vnode
4127          * any error that causes an abort must vput(vp) 
4128          * just set error = err and 'goto bad;'.
4129          */
4130
4131         /* 
4132          * from vn_open 
4133          */
4134         if (vp->v_type == VLNK) {
4135                 error = EMLINK;
4136                 goto bad;
4137         }
4138         if (vp->v_type == VSOCK) {
4139                 error = EOPNOTSUPP;
4140                 goto bad;
4141         }
4142         mode = 0;
4143         if (fmode & (FWRITE | O_TRUNC)) {
4144                 if (vp->v_type == VDIR) {
4145                         error = EISDIR;
4146                         goto bad;
4147                 }
4148                 error = vn_writechk(vp, NULL);
4149                 if (error)
4150                         goto bad;
4151                 mode |= VWRITE;
4152         }
4153         if (fmode & FREAD)
4154                 mode |= VREAD;
4155         if (mode) {
4156                 error = VOP_ACCESS(vp, mode, td->td_ucred);
4157                 if (error)
4158                         goto bad;
4159         }
4160         if (fmode & O_TRUNC) {
4161                 vn_unlock(vp);                          /* XXX */
4162                 vn_lock(vp, LK_EXCLUSIVE | LK_RETRY);   /* XXX */
4163                 VATTR_NULL(vap);
4164                 vap->va_size = 0;
4165                 error = VOP_SETATTR(vp, vap, td->td_ucred);
4166                 if (error)
4167                         goto bad;
4168         }
4169
4170         /*
4171          * VOP_OPEN needs the file pointer so it can potentially override
4172          * it.
4173          *
4174          * WARNING! no f_nchandle will be associated when fhopen()ing a
4175          * directory.  XXX
4176          */
4177         if ((error = falloc(td->td_lwp, &nfp, &indx)) != 0)
4178                 goto bad;
4179         fp = nfp;
4180
4181         error = VOP_OPEN(vp, fmode, td->td_ucred, fp);
4182         if (error) {
4183                 /*
4184                  * setting f_ops this way prevents VOP_CLOSE from being
4185                  * called or fdrop() releasing the vp from v_data.   Since
4186                  * the VOP_OPEN failed we don't want to VOP_CLOSE.
4187                  */
4188                 fp->f_ops = &badfileops;
4189                 fp->f_data = NULL;
4190                 goto bad_drop;
4191         }
4192
4193         /*
4194          * The fp is given its own reference, we still have our ref and lock.
4195          *
4196          * Assert that all regular files must be created with a VM object.
4197          */
4198         if (vp->v_type == VREG && vp->v_object == NULL) {
4199                 kprintf("fhopen: regular file did not have VM object: %p\n", vp);
4200                 goto bad_drop;
4201         }
4202
4203         /*
4204          * The open was successful.  Handle any locking requirements.
4205          */
4206         if (fmode & (O_EXLOCK | O_SHLOCK)) {
4207                 lf.l_whence = SEEK_SET;
4208                 lf.l_start = 0;
4209                 lf.l_len = 0;
4210                 if (fmode & O_EXLOCK)
4211                         lf.l_type = F_WRLCK;
4212                 else
4213                         lf.l_type = F_RDLCK;
4214                 if (fmode & FNONBLOCK)
4215                         type = 0;
4216                 else
4217                         type = F_WAIT;
4218                 vn_unlock(vp);
4219                 if ((error = VOP_ADVLOCK(vp, (caddr_t)fp, F_SETLK, &lf, type)) != 0) {
4220                         /*
4221                          * release our private reference.
4222                          */
4223                         fsetfd(fdp, NULL, indx);
4224                         fdrop(fp);
4225                         vrele(vp);
4226                         goto done;
4227                 }
4228                 vn_lock(vp, LK_EXCLUSIVE | LK_RETRY);
4229                 fp->f_flag |= FHASLOCK;
4230         }
4231
4232         /*
4233          * Clean up.  Associate the file pointer with the previously
4234          * reserved descriptor and return it.
4235          */
4236         vput(vp);
4237         rel_mplock();
4238         fsetfd(fdp, fp, indx);
4239         fdrop(fp);
4240         uap->sysmsg_result = indx;
4241         return (0);
4242
4243 bad_drop:
4244         fsetfd(fdp, NULL, indx);
4245         fdrop(fp);
4246 bad:
4247         vput(vp);
4248 done:
4249         rel_mplock();
4250         return (error);
4251 }
4252
4253 /*
4254  * fhstat_args(struct fhandle *u_fhp, struct stat *sb)
4255  *
4256  * MPALMOSTSAFE
4257  */
4258 int
4259 sys_fhstat(struct fhstat_args *uap)
4260 {
4261         struct thread *td = curthread;
4262         struct stat sb;
4263         fhandle_t fh;
4264         struct mount *mp;
4265         struct vnode *vp;
4266         int error;
4267
4268         /*
4269          * Must be super user
4270          */
4271         error = priv_check(td, PRIV_ROOT);
4272         if (error)
4273                 return (error);
4274         
4275         error = copyin(uap->u_fhp, &fh, sizeof(fhandle_t));
4276         if (error)
4277                 return (error);
4278
4279         get_mplock();
4280         if ((mp = vfs_getvfs(&fh.fh_fsid)) == NULL)
4281                 error = ESTALE;
4282         if (error == 0) {
4283                 if ((error = VFS_FHTOVP(mp, NULL, &fh.fh_fid, &vp)) == 0) {
4284                         error = vn_stat(vp, &sb, td->td_ucred);
4285                         vput(vp);
4286                 }
4287         }
4288         rel_mplock();
4289         if (error == 0)
4290                 error = copyout(&sb, uap->sb, sizeof(sb));
4291         return (error);
4292 }
4293
4294 /*
4295  * fhstatfs_args(struct fhandle *u_fhp, struct statfs *buf)
4296  *
4297  * MPALMOSTSAFE
4298  */
4299 int
4300 sys_fhstatfs(struct fhstatfs_args *uap)
4301 {
4302         struct thread *td = curthread;
4303         struct proc *p = td->td_proc;
4304         struct statfs *sp;
4305         struct mount *mp;
4306         struct vnode *vp;
4307         struct statfs sb;
4308         char *fullpath, *freepath;
4309         fhandle_t fh;
4310         int error;
4311
4312         /*
4313          * Must be super user
4314          */
4315         if ((error = priv_check(td, PRIV_ROOT)))
4316                 return (error);
4317
4318         if ((error = copyin(uap->u_fhp, &fh, sizeof(fhandle_t))) != 0)
4319                 return (error);
4320
4321         get_mplock();
4322
4323         if ((mp = vfs_getvfs(&fh.fh_fsid)) == NULL) {
4324                 error = ESTALE;