proc->thread stage 4: rework the VFS and DEVICE subsystems to take thread
[dragonfly.git] / sys / kern / kern_ktrace.c
1 /*
2  * Copyright (c) 1989, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright
11  *    notice, this list of conditions and the following disclaimer in the
12  *    documentation and/or other materials provided with the distribution.
13  * 3. All advertising materials mentioning features or use of this software
14  *    must display the following acknowledgement:
15  *      This product includes software developed by the University of
16  *      California, Berkeley and its contributors.
17  * 4. Neither the name of the University nor the names of its contributors
18  *    may be used to endorse or promote products derived from this software
19  *    without specific prior written permission.
20  *
21  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
22  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
23  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
24  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
25  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
26  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
27  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
28  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
29  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
30  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
31  * SUCH DAMAGE.
32  *
33  *      @(#)kern_ktrace.c       8.2 (Berkeley) 9/23/93
34  * $FreeBSD: src/sys/kern/kern_ktrace.c,v 1.35.2.6 2002/07/05 22:36:38 darrenr Exp $
35  * $DragonFly: src/sys/kern/kern_ktrace.c,v 1.4 2003/06/25 03:55:57 dillon Exp $
36  */
37
38 #include "opt_ktrace.h"
39
40 #include <sys/param.h>
41 #include <sys/systm.h>
42 #include <sys/sysproto.h>
43 #include <sys/kernel.h>
44 #include <sys/proc.h>
45 #include <sys/fcntl.h>
46 #include <sys/lock.h>
47 #include <sys/namei.h>
48 #include <sys/vnode.h>
49 #include <sys/ktrace.h>
50 #include <sys/malloc.h>
51 #include <sys/syslog.h>
52 #include <sys/sysent.h>
53
54 #include <vm/vm_zone.h>
55 static MALLOC_DEFINE(M_KTRACE, "KTRACE", "KTRACE");
56
57 #ifdef KTRACE
58 static struct ktr_header *ktrgetheader __P((int type));
59 static void ktrwrite __P((struct vnode *, struct ktr_header *, struct uio *));
60 static int ktrcanset __P((struct proc *,struct proc *));
61 static int ktrsetchildren __P((struct proc *,struct proc *,int,int,struct vnode *));
62 static int ktrops __P((struct proc *,struct proc *,int,int,struct vnode *));
63
64
65 static struct ktr_header *
66 ktrgetheader(type)
67         int type;
68 {
69         register struct ktr_header *kth;
70         struct proc *p = curproc;       /* XXX */
71
72         MALLOC(kth, struct ktr_header *, sizeof (struct ktr_header),
73                 M_KTRACE, M_WAITOK);
74         kth->ktr_type = type;
75         microtime(&kth->ktr_time);
76         kth->ktr_pid = p->p_pid;
77         bcopy(p->p_comm, kth->ktr_comm, MAXCOMLEN + 1);
78         return (kth);
79 }
80
81 void
82 ktrsyscall(vp, code, narg, args)
83         struct vnode *vp;
84         int code, narg;
85         register_t args[];
86 {
87         struct  ktr_header *kth;
88         struct  ktr_syscall *ktp;
89         register int len = offsetof(struct ktr_syscall, ktr_args) +
90             (narg * sizeof(register_t));
91         struct proc *p = curproc;       /* XXX */
92         register_t *argp;
93         int i;
94
95         p->p_traceflag |= KTRFAC_ACTIVE;
96         kth = ktrgetheader(KTR_SYSCALL);
97         MALLOC(ktp, struct ktr_syscall *, len, M_KTRACE, M_WAITOK);
98         ktp->ktr_code = code;
99         ktp->ktr_narg = narg;
100         argp = &ktp->ktr_args[0];
101         for (i = 0; i < narg; i++)
102                 *argp++ = args[i];
103         kth->ktr_buf = (caddr_t)ktp;
104         kth->ktr_len = len;
105         ktrwrite(vp, kth, NULL);
106         FREE(ktp, M_KTRACE);
107         FREE(kth, M_KTRACE);
108         p->p_traceflag &= ~KTRFAC_ACTIVE;
109 }
110
111 void
112 ktrsysret(vp, code, error, retval)
113         struct vnode *vp;
114         int code, error;
115         register_t retval;
116 {
117         struct ktr_header *kth;
118         struct ktr_sysret ktp;
119         struct proc *p = curproc;       /* XXX */
120
121         p->p_traceflag |= KTRFAC_ACTIVE;
122         kth = ktrgetheader(KTR_SYSRET);
123         ktp.ktr_code = code;
124         ktp.ktr_error = error;
125         ktp.ktr_retval = retval;                /* what about val2 ? */
126
127         kth->ktr_buf = (caddr_t)&ktp;
128         kth->ktr_len = sizeof(struct ktr_sysret);
129
130         ktrwrite(vp, kth, NULL);
131         FREE(kth, M_KTRACE);
132         p->p_traceflag &= ~KTRFAC_ACTIVE;
133 }
134
135 void
136 ktrnamei(vp, path)
137         struct vnode *vp;
138         char *path;
139 {
140         struct ktr_header *kth;
141         struct proc *p = curproc;       /* XXX */
142
143         /*
144          * don't let vp get ripped out from under us
145          */
146         if (vp)
147                 VREF(vp);
148         p->p_traceflag |= KTRFAC_ACTIVE;
149         kth = ktrgetheader(KTR_NAMEI);
150         kth->ktr_len = strlen(path);
151         kth->ktr_buf = path;
152
153         ktrwrite(vp, kth, NULL);
154         if (vp)
155                 vrele(vp);
156         FREE(kth, M_KTRACE);
157         p->p_traceflag &= ~KTRFAC_ACTIVE;
158 }
159
160 void
161 ktrgenio(vp, fd, rw, uio, error)
162         struct vnode *vp;
163         int fd;
164         enum uio_rw rw;
165         struct uio *uio;
166         int error;
167 {
168         struct ktr_header *kth;
169         struct ktr_genio ktg;
170         struct proc *p = curproc;       /* XXX */
171
172         if (error)
173                 return;
174         /*
175          * don't let p_tracep get ripped out from under us
176          */
177         if (vp)
178                 VREF(vp);
179         p->p_traceflag |= KTRFAC_ACTIVE;
180         kth = ktrgetheader(KTR_GENIO);
181         ktg.ktr_fd = fd;
182         ktg.ktr_rw = rw;
183         kth->ktr_buf = (caddr_t)&ktg;
184         kth->ktr_len = sizeof(struct ktr_genio);
185         uio->uio_offset = 0;
186         uio->uio_rw = UIO_WRITE;
187
188         ktrwrite(vp, kth, uio);
189         if (vp)
190                 vrele(vp);
191         FREE(kth, M_KTRACE);
192         p->p_traceflag &= ~KTRFAC_ACTIVE;
193 }
194
195 void
196 ktrpsig(vp, sig, action, mask, code)
197         struct vnode *vp;
198         int sig;
199         sig_t action;
200         sigset_t *mask;
201         int code;
202 {
203         struct ktr_header *kth;
204         struct ktr_psig kp;
205         struct proc *p = curproc;       /* XXX */
206
207         /*
208          * don't let vp get ripped out from under us
209          */
210         if (vp)
211                 VREF(vp);
212         p->p_traceflag |= KTRFAC_ACTIVE;
213         kth = ktrgetheader(KTR_PSIG);
214         kp.signo = (char)sig;
215         kp.action = action;
216         kp.mask = *mask;
217         kp.code = code;
218         kth->ktr_buf = (caddr_t)&kp;
219         kth->ktr_len = sizeof (struct ktr_psig);
220
221         ktrwrite(vp, kth, NULL);
222         if (vp)
223                 vrele(vp);
224         FREE(kth, M_KTRACE);
225         p->p_traceflag &= ~KTRFAC_ACTIVE;
226 }
227
228 void
229 ktrcsw(vp, out, user)
230         struct vnode *vp;
231         int out, user;
232 {
233         struct ktr_header *kth;
234         struct  ktr_csw kc;
235         struct proc *p = curproc;       /* XXX */
236
237         /*
238          * don't let vp get ripped out from under us
239          */
240         if (vp)
241                 VREF(vp);
242         p->p_traceflag |= KTRFAC_ACTIVE;
243         kth = ktrgetheader(KTR_CSW);
244         kc.out = out;
245         kc.user = user;
246         kth->ktr_buf = (caddr_t)&kc;
247         kth->ktr_len = sizeof (struct ktr_csw);
248
249         ktrwrite(vp, kth, NULL);
250         if (vp)
251                 vrele(vp);
252         FREE(kth, M_KTRACE);
253         p->p_traceflag &= ~KTRFAC_ACTIVE;
254 }
255 #endif
256
257 /* Interface and common routines */
258
259 /*
260  * ktrace system call
261  */
262 #ifndef _SYS_SYSPROTO_H_
263 struct ktrace_args {
264         char    *fname;
265         int     ops;
266         int     facs;
267         int     pid;
268 };
269 #endif
270 /* ARGSUSED */
271 int
272 ktrace(struct ktrace_args *uap)
273 {
274 #ifdef KTRACE
275         struct thread *td = curthread;
276         struct proc *curp = td->td_proc;
277         struct vnode *vp = NULL;
278         struct proc *p;
279         struct pgrp *pg;
280         int facs = uap->facs & ~KTRFAC_ROOT;
281         int ops = KTROP(uap->ops);
282         int descend = uap->ops & KTRFLAG_DESCEND;
283         int ret = 0;
284         int error = 0;
285         struct nameidata nd;
286
287         curp->p_traceflag |= KTRFAC_ACTIVE;
288         if (ops != KTROP_CLEAR) {
289                 /*
290                  * an operation which requires a file argument.
291                  */
292                 NDINIT(&nd, LOOKUP, NOFOLLOW, UIO_USERSPACE, uap->fname, td);
293                 error = vn_open(&nd, FREAD|FWRITE|O_NOFOLLOW, 0);
294                 if (error) {
295                         curp->p_traceflag &= ~KTRFAC_ACTIVE;
296                         return (error);
297                 }
298                 NDFREE(&nd, NDF_ONLY_PNBUF);
299                 vp = nd.ni_vp;
300                 VOP_UNLOCK(vp, 0, td);
301                 if (vp->v_type != VREG) {
302                         (void) vn_close(vp, FREAD|FWRITE, curp->p_ucred, td);
303                         curp->p_traceflag &= ~KTRFAC_ACTIVE;
304                         return (EACCES);
305                 }
306         }
307         /*
308          * Clear all uses of the tracefile.  XXX umm, what happens to the
309          * loop if vn_close() blocks?
310          */
311         if (ops == KTROP_CLEARFILE) {
312                 LIST_FOREACH(p, &allproc, p_list) {
313                         if (p->p_tracep == vp) {
314                                 if (ktrcanset(curp, p) && p->p_tracep == vp) {
315                                         p->p_tracep = NULL;
316                                         p->p_traceflag = 0;
317                                         (void) vn_close(vp, FREAD|FWRITE,
318                                                 p->p_ucred, td);
319                                 } else {
320                                         error = EPERM;
321                                 }
322                         }
323                 }
324                 goto done;
325         }
326         /*
327          * need something to (un)trace (XXX - why is this here?)
328          */
329         if (!facs) {
330                 error = EINVAL;
331                 goto done;
332         }
333         /*
334          * do it
335          */
336         if (uap->pid < 0) {
337                 /*
338                  * by process group
339                  */
340                 pg = pgfind(-uap->pid);
341                 if (pg == NULL) {
342                         error = ESRCH;
343                         goto done;
344                 }
345                 LIST_FOREACH(p, &pg->pg_members, p_pglist)
346                         if (descend)
347                                 ret |= ktrsetchildren(curp, p, ops, facs, vp);
348                         else
349                                 ret |= ktrops(curp, p, ops, facs, vp);
350
351         } else {
352                 /*
353                  * by pid
354                  */
355                 p = pfind(uap->pid);
356                 if (p == NULL) {
357                         error = ESRCH;
358                         goto done;
359                 }
360                 if (descend)
361                         ret |= ktrsetchildren(curp, p, ops, facs, vp);
362                 else
363                         ret |= ktrops(curp, p, ops, facs, vp);
364         }
365         if (!ret)
366                 error = EPERM;
367 done:
368         if (vp != NULL)
369                 (void) vn_close(vp, FWRITE, curp->p_ucred, td);
370         curp->p_traceflag &= ~KTRFAC_ACTIVE;
371         return (error);
372 #else
373         return ENOSYS;
374 #endif
375 }
376
377 /*
378  * utrace system call
379  */
380 /* ARGSUSED */
381 int
382 utrace(struct utrace_args *uap)
383 {
384 #ifdef KTRACE
385         struct ktr_header *kth;
386         struct thread *td = curthread;  /* XXX */
387         struct proc *p = td->td_proc;
388         struct vnode *vp;
389         register caddr_t cp;
390
391         if (!KTRPOINT(td, KTR_USER))
392                 return (0);
393         if (SCARG(uap, len) > KTR_USER_MAXLEN)
394                 return (EINVAL);
395         p->p_traceflag |= KTRFAC_ACTIVE;
396         /*
397          * don't let p_tracep get ripped out from under us while we are
398          * writing.
399          */
400         if ((vp = p->p_tracep) != NULL)
401                 VREF(vp);
402         kth = ktrgetheader(KTR_USER);
403         MALLOC(cp, caddr_t, uap->len, M_KTRACE, M_WAITOK);
404         if (!copyin(uap->addr, cp, uap->len)) {
405                 kth->ktr_buf = cp;
406                 kth->ktr_len = uap->len;
407                 ktrwrite(vp, kth, NULL);
408         }
409         if (vp)
410                 vrele(vp);
411         FREE(kth, M_KTRACE);
412         FREE(cp, M_KTRACE);
413         p->p_traceflag &= ~KTRFAC_ACTIVE;
414
415         return (0);
416 #else
417         return (ENOSYS);
418 #endif
419 }
420
421 #ifdef KTRACE
422 static int
423 ktrops(curp, p, ops, facs, vp)
424         struct proc *p, *curp;
425         int ops, facs;
426         struct vnode *vp;
427 {
428
429         if (!ktrcanset(curp, p))
430                 return (0);
431         if (ops == KTROP_SET) {
432                 if (p->p_tracep != vp) {
433                         struct vnode *vtmp;
434
435                         /*
436                          * if trace file already in use, relinquish
437                          */
438                         VREF(vp);
439                         while ((vtmp = p->p_tracep) != NULL) {
440                                 p->p_tracep = NULL;
441                                 vrele(vtmp);
442                         }
443                         p->p_tracep = vp;
444                 }
445                 p->p_traceflag |= facs;
446                 if (curp->p_ucred->cr_uid == 0)
447                         p->p_traceflag |= KTRFAC_ROOT;
448         } else {
449                 /* KTROP_CLEAR */
450                 if (((p->p_traceflag &= ~facs) & KTRFAC_MASK) == 0) {
451                         struct vnode *vtmp;
452
453                         /* no more tracing */
454                         p->p_traceflag = 0;
455                         if ((vtmp = p->p_tracep) != NULL) {
456                                 p->p_tracep = NULL;
457                                 vrele(vtmp);
458                         }
459                 }
460         }
461
462         return (1);
463 }
464
465 static int
466 ktrsetchildren(curp, top, ops, facs, vp)
467         struct proc *curp, *top;
468         int ops, facs;
469         struct vnode *vp;
470 {
471         register struct proc *p;
472         register int ret = 0;
473
474         p = top;
475         for (;;) {
476                 ret |= ktrops(curp, p, ops, facs, vp);
477                 /*
478                  * If this process has children, descend to them next,
479                  * otherwise do any siblings, and if done with this level,
480                  * follow back up the tree (but not past top).
481                  */
482                 if (!LIST_EMPTY(&p->p_children))
483                         p = LIST_FIRST(&p->p_children);
484                 else for (;;) {
485                         if (p == top)
486                                 return (ret);
487                         if (LIST_NEXT(p, p_sibling)) {
488                                 p = LIST_NEXT(p, p_sibling);
489                                 break;
490                         }
491                         p = p->p_pptr;
492                 }
493         }
494         /*NOTREACHED*/
495 }
496
497 static void
498 ktrwrite(struct vnode *vp, struct ktr_header *kth, struct uio *uio)
499 {
500         struct uio auio;
501         struct iovec aiov[2];
502         struct thread *td = curthread;
503         struct proc *p = td->td_proc;   /* XXX */
504         int error;
505
506         if (vp == NULL)
507                 return;
508         auio.uio_iov = &aiov[0];
509         auio.uio_offset = 0;
510         auio.uio_segflg = UIO_SYSSPACE;
511         auio.uio_rw = UIO_WRITE;
512         aiov[0].iov_base = (caddr_t)kth;
513         aiov[0].iov_len = sizeof(struct ktr_header);
514         auio.uio_resid = sizeof(struct ktr_header);
515         auio.uio_iovcnt = 1;
516         auio.uio_td = curthread;
517         if (kth->ktr_len > 0) {
518                 auio.uio_iovcnt++;
519                 aiov[1].iov_base = kth->ktr_buf;
520                 aiov[1].iov_len = kth->ktr_len;
521                 auio.uio_resid += kth->ktr_len;
522                 if (uio != NULL)
523                         kth->ktr_len += uio->uio_resid;
524         }
525         vn_lock(vp, LK_EXCLUSIVE | LK_RETRY, td);
526         (void)VOP_LEASE(vp, td, p->p_ucred, LEASE_WRITE);
527         error = VOP_WRITE(vp, &auio, IO_UNIT | IO_APPEND, p->p_ucred);
528         if (error == 0 && uio != NULL) {
529                 (void)VOP_LEASE(vp, td, p->p_ucred, LEASE_WRITE);
530                 error = VOP_WRITE(vp, uio, IO_UNIT | IO_APPEND, p->p_ucred);
531         }
532         VOP_UNLOCK(vp, 0, td);
533         if (!error)
534                 return;
535         /*
536          * If error encountered, give up tracing on this vnode.  XXX what
537          * happens to the loop if vrele() blocks?
538          */
539         log(LOG_NOTICE, "ktrace write failed, errno %d, tracing stopped\n",
540             error);
541         LIST_FOREACH(p, &allproc, p_list) {
542                 if (p->p_tracep == vp) {
543                         p->p_tracep = NULL;
544                         p->p_traceflag = 0;
545                         vrele(vp);
546                 }
547         }
548 }
549
550 /*
551  * Return true if caller has permission to set the ktracing state
552  * of target.  Essentially, the target can't possess any
553  * more permissions than the caller.  KTRFAC_ROOT signifies that
554  * root previously set the tracing status on the target process, and
555  * so, only root may further change it.
556  *
557  * TODO: check groups.  use caller effective gid.
558  */
559 static int
560 ktrcanset(struct proc *callp, struct proc *targetp)
561 {
562         struct ucred *caller = callp->p_ucred;
563         struct ucred *target = targetp->p_ucred;
564
565         if (!PRISON_CHECK(caller, target))
566                 return (0);
567         if ((caller->cr_uid == target->cr_ruid &&
568              target->cr_ruid == target->cr_svuid &&
569              caller->cr_rgid == target->cr_rgid &&      /* XXX */
570              target->cr_rgid == target->cr_svgid &&
571              (targetp->p_traceflag & KTRFAC_ROOT) == 0 &&
572              (targetp->p_flag & P_SUGID) == 0) ||
573              caller->cr_uid == 0)
574                 return (1);
575
576         return (0);
577 }
578
579 #endif /* KTRACE */