partially fix pctcpu and userland rescheduling. We really have to distribute
[dragonfly.git] / sys / kern / kern_ktrace.c
1 /*
2  * Copyright (c) 1989, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright
11  *    notice, this list of conditions and the following disclaimer in the
12  *    documentation and/or other materials provided with the distribution.
13  * 3. All advertising materials mentioning features or use of this software
14  *    must display the following acknowledgement:
15  *      This product includes software developed by the University of
16  *      California, Berkeley and its contributors.
17  * 4. Neither the name of the University nor the names of its contributors
18  *    may be used to endorse or promote products derived from this software
19  *    without specific prior written permission.
20  *
21  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
22  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
23  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
24  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
25  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
26  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
27  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
28  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
29  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
30  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
31  * SUCH DAMAGE.
32  *
33  *      @(#)kern_ktrace.c       8.2 (Berkeley) 9/23/93
34  * $FreeBSD: src/sys/kern/kern_ktrace.c,v 1.35.2.6 2002/07/05 22:36:38 darrenr Exp $
35  * $DragonFly: src/sys/kern/kern_ktrace.c,v 1.5 2003/06/26 05:55:14 dillon Exp $
36  */
37
38 #include "opt_ktrace.h"
39
40 #include <sys/param.h>
41 #include <sys/systm.h>
42 #include <sys/sysproto.h>
43 #include <sys/kernel.h>
44 #include <sys/proc.h>
45 #include <sys/fcntl.h>
46 #include <sys/lock.h>
47 #include <sys/namei.h>
48 #include <sys/vnode.h>
49 #include <sys/ktrace.h>
50 #include <sys/malloc.h>
51 #include <sys/syslog.h>
52 #include <sys/sysent.h>
53
54 #include <vm/vm_zone.h>
55 static MALLOC_DEFINE(M_KTRACE, "KTRACE", "KTRACE");
56
57 #ifdef KTRACE
58 static struct ktr_header *ktrgetheader __P((int type));
59 static void ktrwrite __P((struct vnode *, struct ktr_header *, struct uio *));
60 static int ktrcanset __P((struct proc *,struct proc *));
61 static int ktrsetchildren __P((struct proc *,struct proc *,int,int,struct vnode *));
62 static int ktrops __P((struct proc *,struct proc *,int,int,struct vnode *));
63
64
65 static struct ktr_header *
66 ktrgetheader(type)
67         int type;
68 {
69         register struct ktr_header *kth;
70         struct proc *p = curproc;       /* XXX */
71
72         MALLOC(kth, struct ktr_header *, sizeof (struct ktr_header),
73                 M_KTRACE, M_WAITOK);
74         kth->ktr_type = type;
75         microtime(&kth->ktr_time);
76         kth->ktr_pid = p->p_pid;
77         bcopy(p->p_comm, kth->ktr_comm, MAXCOMLEN + 1);
78         return (kth);
79 }
80
81 void
82 ktrsyscall(vp, code, narg, args)
83         struct vnode *vp;
84         int code, narg;
85         register_t args[];
86 {
87         struct  ktr_header *kth;
88         struct  ktr_syscall *ktp;
89         register int len = offsetof(struct ktr_syscall, ktr_args) +
90             (narg * sizeof(register_t));
91         struct proc *p = curproc;       /* XXX */
92         register_t *argp;
93         int i;
94
95         p->p_traceflag |= KTRFAC_ACTIVE;
96         kth = ktrgetheader(KTR_SYSCALL);
97         MALLOC(ktp, struct ktr_syscall *, len, M_KTRACE, M_WAITOK);
98         ktp->ktr_code = code;
99         ktp->ktr_narg = narg;
100         argp = &ktp->ktr_args[0];
101         for (i = 0; i < narg; i++)
102                 *argp++ = args[i];
103         kth->ktr_buf = (caddr_t)ktp;
104         kth->ktr_len = len;
105         ktrwrite(vp, kth, NULL);
106         FREE(ktp, M_KTRACE);
107         FREE(kth, M_KTRACE);
108         p->p_traceflag &= ~KTRFAC_ACTIVE;
109 }
110
111 void
112 ktrsysret(vp, code, error, retval)
113         struct vnode *vp;
114         int code, error;
115         register_t retval;
116 {
117         struct ktr_header *kth;
118         struct ktr_sysret ktp;
119         struct proc *p = curproc;       /* XXX */
120
121         p->p_traceflag |= KTRFAC_ACTIVE;
122         kth = ktrgetheader(KTR_SYSRET);
123         ktp.ktr_code = code;
124         ktp.ktr_error = error;
125         ktp.ktr_retval = retval;                /* what about val2 ? */
126
127         kth->ktr_buf = (caddr_t)&ktp;
128         kth->ktr_len = sizeof(struct ktr_sysret);
129
130         ktrwrite(vp, kth, NULL);
131         FREE(kth, M_KTRACE);
132         p->p_traceflag &= ~KTRFAC_ACTIVE;
133 }
134
135 void
136 ktrnamei(vp, path)
137         struct vnode *vp;
138         char *path;
139 {
140         struct ktr_header *kth;
141         struct proc *p = curproc;       /* XXX */
142
143         /*
144          * don't let vp get ripped out from under us
145          */
146         if (vp)
147                 VREF(vp);
148         p->p_traceflag |= KTRFAC_ACTIVE;
149         kth = ktrgetheader(KTR_NAMEI);
150         kth->ktr_len = strlen(path);
151         kth->ktr_buf = path;
152
153         ktrwrite(vp, kth, NULL);
154         if (vp)
155                 vrele(vp);
156         FREE(kth, M_KTRACE);
157         p->p_traceflag &= ~KTRFAC_ACTIVE;
158 }
159
160 void
161 ktrgenio(vp, fd, rw, uio, error)
162         struct vnode *vp;
163         int fd;
164         enum uio_rw rw;
165         struct uio *uio;
166         int error;
167 {
168         struct ktr_header *kth;
169         struct ktr_genio ktg;
170         struct proc *p = curproc;       /* XXX */
171
172         if (error)
173                 return;
174         /*
175          * don't let p_tracep get ripped out from under us
176          */
177         if (vp)
178                 VREF(vp);
179         p->p_traceflag |= KTRFAC_ACTIVE;
180         kth = ktrgetheader(KTR_GENIO);
181         ktg.ktr_fd = fd;
182         ktg.ktr_rw = rw;
183         kth->ktr_buf = (caddr_t)&ktg;
184         kth->ktr_len = sizeof(struct ktr_genio);
185         uio->uio_offset = 0;
186         uio->uio_rw = UIO_WRITE;
187
188         ktrwrite(vp, kth, uio);
189         if (vp)
190                 vrele(vp);
191         FREE(kth, M_KTRACE);
192         p->p_traceflag &= ~KTRFAC_ACTIVE;
193 }
194
195 void
196 ktrpsig(vp, sig, action, mask, code)
197         struct vnode *vp;
198         int sig;
199         sig_t action;
200         sigset_t *mask;
201         int code;
202 {
203         struct ktr_header *kth;
204         struct ktr_psig kp;
205         struct proc *p = curproc;       /* XXX */
206
207         /*
208          * don't let vp get ripped out from under us
209          */
210         if (vp)
211                 VREF(vp);
212         p->p_traceflag |= KTRFAC_ACTIVE;
213         kth = ktrgetheader(KTR_PSIG);
214         kp.signo = (char)sig;
215         kp.action = action;
216         kp.mask = *mask;
217         kp.code = code;
218         kth->ktr_buf = (caddr_t)&kp;
219         kth->ktr_len = sizeof (struct ktr_psig);
220
221         ktrwrite(vp, kth, NULL);
222         if (vp)
223                 vrele(vp);
224         FREE(kth, M_KTRACE);
225         p->p_traceflag &= ~KTRFAC_ACTIVE;
226 }
227
228 void
229 ktrcsw(vp, out, user)
230         struct vnode *vp;
231         int out, user;
232 {
233         struct ktr_header *kth;
234         struct  ktr_csw kc;
235         struct proc *p = curproc;       /* XXX */
236
237         /*
238          * don't let vp get ripped out from under us
239          */
240         if (vp)
241                 VREF(vp);
242         p->p_traceflag |= KTRFAC_ACTIVE;
243         kth = ktrgetheader(KTR_CSW);
244         kc.out = out;
245         kc.user = user;
246         kth->ktr_buf = (caddr_t)&kc;
247         kth->ktr_len = sizeof (struct ktr_csw);
248
249         ktrwrite(vp, kth, NULL);
250         if (vp)
251                 vrele(vp);
252         FREE(kth, M_KTRACE);
253         p->p_traceflag &= ~KTRFAC_ACTIVE;
254 }
255 #endif
256
257 /* Interface and common routines */
258
259 /*
260  * ktrace system call
261  */
262 #ifndef _SYS_SYSPROTO_H_
263 struct ktrace_args {
264         char    *fname;
265         int     ops;
266         int     facs;
267         int     pid;
268 };
269 #endif
270 /* ARGSUSED */
271 int
272 ktrace(struct ktrace_args *uap)
273 {
274 #ifdef KTRACE
275         struct thread *td = curthread;
276         struct proc *curp = td->td_proc;
277         struct vnode *vp = NULL;
278         struct proc *p;
279         struct pgrp *pg;
280         int facs = uap->facs & ~KTRFAC_ROOT;
281         int ops = KTROP(uap->ops);
282         int descend = uap->ops & KTRFLAG_DESCEND;
283         int ret = 0;
284         int error = 0;
285         struct nameidata nd;
286
287         curp->p_traceflag |= KTRFAC_ACTIVE;
288         if (ops != KTROP_CLEAR) {
289                 /*
290                  * an operation which requires a file argument.
291                  */
292                 NDINIT(&nd, LOOKUP, NOFOLLOW, UIO_USERSPACE, uap->fname, td);
293                 error = vn_open(&nd, FREAD|FWRITE|O_NOFOLLOW, 0);
294                 if (error) {
295                         curp->p_traceflag &= ~KTRFAC_ACTIVE;
296                         return (error);
297                 }
298                 NDFREE(&nd, NDF_ONLY_PNBUF);
299                 vp = nd.ni_vp;
300                 VOP_UNLOCK(vp, 0, td);
301                 if (vp->v_type != VREG) {
302                         (void) vn_close(vp, FREAD|FWRITE, td);
303                         curp->p_traceflag &= ~KTRFAC_ACTIVE;
304                         return (EACCES);
305                 }
306         }
307         /*
308          * Clear all uses of the tracefile.  XXX umm, what happens to the
309          * loop if vn_close() blocks?
310          */
311         if (ops == KTROP_CLEARFILE) {
312                 LIST_FOREACH(p, &allproc, p_list) {
313                         if (p->p_tracep == vp) {
314                                 if (ktrcanset(curp, p) && p->p_tracep == vp) {
315                                         p->p_tracep = NULL;
316                                         p->p_traceflag = 0;
317                                         (void) vn_close(vp, FREAD|FWRITE, td);
318                                 } else {
319                                         error = EPERM;
320                                 }
321                         }
322                 }
323                 goto done;
324         }
325         /*
326          * need something to (un)trace (XXX - why is this here?)
327          */
328         if (!facs) {
329                 error = EINVAL;
330                 goto done;
331         }
332         /*
333          * do it
334          */
335         if (uap->pid < 0) {
336                 /*
337                  * by process group
338                  */
339                 pg = pgfind(-uap->pid);
340                 if (pg == NULL) {
341                         error = ESRCH;
342                         goto done;
343                 }
344                 LIST_FOREACH(p, &pg->pg_members, p_pglist)
345                         if (descend)
346                                 ret |= ktrsetchildren(curp, p, ops, facs, vp);
347                         else
348                                 ret |= ktrops(curp, p, ops, facs, vp);
349
350         } else {
351                 /*
352                  * by pid
353                  */
354                 p = pfind(uap->pid);
355                 if (p == NULL) {
356                         error = ESRCH;
357                         goto done;
358                 }
359                 if (descend)
360                         ret |= ktrsetchildren(curp, p, ops, facs, vp);
361                 else
362                         ret |= ktrops(curp, p, ops, facs, vp);
363         }
364         if (!ret)
365                 error = EPERM;
366 done:
367         if (vp != NULL)
368                 (void) vn_close(vp, FWRITE, td);
369         curp->p_traceflag &= ~KTRFAC_ACTIVE;
370         return (error);
371 #else
372         return ENOSYS;
373 #endif
374 }
375
376 /*
377  * utrace system call
378  */
379 /* ARGSUSED */
380 int
381 utrace(struct utrace_args *uap)
382 {
383 #ifdef KTRACE
384         struct ktr_header *kth;
385         struct thread *td = curthread;  /* XXX */
386         struct proc *p = td->td_proc;
387         struct vnode *vp;
388         register caddr_t cp;
389
390         if (!KTRPOINT(td, KTR_USER))
391                 return (0);
392         if (SCARG(uap, len) > KTR_USER_MAXLEN)
393                 return (EINVAL);
394         p->p_traceflag |= KTRFAC_ACTIVE;
395         /*
396          * don't let p_tracep get ripped out from under us while we are
397          * writing.
398          */
399         if ((vp = p->p_tracep) != NULL)
400                 VREF(vp);
401         kth = ktrgetheader(KTR_USER);
402         MALLOC(cp, caddr_t, uap->len, M_KTRACE, M_WAITOK);
403         if (!copyin(uap->addr, cp, uap->len)) {
404                 kth->ktr_buf = cp;
405                 kth->ktr_len = uap->len;
406                 ktrwrite(vp, kth, NULL);
407         }
408         if (vp)
409                 vrele(vp);
410         FREE(kth, M_KTRACE);
411         FREE(cp, M_KTRACE);
412         p->p_traceflag &= ~KTRFAC_ACTIVE;
413
414         return (0);
415 #else
416         return (ENOSYS);
417 #endif
418 }
419
420 #ifdef KTRACE
421 static int
422 ktrops(curp, p, ops, facs, vp)
423         struct proc *p, *curp;
424         int ops, facs;
425         struct vnode *vp;
426 {
427
428         if (!ktrcanset(curp, p))
429                 return (0);
430         if (ops == KTROP_SET) {
431                 if (p->p_tracep != vp) {
432                         struct vnode *vtmp;
433
434                         /*
435                          * if trace file already in use, relinquish
436                          */
437                         VREF(vp);
438                         while ((vtmp = p->p_tracep) != NULL) {
439                                 p->p_tracep = NULL;
440                                 vrele(vtmp);
441                         }
442                         p->p_tracep = vp;
443                 }
444                 p->p_traceflag |= facs;
445                 if (curp->p_ucred->cr_uid == 0)
446                         p->p_traceflag |= KTRFAC_ROOT;
447         } else {
448                 /* KTROP_CLEAR */
449                 if (((p->p_traceflag &= ~facs) & KTRFAC_MASK) == 0) {
450                         struct vnode *vtmp;
451
452                         /* no more tracing */
453                         p->p_traceflag = 0;
454                         if ((vtmp = p->p_tracep) != NULL) {
455                                 p->p_tracep = NULL;
456                                 vrele(vtmp);
457                         }
458                 }
459         }
460
461         return (1);
462 }
463
464 static int
465 ktrsetchildren(curp, top, ops, facs, vp)
466         struct proc *curp, *top;
467         int ops, facs;
468         struct vnode *vp;
469 {
470         register struct proc *p;
471         register int ret = 0;
472
473         p = top;
474         for (;;) {
475                 ret |= ktrops(curp, p, ops, facs, vp);
476                 /*
477                  * If this process has children, descend to them next,
478                  * otherwise do any siblings, and if done with this level,
479                  * follow back up the tree (but not past top).
480                  */
481                 if (!LIST_EMPTY(&p->p_children))
482                         p = LIST_FIRST(&p->p_children);
483                 else for (;;) {
484                         if (p == top)
485                                 return (ret);
486                         if (LIST_NEXT(p, p_sibling)) {
487                                 p = LIST_NEXT(p, p_sibling);
488                                 break;
489                         }
490                         p = p->p_pptr;
491                 }
492         }
493         /*NOTREACHED*/
494 }
495
496 static void
497 ktrwrite(struct vnode *vp, struct ktr_header *kth, struct uio *uio)
498 {
499         struct uio auio;
500         struct iovec aiov[2];
501         struct thread *td = curthread;
502         struct proc *p = td->td_proc;   /* XXX */
503         int error;
504
505         if (vp == NULL)
506                 return;
507         auio.uio_iov = &aiov[0];
508         auio.uio_offset = 0;
509         auio.uio_segflg = UIO_SYSSPACE;
510         auio.uio_rw = UIO_WRITE;
511         aiov[0].iov_base = (caddr_t)kth;
512         aiov[0].iov_len = sizeof(struct ktr_header);
513         auio.uio_resid = sizeof(struct ktr_header);
514         auio.uio_iovcnt = 1;
515         auio.uio_td = curthread;
516         if (kth->ktr_len > 0) {
517                 auio.uio_iovcnt++;
518                 aiov[1].iov_base = kth->ktr_buf;
519                 aiov[1].iov_len = kth->ktr_len;
520                 auio.uio_resid += kth->ktr_len;
521                 if (uio != NULL)
522                         kth->ktr_len += uio->uio_resid;
523         }
524         vn_lock(vp, LK_EXCLUSIVE | LK_RETRY, td);
525         (void)VOP_LEASE(vp, td, p->p_ucred, LEASE_WRITE);
526         error = VOP_WRITE(vp, &auio, IO_UNIT | IO_APPEND, p->p_ucred);
527         if (error == 0 && uio != NULL) {
528                 (void)VOP_LEASE(vp, td, p->p_ucred, LEASE_WRITE);
529                 error = VOP_WRITE(vp, uio, IO_UNIT | IO_APPEND, p->p_ucred);
530         }
531         VOP_UNLOCK(vp, 0, td);
532         if (!error)
533                 return;
534         /*
535          * If error encountered, give up tracing on this vnode.  XXX what
536          * happens to the loop if vrele() blocks?
537          */
538         log(LOG_NOTICE, "ktrace write failed, errno %d, tracing stopped\n",
539             error);
540         LIST_FOREACH(p, &allproc, p_list) {
541                 if (p->p_tracep == vp) {
542                         p->p_tracep = NULL;
543                         p->p_traceflag = 0;
544                         vrele(vp);
545                 }
546         }
547 }
548
549 /*
550  * Return true if caller has permission to set the ktracing state
551  * of target.  Essentially, the target can't possess any
552  * more permissions than the caller.  KTRFAC_ROOT signifies that
553  * root previously set the tracing status on the target process, and
554  * so, only root may further change it.
555  *
556  * TODO: check groups.  use caller effective gid.
557  */
558 static int
559 ktrcanset(struct proc *callp, struct proc *targetp)
560 {
561         struct ucred *caller = callp->p_ucred;
562         struct ucred *target = targetp->p_ucred;
563
564         if (!PRISON_CHECK(caller, target))
565                 return (0);
566         if ((caller->cr_uid == target->cr_ruid &&
567              target->cr_ruid == target->cr_svuid &&
568              caller->cr_rgid == target->cr_rgid &&      /* XXX */
569              target->cr_rgid == target->cr_svgid &&
570              (targetp->p_traceflag & KTRFAC_ROOT) == 0 &&
571              (targetp->p_flag & P_SUGID) == 0) ||
572              caller->cr_uid == 0)
573                 return (1);
574
575         return (0);
576 }
577
578 #endif /* KTRACE */