2c3774cb95c668de33b28bb6d20420ddb8791c22
[dragonfly.git] / sys / kern / uipc_syscalls.c
1 /*
2  * Copyright (c) 1982, 1986, 1989, 1990, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  *
5  * sendfile(2) and related extensions:
6  * Copyright (c) 1998, David Greenman. All rights reserved. 
7  *
8  * Redistribution and use in source and binary forms, with or without
9  * modification, are permitted provided that the following conditions
10  * are met:
11  * 1. Redistributions of source code must retain the above copyright
12  *    notice, this list of conditions and the following disclaimer.
13  * 2. Redistributions in binary form must reproduce the above copyright
14  *    notice, this list of conditions and the following disclaimer in the
15  *    documentation and/or other materials provided with the distribution.
16  * 3. All advertising materials mentioning features or use of this software
17  *    must display the following acknowledgement:
18  *      This product includes software developed by the University of
19  *      California, Berkeley and its contributors.
20  * 4. Neither the name of the University nor the names of its contributors
21  *    may be used to endorse or promote products derived from this software
22  *    without specific prior written permission.
23  *
24  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
25  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
26  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
27  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
28  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
29  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
30  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
31  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
32  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
33  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
34  * SUCH DAMAGE.
35  *
36  *      @(#)uipc_syscalls.c     8.4 (Berkeley) 2/21/94
37  * $FreeBSD: src/sys/kern/uipc_syscalls.c,v 1.65.2.17 2003/04/04 17:11:16 tegge Exp $
38  * $DragonFly: src/sys/kern/uipc_syscalls.c,v 1.92 2008/11/26 13:10:56 sephe Exp $
39  */
40
41 #include "opt_ktrace.h"
42 #include "opt_sctp.h"
43
44 #include <sys/param.h>
45 #include <sys/systm.h>
46 #include <sys/kernel.h>
47 #include <sys/sysproto.h>
48 #include <sys/malloc.h>
49 #include <sys/filedesc.h>
50 #include <sys/event.h>
51 #include <sys/proc.h>
52 #include <sys/fcntl.h>
53 #include <sys/file.h>
54 #include <sys/filio.h>
55 #include <sys/kern_syscall.h>
56 #include <sys/mbuf.h>
57 #include <sys/protosw.h>
58 #include <sys/sfbuf.h>
59 #include <sys/socket.h>
60 #include <sys/socketvar.h>
61 #include <sys/socketops.h>
62 #include <sys/uio.h>
63 #include <sys/vnode.h>
64 #include <sys/lock.h>
65 #include <sys/mount.h>
66 #ifdef KTRACE
67 #include <sys/ktrace.h>
68 #endif
69 #include <vm/vm.h>
70 #include <vm/vm_object.h>
71 #include <vm/vm_page.h>
72 #include <vm/vm_pageout.h>
73 #include <vm/vm_kern.h>
74 #include <vm/vm_extern.h>
75 #include <sys/file2.h>
76 #include <sys/signalvar.h>
77 #include <sys/serialize.h>
78
79 #include <sys/thread2.h>
80 #include <sys/msgport2.h>
81 #include <sys/socketvar2.h>
82 #include <sys/mplock2.h>
83 #include <net/netmsg2.h>
84
85 #ifdef SCTP
86 #include <netinet/sctp_peeloff.h>
87 #endif /* SCTP */
88
89 struct sfbuf_mref {
90         struct sf_buf   *sf;
91         int             mref_count;
92 };
93
94 static MALLOC_DEFINE(M_SENDFILE, "sendfile", "sendfile sfbuf ref structures");
95
96 /*
97  * System call interface to the socket abstraction.
98  */
99
100 extern  struct fileops socketops;
101
102 /*
103  * socket_args(int domain, int type, int protocol)
104  */
105 int
106 kern_socket(int domain, int type, int protocol, int *res)
107 {
108         struct thread *td = curthread;
109         struct filedesc *fdp = td->td_proc->p_fd;
110         struct socket *so;
111         struct file *fp;
112         int fd, error;
113
114         KKASSERT(td->td_lwp);
115
116         error = falloc(td->td_lwp, &fp, &fd);
117         if (error)
118                 return (error);
119         error = socreate(domain, &so, type, protocol, td);
120         if (error) {
121                 fsetfd(fdp, NULL, fd);
122         } else {
123                 fp->f_type = DTYPE_SOCKET;
124                 fp->f_flag = FREAD | FWRITE;
125                 fp->f_ops = &socketops;
126                 fp->f_data = so;
127                 *res = fd;
128                 fsetfd(fdp, fp, fd);
129         }
130         fdrop(fp);
131         return (error);
132 }
133
134 /*
135  * MPALMOSTSAFE
136  */
137 int
138 sys_socket(struct socket_args *uap)
139 {
140         int error;
141
142         get_mplock();
143         error = kern_socket(uap->domain, uap->type, uap->protocol,
144                             &uap->sysmsg_iresult);
145         rel_mplock();
146
147         return (error);
148 }
149
150 int
151 kern_bind(int s, struct sockaddr *sa)
152 {
153         struct thread *td = curthread;
154         struct proc *p = td->td_proc;
155         struct file *fp;
156         int error;
157
158         KKASSERT(p);
159         error = holdsock(p->p_fd, s, &fp);
160         if (error)
161                 return (error);
162         error = sobind((struct socket *)fp->f_data, sa, td);
163         fdrop(fp);
164         return (error);
165 }
166
167 /*
168  * bind_args(int s, caddr_t name, int namelen)
169  *
170  * MPALMOSTSAFE
171  */
172 int
173 sys_bind(struct bind_args *uap)
174 {
175         struct sockaddr *sa;
176         int error;
177
178         error = getsockaddr(&sa, uap->name, uap->namelen);
179         if (error)
180                 return (error);
181         get_mplock();
182         error = kern_bind(uap->s, sa);
183         rel_mplock();
184         FREE(sa, M_SONAME);
185
186         return (error);
187 }
188
189 int
190 kern_listen(int s, int backlog)
191 {
192         struct thread *td = curthread;
193         struct proc *p = td->td_proc;
194         struct file *fp;
195         int error;
196
197         KKASSERT(p);
198         error = holdsock(p->p_fd, s, &fp);
199         if (error)
200                 return (error);
201         error = solisten((struct socket *)fp->f_data, backlog, td);
202         fdrop(fp);
203         return(error);
204 }
205
206 /*
207  * listen_args(int s, int backlog)
208  *
209  * MPALMOSTSAFE
210  */
211 int
212 sys_listen(struct listen_args *uap)
213 {
214         int error;
215
216         get_mplock();
217         error = kern_listen(uap->s, uap->backlog);
218         rel_mplock();
219         return (error);
220 }
221
222 /*
223  * Returns the accepted socket as well.
224  */
225 static boolean_t
226 soaccept_predicate(struct netmsg *msg0)
227 {
228         struct netmsg_so_notify *msg = (struct netmsg_so_notify *)msg0;
229         struct socket *head = msg->nm_so;
230
231         if (head->so_error != 0) {
232                 msg->nm_netmsg.nm_lmsg.ms_error = head->so_error;
233                 return (TRUE);
234         }
235         if (!TAILQ_EMPTY(&head->so_comp)) {
236                 /* Abuse nm_so field as copy in/copy out parameter. XXX JH */
237                 msg->nm_so = TAILQ_FIRST(&head->so_comp);
238                 TAILQ_REMOVE(&head->so_comp, msg->nm_so, so_list);
239                 head->so_qlen--;
240
241                 msg->nm_netmsg.nm_lmsg.ms_error = 0;
242                 return (TRUE);
243         }
244         if (head->so_state & SS_CANTRCVMORE) {
245                 msg->nm_netmsg.nm_lmsg.ms_error = ECONNABORTED;
246                 return (TRUE);
247         }
248         if (msg->nm_fflags & FNONBLOCK) {
249                 msg->nm_netmsg.nm_lmsg.ms_error = EWOULDBLOCK;
250                 return (TRUE);
251         }
252
253         return (FALSE);
254 }
255
256 /*
257  * The second argument to kern_accept() is a handle to a struct sockaddr.
258  * This allows kern_accept() to return a pointer to an allocated struct
259  * sockaddr which must be freed later with FREE().  The caller must
260  * initialize *name to NULL.
261  */
262 int
263 kern_accept(int s, int fflags, struct sockaddr **name, int *namelen, int *res)
264 {
265         struct thread *td = curthread;
266         struct filedesc *fdp = td->td_proc->p_fd;
267         struct file *lfp = NULL;
268         struct file *nfp = NULL;
269         struct sockaddr *sa;
270         struct socket *head, *so;
271         struct netmsg_so_notify msg;
272         int fd;
273         u_int fflag;            /* type must match fp->f_flag */
274         int error, tmp;
275
276         *res = -1;
277         if (name && namelen && *namelen < 0)
278                 return (EINVAL);
279
280         error = holdsock(td->td_proc->p_fd, s, &lfp);
281         if (error)
282                 return (error);
283
284         error = falloc(td->td_lwp, &nfp, &fd);
285         if (error) {            /* Probably ran out of file descriptors. */
286                 fdrop(lfp);
287                 return (error);
288         }
289         head = (struct socket *)lfp->f_data;
290         if ((head->so_options & SO_ACCEPTCONN) == 0) {
291                 error = EINVAL;
292                 goto done;
293         }
294
295         if (fflags & O_FBLOCKING)
296                 fflags |= lfp->f_flag & ~FNONBLOCK;
297         else if (fflags & O_FNONBLOCKING)
298                 fflags |= lfp->f_flag | FNONBLOCK;
299         else
300                 fflags = lfp->f_flag;
301
302         /* optimize for uniprocessor case later XXX JH */
303         netmsg_init_abortable(&msg.nm_netmsg, head, &curthread->td_msgport,
304                               0, netmsg_so_notify, netmsg_so_notify_doabort);
305         msg.nm_predicate = soaccept_predicate;
306         msg.nm_fflags = fflags;
307         msg.nm_so = head;
308         msg.nm_etype = NM_REVENT;
309         error = lwkt_domsg(head->so_port, &msg.nm_netmsg.nm_lmsg, PCATCH);
310         if (error)
311                 goto done;
312
313         /*
314          * At this point we have the connection that's ready to be accepted.
315          */
316         so = msg.nm_so;
317
318         fflag = lfp->f_flag;
319
320         /* connection has been removed from the listen queue */
321         KNOTE(&head->so_rcv.ssb_sel.si_note, 0);
322
323         so->so_state &= ~SS_COMP;
324         so->so_head = NULL;
325         if (head->so_sigio != NULL)
326                 fsetown(fgetown(head->so_sigio), &so->so_sigio);
327
328         nfp->f_type = DTYPE_SOCKET;
329         nfp->f_flag = fflag;
330         nfp->f_ops = &socketops;
331         nfp->f_data = so;
332         /* Sync socket nonblocking/async state with file flags */
333         tmp = fflag & FNONBLOCK;
334         fo_ioctl(nfp, FIONBIO, (caddr_t)&tmp, td->td_ucred, NULL);
335         tmp = fflag & FASYNC;
336         fo_ioctl(nfp, FIOASYNC, (caddr_t)&tmp, td->td_ucred, NULL);
337
338         sa = NULL;
339         error = soaccept(so, &sa);
340
341         /*
342          * Set the returned name and namelen as applicable.  Set the returned
343          * namelen to 0 for older code which might ignore the return value
344          * from accept.
345          */
346         if (error == 0) {
347                 if (sa && name && namelen) {
348                         if (*namelen > sa->sa_len)
349                                 *namelen = sa->sa_len;
350                         *name = sa;
351                 } else {
352                         if (sa)
353                                 FREE(sa, M_SONAME);
354                 }
355         }
356
357 done:
358         /*
359          * If an error occured clear the reserved descriptor, else associate
360          * nfp with it.
361          *
362          * Note that *res is normally ignored if an error is returned but
363          * a syscall message will still have access to the result code.
364          */
365         if (error) {
366                 fsetfd(fdp, NULL, fd);
367         } else {
368                 *res = fd;
369                 fsetfd(fdp, nfp, fd);
370         }
371         fdrop(nfp);
372         fdrop(lfp);
373         return (error);
374 }
375
376 /*
377  * accept(int s, caddr_t name, int *anamelen)
378  *
379  * MPALMOSTSAFE
380  */
381 int
382 sys_accept(struct accept_args *uap)
383 {
384         struct sockaddr *sa = NULL;
385         int sa_len;
386         int error;
387
388         if (uap->name) {
389                 error = copyin(uap->anamelen, &sa_len, sizeof(sa_len));
390                 if (error)
391                         return (error);
392
393                 get_mplock();
394                 error = kern_accept(uap->s, 0, &sa, &sa_len,
395                                     &uap->sysmsg_iresult);
396                 rel_mplock();
397
398                 if (error == 0)
399                         error = copyout(sa, uap->name, sa_len);
400                 if (error == 0) {
401                         error = copyout(&sa_len, uap->anamelen,
402                             sizeof(*uap->anamelen));
403                 }
404                 if (sa)
405                         FREE(sa, M_SONAME);
406         } else {
407                 get_mplock();
408                 error = kern_accept(uap->s, 0, NULL, 0,
409                                     &uap->sysmsg_iresult);
410                 rel_mplock();
411         }
412         return (error);
413 }
414
415 /*
416  * extaccept(int s, int fflags, caddr_t name, int *anamelen)
417  *
418  * MPALMOSTSAFE
419  */
420 int
421 sys_extaccept(struct extaccept_args *uap)
422 {
423         struct sockaddr *sa = NULL;
424         int sa_len;
425         int error;
426         int fflags = uap->flags & O_FMASK;
427
428         if (uap->name) {
429                 error = copyin(uap->anamelen, &sa_len, sizeof(sa_len));
430                 if (error)
431                         return (error);
432
433                 get_mplock();
434                 error = kern_accept(uap->s, fflags, &sa, &sa_len,
435                                     &uap->sysmsg_iresult);
436                 rel_mplock();
437
438                 if (error == 0)
439                         error = copyout(sa, uap->name, sa_len);
440                 if (error == 0) {
441                         error = copyout(&sa_len, uap->anamelen,
442                             sizeof(*uap->anamelen));
443                 }
444                 if (sa)
445                         FREE(sa, M_SONAME);
446         } else {
447                 get_mplock();
448                 error = kern_accept(uap->s, fflags, NULL, 0,
449                                     &uap->sysmsg_iresult);
450                 rel_mplock();
451         }
452         return (error);
453 }
454
455
456 /*
457  * Returns TRUE if predicate satisfied.
458  */
459 static boolean_t
460 soconnected_predicate(struct netmsg *msg0)
461 {
462         struct netmsg_so_notify *msg = (struct netmsg_so_notify *)msg0;
463         struct socket *so = msg->nm_so;
464
465         /* check predicate */
466         if (!(so->so_state & SS_ISCONNECTING) || so->so_error != 0) {
467                 msg->nm_netmsg.nm_lmsg.ms_error = so->so_error;
468                 return (TRUE);
469         }
470
471         return (FALSE);
472 }
473
474 int
475 kern_connect(int s, int fflags, struct sockaddr *sa)
476 {
477         struct thread *td = curthread;
478         struct proc *p = td->td_proc;
479         struct file *fp;
480         struct socket *so;
481         int error, interrupted = 0;
482
483         error = holdsock(p->p_fd, s, &fp);
484         if (error)
485                 return (error);
486         so = (struct socket *)fp->f_data;
487
488         if (fflags & O_FBLOCKING)
489                 /* fflags &= ~FNONBLOCK; */;
490         else if (fflags & O_FNONBLOCKING)
491                 fflags |= FNONBLOCK;
492         else
493                 fflags = fp->f_flag;
494
495         if (so->so_state & SS_ISCONNECTING) {
496                 error = EALREADY;
497                 goto done;
498         }
499         error = soconnect(so, sa, td);
500         if (error)
501                 goto bad;
502         if ((fflags & FNONBLOCK) && (so->so_state & SS_ISCONNECTING)) {
503                 error = EINPROGRESS;
504                 goto done;
505         }
506         if ((so->so_state & SS_ISCONNECTING) && so->so_error == 0) {
507                 struct netmsg_so_notify msg;
508
509                 netmsg_init_abortable(&msg.nm_netmsg, so,
510                                       &curthread->td_msgport,
511                                       0,
512                                       netmsg_so_notify,
513                                       netmsg_so_notify_doabort);
514                 msg.nm_predicate = soconnected_predicate;
515                 msg.nm_so = so;
516                 msg.nm_etype = NM_REVENT;
517                 error = lwkt_domsg(so->so_port, &msg.nm_netmsg.nm_lmsg, PCATCH);
518                 if (error == EINTR || error == ERESTART)
519                         interrupted = 1;
520         }
521         if (error == 0) {
522                 error = so->so_error;
523                 so->so_error = 0;
524         }
525 bad:
526         if (!interrupted)
527                 so->so_state &= ~SS_ISCONNECTING;
528         if (error == ERESTART)
529                 error = EINTR;
530 done:
531         fdrop(fp);
532         return (error);
533 }
534
535 /*
536  * connect_args(int s, caddr_t name, int namelen)
537  *
538  * MPALMOSTSAFE
539  */
540 int
541 sys_connect(struct connect_args *uap)
542 {
543         struct sockaddr *sa;
544         int error;
545
546         error = getsockaddr(&sa, uap->name, uap->namelen);
547         if (error)
548                 return (error);
549         get_mplock();
550         error = kern_connect(uap->s, 0, sa);
551         rel_mplock();
552         FREE(sa, M_SONAME);
553
554         return (error);
555 }
556
557 /*
558  * connect_args(int s, int fflags, caddr_t name, int namelen)
559  *
560  * MPALMOSTSAFE
561  */
562 int
563 sys_extconnect(struct extconnect_args *uap)
564 {
565         struct sockaddr *sa;
566         int error;
567         int fflags = uap->flags & O_FMASK;
568
569         error = getsockaddr(&sa, uap->name, uap->namelen);
570         if (error)
571                 return (error);
572         get_mplock();
573         error = kern_connect(uap->s, fflags, sa);
574         rel_mplock();
575         FREE(sa, M_SONAME);
576
577         return (error);
578 }
579
580 int
581 kern_socketpair(int domain, int type, int protocol, int *sv)
582 {
583         struct thread *td = curthread;
584         struct filedesc *fdp;
585         struct file *fp1, *fp2;
586         struct socket *so1, *so2;
587         int fd1, fd2, error;
588
589         fdp = td->td_proc->p_fd;
590         error = socreate(domain, &so1, type, protocol, td);
591         if (error)
592                 return (error);
593         error = socreate(domain, &so2, type, protocol, td);
594         if (error)
595                 goto free1;
596         error = falloc(td->td_lwp, &fp1, &fd1);
597         if (error)
598                 goto free2;
599         sv[0] = fd1;
600         fp1->f_data = so1;
601         error = falloc(td->td_lwp, &fp2, &fd2);
602         if (error)
603                 goto free3;
604         fp2->f_data = so2;
605         sv[1] = fd2;
606         error = soconnect2(so1, so2);
607         if (error)
608                 goto free4;
609         if (type == SOCK_DGRAM) {
610                 /*
611                  * Datagram socket connection is asymmetric.
612                  */
613                  error = soconnect2(so2, so1);
614                  if (error)
615                         goto free4;
616         }
617         fp1->f_type = fp2->f_type = DTYPE_SOCKET;
618         fp1->f_flag = fp2->f_flag = FREAD|FWRITE;
619         fp1->f_ops = fp2->f_ops = &socketops;
620         fsetfd(fdp, fp1, fd1);
621         fsetfd(fdp, fp2, fd2);
622         fdrop(fp1);
623         fdrop(fp2);
624         return (error);
625 free4:
626         fsetfd(fdp, NULL, fd2);
627         fdrop(fp2);
628 free3:
629         fsetfd(fdp, NULL, fd1);
630         fdrop(fp1);
631 free2:
632         (void)soclose(so2, 0);
633 free1:
634         (void)soclose(so1, 0);
635         return (error);
636 }
637
638 /*
639  * socketpair(int domain, int type, int protocol, int *rsv)
640  *
641  * MPALMOSTSAFE
642  */
643 int
644 sys_socketpair(struct socketpair_args *uap)
645 {
646         int error, sockv[2];
647
648         get_mplock();
649         error = kern_socketpair(uap->domain, uap->type, uap->protocol, sockv);
650         rel_mplock();
651
652         if (error == 0)
653                 error = copyout(sockv, uap->rsv, sizeof(sockv));
654         return (error);
655 }
656
657 int
658 kern_sendmsg(int s, struct sockaddr *sa, struct uio *auio,
659              struct mbuf *control, int flags, size_t *res)
660 {
661         struct thread *td = curthread;
662         struct lwp *lp = td->td_lwp;
663         struct proc *p = td->td_proc;
664         struct file *fp;
665         size_t len;
666         int error;
667         struct socket *so;
668 #ifdef KTRACE
669         struct iovec *ktriov = NULL;
670         struct uio ktruio;
671 #endif
672
673         error = holdsock(p->p_fd, s, &fp);
674         if (error)
675                 return (error);
676 #ifdef KTRACE
677         if (KTRPOINT(td, KTR_GENIO)) {
678                 int iovlen = auio->uio_iovcnt * sizeof (struct iovec);
679
680                 MALLOC(ktriov, struct iovec *, iovlen, M_TEMP, M_WAITOK);
681                 bcopy((caddr_t)auio->uio_iov, (caddr_t)ktriov, iovlen);
682                 ktruio = *auio;
683         }
684 #endif
685         len = auio->uio_resid;
686         so = (struct socket *)fp->f_data;
687         if ((flags & (MSG_FNONBLOCKING|MSG_FBLOCKING)) == 0) {
688                 if (fp->f_flag & FNONBLOCK)
689                         flags |= MSG_FNONBLOCKING;
690         }
691         error = so_pru_sosend(so, sa, auio, NULL, control, flags, td);
692         if (error) {
693                 if (auio->uio_resid != len && (error == ERESTART ||
694                     error == EINTR || error == EWOULDBLOCK))
695                         error = 0;
696                 if (error == EPIPE)
697                         lwpsignal(p, lp, SIGPIPE);
698         }
699 #ifdef KTRACE
700         if (ktriov != NULL) {
701                 if (error == 0) {
702                         ktruio.uio_iov = ktriov;
703                         ktruio.uio_resid = len - auio->uio_resid;
704                         ktrgenio(lp, s, UIO_WRITE, &ktruio, error);
705                 }
706                 FREE(ktriov, M_TEMP);
707         }
708 #endif
709         if (error == 0)
710                 *res  = len - auio->uio_resid;
711         fdrop(fp);
712         return (error);
713 }
714
715 /*
716  * sendto_args(int s, caddr_t buf, size_t len, int flags, caddr_t to, int tolen)
717  *
718  * MPALMOSTSAFE
719  */
720 int
721 sys_sendto(struct sendto_args *uap)
722 {
723         struct thread *td = curthread;
724         struct uio auio;
725         struct iovec aiov;
726         struct sockaddr *sa = NULL;
727         int error;
728
729         if (uap->to) {
730                 error = getsockaddr(&sa, uap->to, uap->tolen);
731                 if (error)
732                         return (error);
733         }
734         aiov.iov_base = uap->buf;
735         aiov.iov_len = uap->len;
736         auio.uio_iov = &aiov;
737         auio.uio_iovcnt = 1;
738         auio.uio_offset = 0;
739         auio.uio_resid = uap->len;
740         auio.uio_segflg = UIO_USERSPACE;
741         auio.uio_rw = UIO_WRITE;
742         auio.uio_td = td;
743
744         get_mplock();
745         error = kern_sendmsg(uap->s, sa, &auio, NULL, uap->flags,
746                              &uap->sysmsg_szresult);
747         rel_mplock();
748
749         if (sa)
750                 FREE(sa, M_SONAME);
751         return (error);
752 }
753
754 /*
755  * sendmsg_args(int s, caddr_t msg, int flags)
756  *
757  * MPALMOSTSAFE
758  */
759 int
760 sys_sendmsg(struct sendmsg_args *uap)
761 {
762         struct thread *td = curthread;
763         struct msghdr msg;
764         struct uio auio;
765         struct iovec aiov[UIO_SMALLIOV], *iov = NULL;
766         struct sockaddr *sa = NULL;
767         struct mbuf *control = NULL;
768         int error;
769
770         error = copyin(uap->msg, (caddr_t)&msg, sizeof(msg));
771         if (error)
772                 return (error);
773
774         /*
775          * Conditionally copyin msg.msg_name.
776          */
777         if (msg.msg_name) {
778                 error = getsockaddr(&sa, msg.msg_name, msg.msg_namelen);
779                 if (error)
780                         return (error);
781         }
782
783         /*
784          * Populate auio.
785          */
786         error = iovec_copyin(msg.msg_iov, &iov, aiov, msg.msg_iovlen,
787                              &auio.uio_resid);
788         if (error)
789                 goto cleanup2;
790         auio.uio_iov = iov;
791         auio.uio_iovcnt = msg.msg_iovlen;
792         auio.uio_offset = 0;
793         auio.uio_segflg = UIO_USERSPACE;
794         auio.uio_rw = UIO_WRITE;
795         auio.uio_td = td;
796
797         /*
798          * Conditionally copyin msg.msg_control.
799          */
800         if (msg.msg_control) {
801                 if (msg.msg_controllen < sizeof(struct cmsghdr) ||
802                     msg.msg_controllen > MLEN) {
803                         error = EINVAL;
804                         goto cleanup;
805                 }
806                 control = m_get(MB_WAIT, MT_CONTROL);
807                 if (control == NULL) {
808                         error = ENOBUFS;
809                         goto cleanup;
810                 }
811                 control->m_len = msg.msg_controllen;
812                 error = copyin(msg.msg_control, mtod(control, caddr_t),
813                                msg.msg_controllen);
814                 if (error) {
815                         m_free(control);
816                         goto cleanup;
817                 }
818         }
819
820         get_mplock();
821         error = kern_sendmsg(uap->s, sa, &auio, control, uap->flags,
822                              &uap->sysmsg_szresult);
823         rel_mplock();
824
825 cleanup:
826         iovec_free(&iov, aiov);
827 cleanup2:
828         if (sa)
829                 FREE(sa, M_SONAME);
830         return (error);
831 }
832
833 /*
834  * kern_recvmsg() takes a handle to sa and control.  If the handle is non-
835  * null, it returns a dynamically allocated struct sockaddr and an mbuf.
836  * Don't forget to FREE() and m_free() these if they are returned.
837  */
838 int
839 kern_recvmsg(int s, struct sockaddr **sa, struct uio *auio,
840              struct mbuf **control, int *flags, size_t *res)
841 {
842         struct thread *td = curthread;
843         struct proc *p = td->td_proc;
844         struct file *fp;
845         size_t len;
846         int error;
847         int lflags;
848         struct socket *so;
849 #ifdef KTRACE
850         struct iovec *ktriov = NULL;
851         struct uio ktruio;
852 #endif
853
854         error = holdsock(p->p_fd, s, &fp);
855         if (error)
856                 return (error);
857 #ifdef KTRACE
858         if (KTRPOINT(td, KTR_GENIO)) {
859                 int iovlen = auio->uio_iovcnt * sizeof (struct iovec);
860
861                 MALLOC(ktriov, struct iovec *, iovlen, M_TEMP, M_WAITOK);
862                 bcopy(auio->uio_iov, ktriov, iovlen);
863                 ktruio = *auio;
864         }
865 #endif
866         len = auio->uio_resid;
867         so = (struct socket *)fp->f_data;
868
869         if (flags == NULL || (*flags & (MSG_FNONBLOCKING|MSG_FBLOCKING)) == 0) {
870                 if (fp->f_flag & FNONBLOCK) {
871                         if (flags) {
872                                 *flags |= MSG_FNONBLOCKING;
873                         } else {
874                                 lflags = MSG_FNONBLOCKING;
875                                 flags = &lflags;
876                         }
877                 }
878         }
879
880         error = so_pru_soreceive(so, sa, auio, NULL, control, flags);
881         if (error) {
882                 if (auio->uio_resid != len && (error == ERESTART ||
883                     error == EINTR || error == EWOULDBLOCK))
884                         error = 0;
885         }
886 #ifdef KTRACE
887         if (ktriov != NULL) {
888                 if (error == 0) {
889                         ktruio.uio_iov = ktriov;
890                         ktruio.uio_resid = len - auio->uio_resid;
891                         ktrgenio(td->td_lwp, s, UIO_READ, &ktruio, error);
892                 }
893                 FREE(ktriov, M_TEMP);
894         }
895 #endif
896         if (error == 0)
897                 *res = len - auio->uio_resid;
898         fdrop(fp);
899         return (error);
900 }
901
902 /*
903  * recvfrom_args(int s, caddr_t buf, size_t len, int flags, 
904  *                      caddr_t from, int *fromlenaddr)
905  *
906  * MPALMOSTSAFE
907  */
908 int
909 sys_recvfrom(struct recvfrom_args *uap)
910 {
911         struct thread *td = curthread;
912         struct uio auio;
913         struct iovec aiov;
914         struct sockaddr *sa = NULL;
915         int error, fromlen;
916
917         if (uap->from && uap->fromlenaddr) {
918                 error = copyin(uap->fromlenaddr, &fromlen, sizeof(fromlen));
919                 if (error)
920                         return (error);
921                 if (fromlen < 0)
922                         return (EINVAL);
923         } else {
924                 fromlen = 0;
925         }
926         aiov.iov_base = uap->buf;
927         aiov.iov_len = uap->len;
928         auio.uio_iov = &aiov;
929         auio.uio_iovcnt = 1;
930         auio.uio_offset = 0;
931         auio.uio_resid = uap->len;
932         auio.uio_segflg = UIO_USERSPACE;
933         auio.uio_rw = UIO_READ;
934         auio.uio_td = td;
935
936         get_mplock();
937         error = kern_recvmsg(uap->s, uap->from ? &sa : NULL, &auio, NULL,
938                              &uap->flags, &uap->sysmsg_szresult);
939         rel_mplock();
940
941         if (error == 0 && uap->from) {
942                 /* note: sa may still be NULL */
943                 if (sa) {
944                         fromlen = MIN(fromlen, sa->sa_len);
945                         error = copyout(sa, uap->from, fromlen);
946                 } else {
947                         fromlen = 0;
948                 }
949                 if (error == 0) {
950                         error = copyout(&fromlen, uap->fromlenaddr,
951                                         sizeof(fromlen));
952                 }
953         }
954         if (sa)
955                 FREE(sa, M_SONAME);
956
957         return (error);
958 }
959
960 /*
961  * recvmsg_args(int s, struct msghdr *msg, int flags)
962  *
963  * MPALMOSTSAFE
964  */
965 int
966 sys_recvmsg(struct recvmsg_args *uap)
967 {
968         struct thread *td = curthread;
969         struct msghdr msg;
970         struct uio auio;
971         struct iovec aiov[UIO_SMALLIOV], *iov = NULL;
972         struct mbuf *m, *control = NULL;
973         struct sockaddr *sa = NULL;
974         caddr_t ctlbuf;
975         socklen_t *ufromlenp, *ucontrollenp;
976         int error, fromlen, controllen, len, flags, *uflagsp;
977
978         /*
979          * This copyin handles everything except the iovec.
980          */
981         error = copyin(uap->msg, &msg, sizeof(msg));
982         if (error)
983                 return (error);
984
985         if (msg.msg_name && msg.msg_namelen < 0)
986                 return (EINVAL);
987         if (msg.msg_control && msg.msg_controllen < 0)
988                 return (EINVAL);
989
990         ufromlenp = (socklen_t *)((caddr_t)uap->msg + offsetof(struct msghdr,
991                     msg_namelen));
992         ucontrollenp = (socklen_t *)((caddr_t)uap->msg + offsetof(struct msghdr,
993                        msg_controllen));
994         uflagsp = (int *)((caddr_t)uap->msg + offsetof(struct msghdr,
995                                                         msg_flags));
996
997         /*
998          * Populate auio.
999          */
1000         error = iovec_copyin(msg.msg_iov, &iov, aiov, msg.msg_iovlen,
1001                              &auio.uio_resid);
1002         if (error)
1003                 return (error);
1004         auio.uio_iov = iov;
1005         auio.uio_iovcnt = msg.msg_iovlen;
1006         auio.uio_offset = 0;
1007         auio.uio_segflg = UIO_USERSPACE;
1008         auio.uio_rw = UIO_READ;
1009         auio.uio_td = td;
1010
1011         flags = uap->flags;
1012
1013         get_mplock();
1014         error = kern_recvmsg(uap->s,
1015                              (msg.msg_name ? &sa : NULL), &auio,
1016                              (msg.msg_control ? &control : NULL), &flags,
1017                              &uap->sysmsg_szresult);
1018         rel_mplock();
1019
1020         /*
1021          * Conditionally copyout the name and populate the namelen field.
1022          */
1023         if (error == 0 && msg.msg_name) {
1024                 /* note: sa may still be NULL */
1025                 if (sa != NULL) {
1026                         fromlen = MIN(msg.msg_namelen, sa->sa_len);
1027                         error = copyout(sa, msg.msg_name, fromlen);
1028                 } else {
1029                         fromlen = 0;
1030                 }
1031                 if (error == 0)
1032                         error = copyout(&fromlen, ufromlenp,
1033                             sizeof(*ufromlenp));
1034         }
1035
1036         /*
1037          * Copyout msg.msg_control and msg.msg_controllen.
1038          */
1039         if (error == 0 && msg.msg_control) {
1040                 len = msg.msg_controllen;
1041                 m = control;
1042                 ctlbuf = (caddr_t)msg.msg_control;
1043
1044                 while(m && len > 0) {
1045                         unsigned int tocopy;
1046
1047                         if (len >= m->m_len) {
1048                                 tocopy = m->m_len;
1049                         } else {
1050                                 msg.msg_flags |= MSG_CTRUNC;
1051                                 tocopy = len;
1052                         }
1053
1054                         error = copyout(mtod(m, caddr_t), ctlbuf, tocopy);
1055                         if (error)
1056                                 goto cleanup;
1057
1058                         ctlbuf += tocopy;
1059                         len -= tocopy;
1060                         m = m->m_next;
1061                 }
1062                 controllen = ctlbuf - (caddr_t)msg.msg_control;
1063                 error = copyout(&controllen, ucontrollenp,
1064                     sizeof(*ucontrollenp));
1065         }
1066
1067         if (error == 0)
1068                 error = copyout(&flags, uflagsp, sizeof(*uflagsp));
1069
1070 cleanup:
1071         if (sa)
1072                 FREE(sa, M_SONAME);
1073         iovec_free(&iov, aiov);
1074         if (control)
1075                 m_freem(control);
1076         return (error);
1077 }
1078
1079 /*
1080  * If sopt->sopt_td == NULL, then sopt->sopt_val is treated as an
1081  * in kernel pointer instead of a userland pointer.  This allows us
1082  * to manipulate socket options in the emulation code.
1083  */
1084 int
1085 kern_setsockopt(int s, struct sockopt *sopt)
1086 {
1087         struct thread *td = curthread;
1088         struct proc *p = td->td_proc;
1089         struct file *fp;
1090         int error;
1091
1092         if (sopt->sopt_val == NULL && sopt->sopt_valsize != 0)
1093                 return (EFAULT);
1094         if (sopt->sopt_val != NULL && sopt->sopt_valsize == 0)
1095                 return (EINVAL);
1096         if (sopt->sopt_valsize < 0)
1097                 return (EINVAL);
1098
1099         error = holdsock(p->p_fd, s, &fp);
1100         if (error)
1101                 return (error);
1102
1103         error = sosetopt((struct socket *)fp->f_data, sopt);
1104         fdrop(fp);
1105         return (error);
1106 }
1107
1108 /*
1109  * setsockopt_args(int s, int level, int name, caddr_t val, int valsize)
1110  *
1111  * MPALMOSTSAFE
1112  */
1113 int
1114 sys_setsockopt(struct setsockopt_args *uap)
1115 {
1116         struct thread *td = curthread;
1117         struct sockopt sopt;
1118         int error;
1119
1120         sopt.sopt_level = uap->level;
1121         sopt.sopt_name = uap->name;
1122         sopt.sopt_valsize = uap->valsize;
1123         sopt.sopt_td = td;
1124         sopt.sopt_val = NULL;
1125
1126         if (sopt.sopt_valsize < 0 || sopt.sopt_valsize > SOMAXOPT_SIZE)
1127                 return (EINVAL);
1128         if (uap->val) {
1129                 sopt.sopt_val = kmalloc(sopt.sopt_valsize, M_TEMP, M_WAITOK);
1130                 error = copyin(uap->val, sopt.sopt_val, sopt.sopt_valsize);
1131                 if (error)
1132                         goto out;
1133         }
1134
1135         get_mplock();
1136         error = kern_setsockopt(uap->s, &sopt);
1137         rel_mplock();
1138 out:
1139         if (uap->val)
1140                 kfree(sopt.sopt_val, M_TEMP);
1141         return(error);
1142 }
1143
1144 /*
1145  * If sopt->sopt_td == NULL, then sopt->sopt_val is treated as an
1146  * in kernel pointer instead of a userland pointer.  This allows us
1147  * to manipulate socket options in the emulation code.
1148  */
1149 int
1150 kern_getsockopt(int s, struct sockopt *sopt)
1151 {
1152         struct thread *td = curthread;
1153         struct proc *p = td->td_proc;
1154         struct file *fp;
1155         int error;
1156
1157         if (sopt->sopt_val == NULL && sopt->sopt_valsize != 0)
1158                 return (EFAULT);
1159         if (sopt->sopt_val != NULL && sopt->sopt_valsize == 0)
1160                 return (EINVAL);
1161         if (sopt->sopt_valsize < 0 || sopt->sopt_valsize > SOMAXOPT_SIZE)
1162                 return (EINVAL);
1163
1164         error = holdsock(p->p_fd, s, &fp);
1165         if (error)
1166                 return (error);
1167
1168         error = sogetopt((struct socket *)fp->f_data, sopt);
1169         fdrop(fp);
1170         return (error);
1171 }
1172
1173 /*
1174  * getsockopt_args(int s, int level, int name, caddr_t val, int *avalsize)
1175  *
1176  * MPALMOSTSAFE
1177  */
1178 int
1179 sys_getsockopt(struct getsockopt_args *uap)
1180 {
1181         struct thread *td = curthread;
1182         struct  sockopt sopt;
1183         int     error, valsize;
1184
1185         if (uap->val) {
1186                 error = copyin(uap->avalsize, &valsize, sizeof(valsize));
1187                 if (error)
1188                         return (error);
1189         } else {
1190                 valsize = 0;
1191         }
1192
1193         sopt.sopt_level = uap->level;
1194         sopt.sopt_name = uap->name;
1195         sopt.sopt_valsize = valsize;
1196         sopt.sopt_td = td;
1197         sopt.sopt_val = NULL;
1198
1199         if (sopt.sopt_valsize < 0 || sopt.sopt_valsize > SOMAXOPT_SIZE)
1200                 return (EINVAL);
1201         if (uap->val) {
1202                 sopt.sopt_val = kmalloc(sopt.sopt_valsize, M_TEMP, M_WAITOK);
1203                 error = copyin(uap->val, sopt.sopt_val, sopt.sopt_valsize);
1204                 if (error)
1205                         goto out;
1206         }
1207
1208         get_mplock();
1209         error = kern_getsockopt(uap->s, &sopt);
1210         rel_mplock();
1211         if (error)
1212                 goto out;
1213         valsize = sopt.sopt_valsize;
1214         error = copyout(&valsize, uap->avalsize, sizeof(valsize));
1215         if (error)
1216                 goto out;
1217         if (uap->val)
1218                 error = copyout(sopt.sopt_val, uap->val, sopt.sopt_valsize);
1219 out:
1220         if (uap->val)
1221                 kfree(sopt.sopt_val, M_TEMP);
1222         return (error);
1223 }
1224
1225 /*
1226  * The second argument to kern_getsockname() is a handle to a struct sockaddr.
1227  * This allows kern_getsockname() to return a pointer to an allocated struct
1228  * sockaddr which must be freed later with FREE().  The caller must
1229  * initialize *name to NULL.
1230  */
1231 int
1232 kern_getsockname(int s, struct sockaddr **name, int *namelen)
1233 {
1234         struct thread *td = curthread;
1235         struct proc *p = td->td_proc;
1236         struct file *fp;
1237         struct socket *so;
1238         struct sockaddr *sa = NULL;
1239         int error;
1240
1241         error = holdsock(p->p_fd, s, &fp);
1242         if (error)
1243                 return (error);
1244         if (*namelen < 0) {
1245                 fdrop(fp);
1246                 return (EINVAL);
1247         }
1248         so = (struct socket *)fp->f_data;
1249         error = so_pru_sockaddr(so, &sa);
1250         if (error == 0) {
1251                 if (sa == NULL) {
1252                         *namelen = 0;
1253                 } else {
1254                         *namelen = MIN(*namelen, sa->sa_len);
1255                         *name = sa;
1256                 }
1257         }
1258
1259         fdrop(fp);
1260         return (error);
1261 }
1262
1263 /*
1264  * getsockname_args(int fdes, caddr_t asa, int *alen)
1265  *
1266  * Get socket name.
1267  *
1268  * MPALMOSTSAFE
1269  */
1270 int
1271 sys_getsockname(struct getsockname_args *uap)
1272 {
1273         struct sockaddr *sa = NULL;
1274         int error, sa_len;
1275
1276         error = copyin(uap->alen, &sa_len, sizeof(sa_len));
1277         if (error)
1278                 return (error);
1279
1280         get_mplock();
1281         error = kern_getsockname(uap->fdes, &sa, &sa_len);
1282         rel_mplock();
1283
1284         if (error == 0)
1285                 error = copyout(sa, uap->asa, sa_len);
1286         if (error == 0)
1287                 error = copyout(&sa_len, uap->alen, sizeof(*uap->alen));
1288         if (sa)
1289                 FREE(sa, M_SONAME);
1290         return (error);
1291 }
1292
1293 /*
1294  * The second argument to kern_getpeername() is a handle to a struct sockaddr.
1295  * This allows kern_getpeername() to return a pointer to an allocated struct
1296  * sockaddr which must be freed later with FREE().  The caller must
1297  * initialize *name to NULL.
1298  */
1299 int
1300 kern_getpeername(int s, struct sockaddr **name, int *namelen)
1301 {
1302         struct thread *td = curthread;
1303         struct proc *p = td->td_proc;
1304         struct file *fp;
1305         struct socket *so;
1306         struct sockaddr *sa = NULL;
1307         int error;
1308
1309         error = holdsock(p->p_fd, s, &fp);
1310         if (error)
1311                 return (error);
1312         if (*namelen < 0) {
1313                 fdrop(fp);
1314                 return (EINVAL);
1315         }
1316         so = (struct socket *)fp->f_data;
1317         if ((so->so_state & (SS_ISCONNECTED|SS_ISCONFIRMING)) == 0) {
1318                 fdrop(fp);
1319                 return (ENOTCONN);
1320         }
1321         error = so_pru_peeraddr(so, &sa);
1322         if (error == 0) {
1323                 if (sa == NULL) {
1324                         *namelen = 0;
1325                 } else {
1326                         *namelen = MIN(*namelen, sa->sa_len);
1327                         *name = sa;
1328                 }
1329         }
1330
1331         fdrop(fp);
1332         return (error);
1333 }
1334
1335 /*
1336  * getpeername_args(int fdes, caddr_t asa, int *alen)
1337  *
1338  * Get name of peer for connected socket.
1339  *
1340  * MPALMOSTSAFE
1341  */
1342 int
1343 sys_getpeername(struct getpeername_args *uap)
1344 {
1345         struct sockaddr *sa = NULL;
1346         int error, sa_len;
1347
1348         error = copyin(uap->alen, &sa_len, sizeof(sa_len));
1349         if (error)
1350                 return (error);
1351
1352         get_mplock();
1353         error = kern_getpeername(uap->fdes, &sa, &sa_len);
1354         rel_mplock();
1355
1356         if (error == 0)
1357                 error = copyout(sa, uap->asa, sa_len);
1358         if (error == 0)
1359                 error = copyout(&sa_len, uap->alen, sizeof(*uap->alen));
1360         if (sa)
1361                 FREE(sa, M_SONAME);
1362         return (error);
1363 }
1364
1365 int
1366 getsockaddr(struct sockaddr **namp, caddr_t uaddr, size_t len)
1367 {
1368         struct sockaddr *sa;
1369         int error;
1370
1371         *namp = NULL;
1372         if (len > SOCK_MAXADDRLEN)
1373                 return ENAMETOOLONG;
1374         if (len < offsetof(struct sockaddr, sa_data[0]))
1375                 return EDOM;
1376         MALLOC(sa, struct sockaddr *, len, M_SONAME, M_WAITOK);
1377         error = copyin(uaddr, sa, len);
1378         if (error) {
1379                 FREE(sa, M_SONAME);
1380         } else {
1381 #if BYTE_ORDER != BIG_ENDIAN
1382                 /*
1383                  * The bind(), connect(), and sendto() syscalls were not
1384                  * versioned for COMPAT_43.  Thus, this check must stay.
1385                  */
1386                 if (sa->sa_family == 0 && sa->sa_len < AF_MAX)
1387                         sa->sa_family = sa->sa_len;
1388 #endif
1389                 sa->sa_len = len;
1390                 *namp = sa;
1391         }
1392         return error;
1393 }
1394
1395 /*
1396  * Detach a mapped page and release resources back to the system.
1397  * We must release our wiring and if the object is ripped out
1398  * from under the vm_page we become responsible for freeing the
1399  * page.  These routines must be MPSAFE.
1400  *
1401  * XXX HACK XXX TEMPORARY UNTIL WE IMPLEMENT EXT MBUF REFERENCE COUNTING
1402  *
1403  * XXX vm_page_*() routines are not MPSAFE yet, the MP lock is required.
1404  */
1405 static void
1406 sf_buf_mref(void *arg)
1407 {
1408         struct sfbuf_mref *sfm = arg;
1409
1410         /*
1411          * We must already hold a ref so there is no race to 0, just 
1412          * atomically increment the count.
1413          */
1414         atomic_add_int(&sfm->mref_count, 1);
1415 }
1416
1417 static void
1418 sf_buf_mfree(void *arg)
1419 {
1420         struct sfbuf_mref *sfm = arg;
1421         vm_page_t m;
1422
1423         KKASSERT(sfm->mref_count > 0);
1424         if (atomic_fetchadd_int(&sfm->mref_count, -1) == 1) {
1425                 /*
1426                  * XXX vm_page_*() and SFBUF routines not MPSAFE yet.
1427                  */
1428                 get_mplock();
1429                 crit_enter();
1430                 m = sf_buf_page(sfm->sf);
1431                 sf_buf_free(sfm->sf);
1432                 vm_page_unwire(m, 0);
1433                 if (m->wire_count == 0 && m->object == NULL)
1434                         vm_page_try_to_free(m);
1435                 crit_exit();
1436                 rel_mplock();
1437                 kfree(sfm, M_SENDFILE);
1438         }
1439 }
1440
1441 /*
1442  * sendfile(2).
1443  * int sendfile(int fd, int s, off_t offset, size_t nbytes,
1444  *       struct sf_hdtr *hdtr, off_t *sbytes, int flags)
1445  *
1446  * Send a file specified by 'fd' and starting at 'offset' to a socket
1447  * specified by 's'. Send only 'nbytes' of the file or until EOF if
1448  * nbytes == 0. Optionally add a header and/or trailer to the socket
1449  * output. If specified, write the total number of bytes sent into *sbytes.
1450  *
1451  * In FreeBSD kern/uipc_syscalls.c,v 1.103, a bug was fixed that caused
1452  * the headers to count against the remaining bytes to be sent from
1453  * the file descriptor.  We may wish to implement a compatibility syscall
1454  * in the future.
1455  *
1456  * MPALMOSTSAFE
1457  */
1458 int
1459 sys_sendfile(struct sendfile_args *uap)
1460 {
1461         struct thread *td = curthread;
1462         struct proc *p = td->td_proc;
1463         struct file *fp;
1464         struct vnode *vp = NULL;
1465         struct sf_hdtr hdtr;
1466         struct iovec aiov[UIO_SMALLIOV], *iov = NULL;
1467         struct uio auio;
1468         struct mbuf *mheader = NULL;
1469         size_t hbytes = 0;
1470         size_t tbytes;
1471         off_t hdtr_size = 0;
1472         off_t sbytes;
1473         int error;
1474
1475         KKASSERT(p);
1476
1477         /*
1478          * Do argument checking. Must be a regular file in, stream
1479          * type and connected socket out, positive offset.
1480          */
1481         fp = holdfp(p->p_fd, uap->fd, FREAD);
1482         if (fp == NULL) {
1483                 return (EBADF);
1484         }
1485         if (fp->f_type != DTYPE_VNODE) {
1486                 fdrop(fp);
1487                 return (EINVAL);
1488         }
1489         get_mplock();
1490         vp = (struct vnode *)fp->f_data;
1491         vref(vp);
1492         fdrop(fp);
1493
1494         /*
1495          * If specified, get the pointer to the sf_hdtr struct for
1496          * any headers/trailers.
1497          */
1498         if (uap->hdtr) {
1499                 error = copyin(uap->hdtr, &hdtr, sizeof(hdtr));
1500                 if (error)
1501                         goto done;
1502                 /*
1503                  * Send any headers.
1504                  */
1505                 if (hdtr.headers) {
1506                         error = iovec_copyin(hdtr.headers, &iov, aiov,
1507                                              hdtr.hdr_cnt, &hbytes);
1508                         if (error)
1509                                 goto done;
1510                         auio.uio_iov = iov;
1511                         auio.uio_iovcnt = hdtr.hdr_cnt;
1512                         auio.uio_offset = 0;
1513                         auio.uio_segflg = UIO_USERSPACE;
1514                         auio.uio_rw = UIO_WRITE;
1515                         auio.uio_td = td;
1516                         auio.uio_resid = hbytes;
1517
1518                         mheader = m_uiomove(&auio);
1519
1520                         iovec_free(&iov, aiov);
1521                         if (mheader == NULL)
1522                                 goto done;
1523                 }
1524         }
1525
1526         error = kern_sendfile(vp, uap->s, uap->offset, uap->nbytes, mheader,
1527                               &sbytes, uap->flags);
1528         if (error)
1529                 goto done;
1530
1531         /*
1532          * Send trailers. Wimp out and use writev(2).
1533          */
1534         if (uap->hdtr != NULL && hdtr.trailers != NULL) {
1535                 error = iovec_copyin(hdtr.trailers, &iov, aiov,
1536                                      hdtr.trl_cnt, &auio.uio_resid);
1537                 if (error)
1538                         goto done;
1539                 auio.uio_iov = iov;
1540                 auio.uio_iovcnt = hdtr.trl_cnt;
1541                 auio.uio_offset = 0;
1542                 auio.uio_segflg = UIO_USERSPACE;
1543                 auio.uio_rw = UIO_WRITE;
1544                 auio.uio_td = td;
1545
1546                 error = kern_sendmsg(uap->s, NULL, &auio, NULL, 0, &tbytes);
1547
1548                 iovec_free(&iov, aiov);
1549                 if (error)
1550                         goto done;
1551                 hdtr_size += tbytes;    /* trailer bytes successfully sent */
1552         }
1553
1554 done:
1555         if (vp)
1556                 vrele(vp);
1557         rel_mplock();
1558         if (uap->sbytes != NULL) {
1559                 sbytes += hdtr_size;
1560                 copyout(&sbytes, uap->sbytes, sizeof(off_t));
1561         }
1562         return (error);
1563 }
1564
1565 int
1566 kern_sendfile(struct vnode *vp, int sfd, off_t offset, size_t nbytes,
1567     struct mbuf *mheader, off_t *sbytes, int flags)
1568 {
1569         struct thread *td = curthread;
1570         struct proc *p = td->td_proc;
1571         struct vm_object *obj;
1572         struct socket *so;
1573         struct file *fp;
1574         struct mbuf *m;
1575         struct sf_buf *sf;
1576         struct sfbuf_mref *sfm;
1577         struct vm_page *pg;
1578         off_t off, xfsize;
1579         off_t hbytes = 0;
1580         int error = 0;
1581
1582         if (vp->v_type != VREG) {
1583                 error = EINVAL;
1584                 goto done0;
1585         }
1586         if ((obj = vp->v_object) == NULL) {
1587                 error = EINVAL;
1588                 goto done0;
1589         }
1590         error = holdsock(p->p_fd, sfd, &fp);
1591         if (error)
1592                 goto done0;
1593         so = (struct socket *)fp->f_data;
1594         if (so->so_type != SOCK_STREAM) {
1595                 error = EINVAL;
1596                 goto done;
1597         }
1598         if ((so->so_state & SS_ISCONNECTED) == 0) {
1599                 error = ENOTCONN;
1600                 goto done;
1601         }
1602         if (offset < 0) {
1603                 error = EINVAL;
1604                 goto done;
1605         }
1606
1607         *sbytes = 0;
1608         /*
1609          * Protect against multiple writers to the socket.
1610          */
1611         ssb_lock(&so->so_snd, M_WAITOK);
1612
1613         /*
1614          * Loop through the pages in the file, starting with the requested
1615          * offset. Get a file page (do I/O if necessary), map the file page
1616          * into an sf_buf, attach an mbuf header to the sf_buf, and queue
1617          * it on the socket.
1618          */
1619         for (off = offset; ; off += xfsize, *sbytes += xfsize + hbytes) {
1620                 vm_pindex_t pindex;
1621                 vm_offset_t pgoff;
1622
1623                 pindex = OFF_TO_IDX(off);
1624 retry_lookup:
1625                 /*
1626                  * Calculate the amount to transfer. Not to exceed a page,
1627                  * the EOF, or the passed in nbytes.
1628                  */
1629                 xfsize = vp->v_filesize - off;
1630                 if (xfsize > PAGE_SIZE)
1631                         xfsize = PAGE_SIZE;
1632                 pgoff = (vm_offset_t)(off & PAGE_MASK);
1633                 if (PAGE_SIZE - pgoff < xfsize)
1634                         xfsize = PAGE_SIZE - pgoff;
1635                 if (nbytes && xfsize > (nbytes - *sbytes))
1636                         xfsize = nbytes - *sbytes;
1637                 if (xfsize <= 0)
1638                         break;
1639                 /*
1640                  * Optimize the non-blocking case by looking at the socket space
1641                  * before going to the extra work of constituting the sf_buf.
1642                  */
1643                 if ((fp->f_flag & FNONBLOCK) && ssb_space(&so->so_snd) <= 0) {
1644                         if (so->so_state & SS_CANTSENDMORE)
1645                                 error = EPIPE;
1646                         else
1647                                 error = EAGAIN;
1648                         ssb_unlock(&so->so_snd);
1649                         goto done;
1650                 }
1651                 /*
1652                  * Attempt to look up the page.  
1653                  *
1654                  *      Allocate if not found, wait and loop if busy, then
1655                  *      wire the page.  critical section protection is
1656                  *      required to maintain the object association (an
1657                  *      interrupt can free the page) through to the
1658                  *      vm_page_wire() call.
1659                  */
1660                 crit_enter();
1661                 pg = vm_page_lookup(obj, pindex);
1662                 if (pg == NULL) {
1663                         pg = vm_page_alloc(obj, pindex, VM_ALLOC_NORMAL);
1664                         if (pg == NULL) {
1665                                 vm_wait(0);
1666                                 crit_exit();
1667                                 goto retry_lookup;
1668                         }
1669                         vm_page_wakeup(pg);
1670                 } else if (vm_page_sleep_busy(pg, TRUE, "sfpbsy")) {
1671                         crit_exit();
1672                         goto retry_lookup;
1673                 }
1674                 vm_page_wire(pg);
1675                 crit_exit();
1676
1677                 /*
1678                  * If page is not valid for what we need, initiate I/O
1679                  */
1680
1681                 if (!pg->valid || !vm_page_is_valid(pg, pgoff, xfsize)) {
1682                         struct uio auio;
1683                         struct iovec aiov;
1684                         int bsize;
1685
1686                         /*
1687                          * Ensure that our page is still around when the I/O 
1688                          * completes.
1689                          */
1690                         vm_page_io_start(pg);
1691
1692                         /*
1693                          * Get the page from backing store.
1694                          */
1695                         bsize = vp->v_mount->mnt_stat.f_iosize;
1696                         auio.uio_iov = &aiov;
1697                         auio.uio_iovcnt = 1;
1698                         aiov.iov_base = 0;
1699                         aiov.iov_len = MAXBSIZE;
1700                         auio.uio_resid = MAXBSIZE;
1701                         auio.uio_offset = trunc_page(off);
1702                         auio.uio_segflg = UIO_NOCOPY;
1703                         auio.uio_rw = UIO_READ;
1704                         auio.uio_td = td;
1705                         vn_lock(vp, LK_SHARED | LK_RETRY);
1706                         error = VOP_READ(vp, &auio, 
1707                                     IO_VMIO | ((MAXBSIZE / bsize) << 16),
1708                                     td->td_ucred);
1709                         vn_unlock(vp);
1710                         vm_page_flag_clear(pg, PG_ZERO);
1711                         vm_page_io_finish(pg);
1712                         if (error) {
1713                                 crit_enter();
1714                                 vm_page_unwire(pg, 0);
1715                                 vm_page_try_to_free(pg);
1716                                 crit_exit();
1717                                 ssb_unlock(&so->so_snd);
1718                                 goto done;
1719                         }
1720                 }
1721
1722
1723                 /*
1724                  * Get a sendfile buf. We usually wait as long as necessary,
1725                  * but this wait can be interrupted.
1726                  */
1727                 if ((sf = sf_buf_alloc(pg, SFB_CATCH)) == NULL) {
1728                         crit_enter();
1729                         vm_page_unwire(pg, 0);
1730                         vm_page_try_to_free(pg);
1731                         crit_exit();
1732                         ssb_unlock(&so->so_snd);
1733                         error = EINTR;
1734                         goto done;
1735                 }
1736
1737                 /*
1738                  * Get an mbuf header and set it up as having external storage.
1739                  */
1740                 MGETHDR(m, MB_WAIT, MT_DATA);
1741                 if (m == NULL) {
1742                         error = ENOBUFS;
1743                         sf_buf_free(sf);
1744                         ssb_unlock(&so->so_snd);
1745                         goto done;
1746                 }
1747
1748                 /*
1749                  * sfm is a temporary hack, use a per-cpu cache for this.
1750                  */
1751                 sfm = kmalloc(sizeof(struct sfbuf_mref), M_SENDFILE, M_WAITOK);
1752                 sfm->sf = sf;
1753                 sfm->mref_count = 1;
1754
1755                 m->m_ext.ext_free = sf_buf_mfree;
1756                 m->m_ext.ext_ref = sf_buf_mref;
1757                 m->m_ext.ext_arg = sfm;
1758                 m->m_ext.ext_buf = (void *)sf->kva;
1759                 m->m_ext.ext_size = PAGE_SIZE;
1760                 m->m_data = (char *) sf->kva + pgoff;
1761                 m->m_flags |= M_EXT;
1762                 m->m_pkthdr.len = m->m_len = xfsize;
1763                 KKASSERT((m->m_flags & (M_EXT_CLUSTER)) == 0);
1764
1765                 if (mheader != NULL) {
1766                         hbytes = mheader->m_pkthdr.len;
1767                         mheader->m_pkthdr.len += m->m_pkthdr.len;
1768                         m_cat(mheader, m);
1769                         m = mheader;
1770                         mheader = NULL;
1771                 } else
1772                         hbytes = 0;
1773
1774                 /*
1775                  * Add the buffer to the socket buffer chain.
1776                  */
1777                 crit_enter();
1778 retry_space:
1779                 /*
1780                  * Make sure that the socket is still able to take more data.
1781                  * CANTSENDMORE being true usually means that the connection
1782                  * was closed. so_error is true when an error was sensed after
1783                  * a previous send.
1784                  * The state is checked after the page mapping and buffer
1785                  * allocation above since those operations may block and make
1786                  * any socket checks stale. From this point forward, nothing
1787                  * blocks before the pru_send (or more accurately, any blocking
1788                  * results in a loop back to here to re-check).
1789                  */
1790                 if ((so->so_state & SS_CANTSENDMORE) || so->so_error) {
1791                         if (so->so_state & SS_CANTSENDMORE) {
1792                                 error = EPIPE;
1793                         } else {
1794                                 error = so->so_error;
1795                                 so->so_error = 0;
1796                         }
1797                         m_freem(m);
1798                         ssb_unlock(&so->so_snd);
1799                         crit_exit();
1800                         goto done;
1801                 }
1802                 /*
1803                  * Wait for socket space to become available. We do this just
1804                  * after checking the connection state above in order to avoid
1805                  * a race condition with ssb_wait().
1806                  */
1807                 if (ssb_space(&so->so_snd) < so->so_snd.ssb_lowat) {
1808                         if (fp->f_flag & FNONBLOCK) {
1809                                 m_freem(m);
1810                                 ssb_unlock(&so->so_snd);
1811                                 crit_exit();
1812                                 error = EAGAIN;
1813                                 goto done;
1814                         }
1815                         error = ssb_wait(&so->so_snd);
1816                         /*
1817                          * An error from ssb_wait usually indicates that we've
1818                          * been interrupted by a signal. If we've sent anything
1819                          * then return bytes sent, otherwise return the error.
1820                          */
1821                         if (error) {
1822                                 m_freem(m);
1823                                 ssb_unlock(&so->so_snd);
1824                                 crit_exit();
1825                                 goto done;
1826                         }
1827                         goto retry_space;
1828                 }
1829                 error = so_pru_send(so, 0, m, NULL, NULL, td);
1830                 crit_exit();
1831                 if (error) {
1832                         ssb_unlock(&so->so_snd);
1833                         goto done;
1834                 }
1835         }
1836         if (mheader != NULL) {
1837                 *sbytes += mheader->m_pkthdr.len;
1838                 error = so_pru_send(so, 0, mheader, NULL, NULL, td);
1839                 mheader = NULL;
1840         }
1841         ssb_unlock(&so->so_snd);
1842
1843 done:
1844         fdrop(fp);
1845 done0:
1846         if (mheader != NULL)
1847                 m_freem(mheader);
1848         return (error);
1849 }
1850
1851 /*
1852  * MPALMOSTSAFE
1853  */
1854 int
1855 sys_sctp_peeloff(struct sctp_peeloff_args *uap)
1856 {
1857 #ifdef SCTP
1858         struct thread *td = curthread;
1859         struct filedesc *fdp = td->td_proc->p_fd;
1860         struct file *lfp = NULL;
1861         struct file *nfp = NULL;
1862         int error;
1863         struct socket *head, *so;
1864         caddr_t assoc_id;
1865         int fd;
1866         short fflag;            /* type must match fp->f_flag */
1867
1868         assoc_id = uap->name;
1869         error = holdsock(td->td_proc->p_fd, uap->sd, &lfp);
1870         if (error)
1871                 return (error);
1872
1873         get_mplock();
1874         crit_enter();
1875         head = (struct socket *)lfp->f_data;
1876         error = sctp_can_peel_off(head, assoc_id);
1877         if (error) {
1878                 crit_exit();
1879                 goto done;
1880         }
1881         /*
1882          * At this point we know we do have a assoc to pull
1883          * we proceed to get the fd setup. This may block
1884          * but that is ok.
1885          */
1886
1887         fflag = lfp->f_flag;
1888         error = falloc(td->td_lwp, &nfp, &fd);
1889         if (error) {
1890                 /*
1891                  * Probably ran out of file descriptors. Put the
1892                  * unaccepted connection back onto the queue and
1893                  * do another wakeup so some other process might
1894                  * have a chance at it.
1895                  */
1896                 crit_exit();
1897                 goto done;
1898         }
1899         uap->sysmsg_iresult = fd;
1900
1901         so = sctp_get_peeloff(head, assoc_id, &error);
1902         if (so == NULL) {
1903                 /*
1904                  * Either someone else peeled it off OR
1905                  * we can't get a socket.
1906                  */
1907                 goto noconnection;
1908         }
1909         so->so_state &= ~SS_COMP;
1910         so->so_state &= ~SS_NOFDREF;
1911         so->so_head = NULL;
1912         if (head->so_sigio != NULL)
1913                 fsetown(fgetown(head->so_sigio), &so->so_sigio);
1914
1915         nfp->f_type = DTYPE_SOCKET;
1916         nfp->f_flag = fflag;
1917         nfp->f_ops = &socketops;
1918         nfp->f_data = so;
1919
1920 noconnection:
1921         /*
1922          * Assign the file pointer to the reserved descriptor, or clear
1923          * the reserved descriptor if an error occured.
1924          */
1925         if (error)
1926                 fsetfd(fdp, NULL, fd);
1927         else
1928                 fsetfd(fdp, nfp, fd);
1929         crit_exit();
1930         /*
1931          * Release explicitly held references before returning.
1932          */
1933 done:
1934         rel_mplock();
1935         if (nfp != NULL)
1936                 fdrop(nfp);
1937         fdrop(lfp);
1938         return (error);
1939 #else /* SCTP */
1940         return(EOPNOTSUPP);
1941 #endif /* SCTP */
1942 }