c30ea34e55d639193c879a13750892e6188b61b6
[dragonfly.git] / sys / kern / uipc_syscalls.c
1 /*
2  * Copyright (c) 1982, 1986, 1989, 1990, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  *
5  * sendfile(2) and related extensions:
6  * Copyright (c) 1998, David Greenman. All rights reserved. 
7  *
8  * Redistribution and use in source and binary forms, with or without
9  * modification, are permitted provided that the following conditions
10  * are met:
11  * 1. Redistributions of source code must retain the above copyright
12  *    notice, this list of conditions and the following disclaimer.
13  * 2. Redistributions in binary form must reproduce the above copyright
14  *    notice, this list of conditions and the following disclaimer in the
15  *    documentation and/or other materials provided with the distribution.
16  * 3. All advertising materials mentioning features or use of this software
17  *    must display the following acknowledgement:
18  *      This product includes software developed by the University of
19  *      California, Berkeley and its contributors.
20  * 4. Neither the name of the University nor the names of its contributors
21  *    may be used to endorse or promote products derived from this software
22  *    without specific prior written permission.
23  *
24  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
25  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
26  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
27  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
28  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
29  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
30  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
31  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
32  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
33  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
34  * SUCH DAMAGE.
35  *
36  *      @(#)uipc_syscalls.c     8.4 (Berkeley) 2/21/94
37  * $FreeBSD: src/sys/kern/uipc_syscalls.c,v 1.65.2.17 2003/04/04 17:11:16 tegge Exp $
38  * $DragonFly: src/sys/kern/uipc_syscalls.c,v 1.92 2008/11/26 13:10:56 sephe Exp $
39  */
40
41 #include "opt_ktrace.h"
42 #include "opt_sctp.h"
43
44 #include <sys/param.h>
45 #include <sys/systm.h>
46 #include <sys/kernel.h>
47 #include <sys/sysproto.h>
48 #include <sys/malloc.h>
49 #include <sys/filedesc.h>
50 #include <sys/event.h>
51 #include <sys/proc.h>
52 #include <sys/fcntl.h>
53 #include <sys/file.h>
54 #include <sys/filio.h>
55 #include <sys/kern_syscall.h>
56 #include <sys/mbuf.h>
57 #include <sys/protosw.h>
58 #include <sys/sfbuf.h>
59 #include <sys/socket.h>
60 #include <sys/socketvar.h>
61 #include <sys/socketops.h>
62 #include <sys/uio.h>
63 #include <sys/vnode.h>
64 #include <sys/lock.h>
65 #include <sys/mount.h>
66 #ifdef KTRACE
67 #include <sys/ktrace.h>
68 #endif
69 #include <vm/vm.h>
70 #include <vm/vm_object.h>
71 #include <vm/vm_page.h>
72 #include <vm/vm_pageout.h>
73 #include <vm/vm_kern.h>
74 #include <vm/vm_extern.h>
75 #include <sys/file2.h>
76 #include <sys/signalvar.h>
77 #include <sys/serialize.h>
78
79 #include <sys/thread2.h>
80 #include <sys/msgport2.h>
81 #include <sys/socketvar2.h>
82 #include <sys/mplock2.h>
83 #include <net/netmsg2.h>
84
85 #ifdef SCTP
86 #include <netinet/sctp_peeloff.h>
87 #endif /* SCTP */
88
89 /*
90  * System call interface to the socket abstraction.
91  */
92
93 extern  struct fileops socketops;
94
95 /*
96  * socket_args(int domain, int type, int protocol)
97  */
98 int
99 kern_socket(int domain, int type, int protocol, int *res)
100 {
101         struct thread *td = curthread;
102         struct filedesc *fdp = td->td_proc->p_fd;
103         struct socket *so;
104         struct file *fp;
105         int fd, error;
106
107         KKASSERT(td->td_lwp);
108
109         error = falloc(td->td_lwp, &fp, &fd);
110         if (error)
111                 return (error);
112         error = socreate(domain, &so, type, protocol, td);
113         if (error) {
114                 fsetfd(fdp, NULL, fd);
115         } else {
116                 fp->f_type = DTYPE_SOCKET;
117                 fp->f_flag = FREAD | FWRITE;
118                 fp->f_ops = &socketops;
119                 fp->f_data = so;
120                 *res = fd;
121                 fsetfd(fdp, fp, fd);
122         }
123         fdrop(fp);
124         return (error);
125 }
126
127 /*
128  * MPALMOSTSAFE
129  */
130 int
131 sys_socket(struct socket_args *uap)
132 {
133         int error;
134
135         get_mplock();
136         error = kern_socket(uap->domain, uap->type, uap->protocol,
137                             &uap->sysmsg_iresult);
138         rel_mplock();
139
140         return (error);
141 }
142
143 int
144 kern_bind(int s, struct sockaddr *sa)
145 {
146         struct thread *td = curthread;
147         struct proc *p = td->td_proc;
148         struct file *fp;
149         int error;
150
151         KKASSERT(p);
152         error = holdsock(p->p_fd, s, &fp);
153         if (error)
154                 return (error);
155         error = sobind((struct socket *)fp->f_data, sa, td);
156         fdrop(fp);
157         return (error);
158 }
159
160 /*
161  * bind_args(int s, caddr_t name, int namelen)
162  *
163  * MPALMOSTSAFE
164  */
165 int
166 sys_bind(struct bind_args *uap)
167 {
168         struct sockaddr *sa;
169         int error;
170
171         error = getsockaddr(&sa, uap->name, uap->namelen);
172         if (error)
173                 return (error);
174         get_mplock();
175         error = kern_bind(uap->s, sa);
176         rel_mplock();
177         FREE(sa, M_SONAME);
178
179         return (error);
180 }
181
182 int
183 kern_listen(int s, int backlog)
184 {
185         struct thread *td = curthread;
186         struct proc *p = td->td_proc;
187         struct file *fp;
188         int error;
189
190         KKASSERT(p);
191         error = holdsock(p->p_fd, s, &fp);
192         if (error)
193                 return (error);
194         error = solisten((struct socket *)fp->f_data, backlog, td);
195         fdrop(fp);
196         return(error);
197 }
198
199 /*
200  * listen_args(int s, int backlog)
201  *
202  * MPALMOSTSAFE
203  */
204 int
205 sys_listen(struct listen_args *uap)
206 {
207         int error;
208
209         get_mplock();
210         error = kern_listen(uap->s, uap->backlog);
211         rel_mplock();
212         return (error);
213 }
214
215 /*
216  * Returns the accepted socket as well.
217  *
218  * NOTE!  The sockets sitting on so_comp/so_incomp might have 0 refs, the
219  *        pool token is absolutely required to avoid a sofree() race,
220  *        as well as to avoid tailq handling races.
221  */
222 static boolean_t
223 soaccept_predicate(struct netmsg_so_notify *msg)
224 {
225         struct socket *head = msg->base.nm_so;
226         struct socket *so;
227
228         if (head->so_error != 0) {
229                 msg->base.lmsg.ms_error = head->so_error;
230                 return (TRUE);
231         }
232         lwkt_getpooltoken(head);
233         if (!TAILQ_EMPTY(&head->so_comp)) {
234                 /* Abuse nm_so field as copy in/copy out parameter. XXX JH */
235                 so = TAILQ_FIRST(&head->so_comp);
236                 TAILQ_REMOVE(&head->so_comp, so, so_list);
237                 head->so_qlen--;
238                 soclrstate(so, SS_COMP);
239                 so->so_head = NULL;
240                 soreference(so);
241
242                 lwkt_relpooltoken(head);
243
244                 msg->base.lmsg.ms_error = 0;
245                 msg->base.nm_so = so;
246                 return (TRUE);
247         }
248         lwkt_relpooltoken(head);
249         if (head->so_state & SS_CANTRCVMORE) {
250                 msg->base.lmsg.ms_error = ECONNABORTED;
251                 return (TRUE);
252         }
253         if (msg->nm_fflags & FNONBLOCK) {
254                 msg->base.lmsg.ms_error = EWOULDBLOCK;
255                 return (TRUE);
256         }
257
258         return (FALSE);
259 }
260
261 /*
262  * The second argument to kern_accept() is a handle to a struct sockaddr.
263  * This allows kern_accept() to return a pointer to an allocated struct
264  * sockaddr which must be freed later with FREE().  The caller must
265  * initialize *name to NULL.
266  */
267 int
268 kern_accept(int s, int fflags, struct sockaddr **name, int *namelen, int *res)
269 {
270         struct thread *td = curthread;
271         struct filedesc *fdp = td->td_proc->p_fd;
272         struct file *lfp = NULL;
273         struct file *nfp = NULL;
274         struct sockaddr *sa;
275         struct socket *head, *so;
276         struct netmsg_so_notify msg;
277         int fd;
278         u_int fflag;            /* type must match fp->f_flag */
279         int error, tmp;
280
281         *res = -1;
282         if (name && namelen && *namelen < 0)
283                 return (EINVAL);
284
285         error = holdsock(td->td_proc->p_fd, s, &lfp);
286         if (error)
287                 return (error);
288
289         error = falloc(td->td_lwp, &nfp, &fd);
290         if (error) {            /* Probably ran out of file descriptors. */
291                 fdrop(lfp);
292                 return (error);
293         }
294         head = (struct socket *)lfp->f_data;
295         if ((head->so_options & SO_ACCEPTCONN) == 0) {
296                 error = EINVAL;
297                 goto done;
298         }
299
300         if (fflags & O_FBLOCKING)
301                 fflags |= lfp->f_flag & ~FNONBLOCK;
302         else if (fflags & O_FNONBLOCKING)
303                 fflags |= lfp->f_flag | FNONBLOCK;
304         else
305                 fflags = lfp->f_flag;
306
307         /* optimize for uniprocessor case later XXX JH */
308         netmsg_init_abortable(&msg.base, head, &curthread->td_msgport,
309                               0, netmsg_so_notify, netmsg_so_notify_doabort);
310         msg.nm_predicate = soaccept_predicate;
311         msg.nm_fflags = fflags;
312         msg.nm_etype = NM_REVENT;
313         error = lwkt_domsg(head->so_port, &msg.base.lmsg, PCATCH);
314         if (error)
315                 goto done;
316
317         /*
318          * At this point we have the connection that's ready to be accepted.
319          *
320          * NOTE! soaccept_predicate() ref'd so for us, and soaccept() expects
321          *       to eat the ref and turn it into a descriptor.
322          */
323         so = msg.base.nm_so;
324
325         fflag = lfp->f_flag;
326
327         /* connection has been removed from the listen queue */
328         KNOTE(&head->so_rcv.ssb_kq.ki_note, 0);
329
330         if (head->so_sigio != NULL)
331                 fsetown(fgetown(head->so_sigio), &so->so_sigio);
332
333         nfp->f_type = DTYPE_SOCKET;
334         nfp->f_flag = fflag;
335         nfp->f_ops = &socketops;
336         nfp->f_data = so;
337         /* Sync socket nonblocking/async state with file flags */
338         tmp = fflag & FNONBLOCK;
339         fo_ioctl(nfp, FIONBIO, (caddr_t)&tmp, td->td_ucred, NULL);
340         tmp = fflag & FASYNC;
341         fo_ioctl(nfp, FIOASYNC, (caddr_t)&tmp, td->td_ucred, NULL);
342
343         sa = NULL;
344         error = soaccept(so, &sa);
345
346         /*
347          * Set the returned name and namelen as applicable.  Set the returned
348          * namelen to 0 for older code which might ignore the return value
349          * from accept.
350          */
351         if (error == 0) {
352                 if (sa && name && namelen) {
353                         if (*namelen > sa->sa_len)
354                                 *namelen = sa->sa_len;
355                         *name = sa;
356                 } else {
357                         if (sa)
358                                 FREE(sa, M_SONAME);
359                 }
360         }
361
362 done:
363         /*
364          * If an error occured clear the reserved descriptor, else associate
365          * nfp with it.
366          *
367          * Note that *res is normally ignored if an error is returned but
368          * a syscall message will still have access to the result code.
369          */
370         if (error) {
371                 fsetfd(fdp, NULL, fd);
372         } else {
373                 *res = fd;
374                 fsetfd(fdp, nfp, fd);
375         }
376         fdrop(nfp);
377         fdrop(lfp);
378         return (error);
379 }
380
381 /*
382  * accept(int s, caddr_t name, int *anamelen)
383  *
384  * MPALMOSTSAFE
385  */
386 int
387 sys_accept(struct accept_args *uap)
388 {
389         struct sockaddr *sa = NULL;
390         int sa_len;
391         int error;
392
393         if (uap->name) {
394                 error = copyin(uap->anamelen, &sa_len, sizeof(sa_len));
395                 if (error)
396                         return (error);
397
398                 get_mplock();
399                 error = kern_accept(uap->s, 0, &sa, &sa_len,
400                                     &uap->sysmsg_iresult);
401                 rel_mplock();
402
403                 if (error == 0)
404                         error = copyout(sa, uap->name, sa_len);
405                 if (error == 0) {
406                         error = copyout(&sa_len, uap->anamelen,
407                             sizeof(*uap->anamelen));
408                 }
409                 if (sa)
410                         FREE(sa, M_SONAME);
411         } else {
412                 get_mplock();
413                 error = kern_accept(uap->s, 0, NULL, 0,
414                                     &uap->sysmsg_iresult);
415                 rel_mplock();
416         }
417         return (error);
418 }
419
420 /*
421  * extaccept(int s, int fflags, caddr_t name, int *anamelen)
422  *
423  * MPALMOSTSAFE
424  */
425 int
426 sys_extaccept(struct extaccept_args *uap)
427 {
428         struct sockaddr *sa = NULL;
429         int sa_len;
430         int error;
431         int fflags = uap->flags & O_FMASK;
432
433         if (uap->name) {
434                 error = copyin(uap->anamelen, &sa_len, sizeof(sa_len));
435                 if (error)
436                         return (error);
437
438                 get_mplock();
439                 error = kern_accept(uap->s, fflags, &sa, &sa_len,
440                                     &uap->sysmsg_iresult);
441                 rel_mplock();
442
443                 if (error == 0)
444                         error = copyout(sa, uap->name, sa_len);
445                 if (error == 0) {
446                         error = copyout(&sa_len, uap->anamelen,
447                             sizeof(*uap->anamelen));
448                 }
449                 if (sa)
450                         FREE(sa, M_SONAME);
451         } else {
452                 get_mplock();
453                 error = kern_accept(uap->s, fflags, NULL, 0,
454                                     &uap->sysmsg_iresult);
455                 rel_mplock();
456         }
457         return (error);
458 }
459
460
461 /*
462  * Returns TRUE if predicate satisfied.
463  */
464 static boolean_t
465 soconnected_predicate(struct netmsg_so_notify *msg)
466 {
467         struct socket *so = msg->base.nm_so;
468
469         /* check predicate */
470         if (!(so->so_state & SS_ISCONNECTING) || so->so_error != 0) {
471                 msg->base.lmsg.ms_error = so->so_error;
472                 return (TRUE);
473         }
474
475         return (FALSE);
476 }
477
478 int
479 kern_connect(int s, int fflags, struct sockaddr *sa)
480 {
481         struct thread *td = curthread;
482         struct proc *p = td->td_proc;
483         struct file *fp;
484         struct socket *so;
485         int error, interrupted = 0;
486
487         error = holdsock(p->p_fd, s, &fp);
488         if (error)
489                 return (error);
490         so = (struct socket *)fp->f_data;
491
492         if (fflags & O_FBLOCKING)
493                 /* fflags &= ~FNONBLOCK; */;
494         else if (fflags & O_FNONBLOCKING)
495                 fflags |= FNONBLOCK;
496         else
497                 fflags = fp->f_flag;
498
499         if (so->so_state & SS_ISCONNECTING) {
500                 error = EALREADY;
501                 goto done;
502         }
503         error = soconnect(so, sa, td);
504         if (error)
505                 goto bad;
506         if ((fflags & FNONBLOCK) && (so->so_state & SS_ISCONNECTING)) {
507                 error = EINPROGRESS;
508                 goto done;
509         }
510         if ((so->so_state & SS_ISCONNECTING) && so->so_error == 0) {
511                 struct netmsg_so_notify msg;
512
513                 netmsg_init_abortable(&msg.base, so,
514                                       &curthread->td_msgport,
515                                       0,
516                                       netmsg_so_notify,
517                                       netmsg_so_notify_doabort);
518                 msg.nm_predicate = soconnected_predicate;
519                 msg.nm_etype = NM_REVENT;
520                 error = lwkt_domsg(so->so_port, &msg.base.lmsg, PCATCH);
521                 if (error == EINTR || error == ERESTART)
522                         interrupted = 1;
523         }
524         if (error == 0) {
525                 error = so->so_error;
526                 so->so_error = 0;
527         }
528 bad:
529         if (!interrupted)
530                 soclrstate(so, SS_ISCONNECTING);
531         if (error == ERESTART)
532                 error = EINTR;
533 done:
534         fdrop(fp);
535         return (error);
536 }
537
538 /*
539  * connect_args(int s, caddr_t name, int namelen)
540  *
541  * MPALMOSTSAFE
542  */
543 int
544 sys_connect(struct connect_args *uap)
545 {
546         struct sockaddr *sa;
547         int error;
548
549         error = getsockaddr(&sa, uap->name, uap->namelen);
550         if (error)
551                 return (error);
552         get_mplock();
553         error = kern_connect(uap->s, 0, sa);
554         rel_mplock();
555         FREE(sa, M_SONAME);
556
557         return (error);
558 }
559
560 /*
561  * connect_args(int s, int fflags, caddr_t name, int namelen)
562  *
563  * MPALMOSTSAFE
564  */
565 int
566 sys_extconnect(struct extconnect_args *uap)
567 {
568         struct sockaddr *sa;
569         int error;
570         int fflags = uap->flags & O_FMASK;
571
572         error = getsockaddr(&sa, uap->name, uap->namelen);
573         if (error)
574                 return (error);
575         get_mplock();
576         error = kern_connect(uap->s, fflags, sa);
577         rel_mplock();
578         FREE(sa, M_SONAME);
579
580         return (error);
581 }
582
583 int
584 kern_socketpair(int domain, int type, int protocol, int *sv)
585 {
586         struct thread *td = curthread;
587         struct filedesc *fdp;
588         struct file *fp1, *fp2;
589         struct socket *so1, *so2;
590         int fd1, fd2, error;
591
592         fdp = td->td_proc->p_fd;
593         error = socreate(domain, &so1, type, protocol, td);
594         if (error)
595                 return (error);
596         error = socreate(domain, &so2, type, protocol, td);
597         if (error)
598                 goto free1;
599         error = falloc(td->td_lwp, &fp1, &fd1);
600         if (error)
601                 goto free2;
602         sv[0] = fd1;
603         fp1->f_data = so1;
604         error = falloc(td->td_lwp, &fp2, &fd2);
605         if (error)
606                 goto free3;
607         fp2->f_data = so2;
608         sv[1] = fd2;
609         error = soconnect2(so1, so2);
610         if (error)
611                 goto free4;
612         if (type == SOCK_DGRAM) {
613                 /*
614                  * Datagram socket connection is asymmetric.
615                  */
616                  error = soconnect2(so2, so1);
617                  if (error)
618                         goto free4;
619         }
620         fp1->f_type = fp2->f_type = DTYPE_SOCKET;
621         fp1->f_flag = fp2->f_flag = FREAD|FWRITE;
622         fp1->f_ops = fp2->f_ops = &socketops;
623         fsetfd(fdp, fp1, fd1);
624         fsetfd(fdp, fp2, fd2);
625         fdrop(fp1);
626         fdrop(fp2);
627         return (error);
628 free4:
629         fsetfd(fdp, NULL, fd2);
630         fdrop(fp2);
631 free3:
632         fsetfd(fdp, NULL, fd1);
633         fdrop(fp1);
634 free2:
635         (void)soclose(so2, 0);
636 free1:
637         (void)soclose(so1, 0);
638         return (error);
639 }
640
641 /*
642  * socketpair(int domain, int type, int protocol, int *rsv)
643  *
644  * MPALMOSTSAFE
645  */
646 int
647 sys_socketpair(struct socketpair_args *uap)
648 {
649         int error, sockv[2];
650
651         get_mplock();
652         error = kern_socketpair(uap->domain, uap->type, uap->protocol, sockv);
653         rel_mplock();
654
655         if (error == 0)
656                 error = copyout(sockv, uap->rsv, sizeof(sockv));
657         return (error);
658 }
659
660 int
661 kern_sendmsg(int s, struct sockaddr *sa, struct uio *auio,
662              struct mbuf *control, int flags, size_t *res)
663 {
664         struct thread *td = curthread;
665         struct lwp *lp = td->td_lwp;
666         struct proc *p = td->td_proc;
667         struct file *fp;
668         size_t len;
669         int error;
670         struct socket *so;
671 #ifdef KTRACE
672         struct iovec *ktriov = NULL;
673         struct uio ktruio;
674 #endif
675
676         error = holdsock(p->p_fd, s, &fp);
677         if (error)
678                 return (error);
679 #ifdef KTRACE
680         if (KTRPOINT(td, KTR_GENIO)) {
681                 int iovlen = auio->uio_iovcnt * sizeof (struct iovec);
682
683                 MALLOC(ktriov, struct iovec *, iovlen, M_TEMP, M_WAITOK);
684                 bcopy((caddr_t)auio->uio_iov, (caddr_t)ktriov, iovlen);
685                 ktruio = *auio;
686         }
687 #endif
688         len = auio->uio_resid;
689         so = (struct socket *)fp->f_data;
690         if ((flags & (MSG_FNONBLOCKING|MSG_FBLOCKING)) == 0) {
691                 if (fp->f_flag & FNONBLOCK)
692                         flags |= MSG_FNONBLOCKING;
693         }
694         error = so_pru_sosend(so, sa, auio, NULL, control, flags, td);
695         if (error) {
696                 if (auio->uio_resid != len && (error == ERESTART ||
697                     error == EINTR || error == EWOULDBLOCK))
698                         error = 0;
699                 if (error == EPIPE)
700                         lwpsignal(p, lp, SIGPIPE);
701         }
702 #ifdef KTRACE
703         if (ktriov != NULL) {
704                 if (error == 0) {
705                         ktruio.uio_iov = ktriov;
706                         ktruio.uio_resid = len - auio->uio_resid;
707                         ktrgenio(lp, s, UIO_WRITE, &ktruio, error);
708                 }
709                 FREE(ktriov, M_TEMP);
710         }
711 #endif
712         if (error == 0)
713                 *res  = len - auio->uio_resid;
714         fdrop(fp);
715         return (error);
716 }
717
718 /*
719  * sendto_args(int s, caddr_t buf, size_t len, int flags, caddr_t to, int tolen)
720  *
721  * MPALMOSTSAFE
722  */
723 int
724 sys_sendto(struct sendto_args *uap)
725 {
726         struct thread *td = curthread;
727         struct uio auio;
728         struct iovec aiov;
729         struct sockaddr *sa = NULL;
730         int error;
731
732         if (uap->to) {
733                 error = getsockaddr(&sa, uap->to, uap->tolen);
734                 if (error)
735                         return (error);
736         }
737         aiov.iov_base = uap->buf;
738         aiov.iov_len = uap->len;
739         auio.uio_iov = &aiov;
740         auio.uio_iovcnt = 1;
741         auio.uio_offset = 0;
742         auio.uio_resid = uap->len;
743         auio.uio_segflg = UIO_USERSPACE;
744         auio.uio_rw = UIO_WRITE;
745         auio.uio_td = td;
746
747         get_mplock();
748         error = kern_sendmsg(uap->s, sa, &auio, NULL, uap->flags,
749                              &uap->sysmsg_szresult);
750         rel_mplock();
751
752         if (sa)
753                 FREE(sa, M_SONAME);
754         return (error);
755 }
756
757 /*
758  * sendmsg_args(int s, caddr_t msg, int flags)
759  *
760  * MPALMOSTSAFE
761  */
762 int
763 sys_sendmsg(struct sendmsg_args *uap)
764 {
765         struct thread *td = curthread;
766         struct msghdr msg;
767         struct uio auio;
768         struct iovec aiov[UIO_SMALLIOV], *iov = NULL;
769         struct sockaddr *sa = NULL;
770         struct mbuf *control = NULL;
771         int error;
772
773         error = copyin(uap->msg, (caddr_t)&msg, sizeof(msg));
774         if (error)
775                 return (error);
776
777         /*
778          * Conditionally copyin msg.msg_name.
779          */
780         if (msg.msg_name) {
781                 error = getsockaddr(&sa, msg.msg_name, msg.msg_namelen);
782                 if (error)
783                         return (error);
784         }
785
786         /*
787          * Populate auio.
788          */
789         error = iovec_copyin(msg.msg_iov, &iov, aiov, msg.msg_iovlen,
790                              &auio.uio_resid);
791         if (error)
792                 goto cleanup2;
793         auio.uio_iov = iov;
794         auio.uio_iovcnt = msg.msg_iovlen;
795         auio.uio_offset = 0;
796         auio.uio_segflg = UIO_USERSPACE;
797         auio.uio_rw = UIO_WRITE;
798         auio.uio_td = td;
799
800         /*
801          * Conditionally copyin msg.msg_control.
802          */
803         if (msg.msg_control) {
804                 if (msg.msg_controllen < sizeof(struct cmsghdr) ||
805                     msg.msg_controllen > MLEN) {
806                         error = EINVAL;
807                         goto cleanup;
808                 }
809                 control = m_get(MB_WAIT, MT_CONTROL);
810                 if (control == NULL) {
811                         error = ENOBUFS;
812                         goto cleanup;
813                 }
814                 control->m_len = msg.msg_controllen;
815                 error = copyin(msg.msg_control, mtod(control, caddr_t),
816                                msg.msg_controllen);
817                 if (error) {
818                         m_free(control);
819                         goto cleanup;
820                 }
821         }
822
823         get_mplock();
824         error = kern_sendmsg(uap->s, sa, &auio, control, uap->flags,
825                              &uap->sysmsg_szresult);
826         rel_mplock();
827
828 cleanup:
829         iovec_free(&iov, aiov);
830 cleanup2:
831         if (sa)
832                 FREE(sa, M_SONAME);
833         return (error);
834 }
835
836 /*
837  * kern_recvmsg() takes a handle to sa and control.  If the handle is non-
838  * null, it returns a dynamically allocated struct sockaddr and an mbuf.
839  * Don't forget to FREE() and m_free() these if they are returned.
840  */
841 int
842 kern_recvmsg(int s, struct sockaddr **sa, struct uio *auio,
843              struct mbuf **control, int *flags, size_t *res)
844 {
845         struct thread *td = curthread;
846         struct proc *p = td->td_proc;
847         struct file *fp;
848         size_t len;
849         int error;
850         int lflags;
851         struct socket *so;
852 #ifdef KTRACE
853         struct iovec *ktriov = NULL;
854         struct uio ktruio;
855 #endif
856
857         error = holdsock(p->p_fd, s, &fp);
858         if (error)
859                 return (error);
860 #ifdef KTRACE
861         if (KTRPOINT(td, KTR_GENIO)) {
862                 int iovlen = auio->uio_iovcnt * sizeof (struct iovec);
863
864                 MALLOC(ktriov, struct iovec *, iovlen, M_TEMP, M_WAITOK);
865                 bcopy(auio->uio_iov, ktriov, iovlen);
866                 ktruio = *auio;
867         }
868 #endif
869         len = auio->uio_resid;
870         so = (struct socket *)fp->f_data;
871
872         if (flags == NULL || (*flags & (MSG_FNONBLOCKING|MSG_FBLOCKING)) == 0) {
873                 if (fp->f_flag & FNONBLOCK) {
874                         if (flags) {
875                                 *flags |= MSG_FNONBLOCKING;
876                         } else {
877                                 lflags = MSG_FNONBLOCKING;
878                                 flags = &lflags;
879                         }
880                 }
881         }
882
883         error = so_pru_soreceive(so, sa, auio, NULL, control, flags);
884         if (error) {
885                 if (auio->uio_resid != len && (error == ERESTART ||
886                     error == EINTR || error == EWOULDBLOCK))
887                         error = 0;
888         }
889 #ifdef KTRACE
890         if (ktriov != NULL) {
891                 if (error == 0) {
892                         ktruio.uio_iov = ktriov;
893                         ktruio.uio_resid = len - auio->uio_resid;
894                         ktrgenio(td->td_lwp, s, UIO_READ, &ktruio, error);
895                 }
896                 FREE(ktriov, M_TEMP);
897         }
898 #endif
899         if (error == 0)
900                 *res = len - auio->uio_resid;
901         fdrop(fp);
902         return (error);
903 }
904
905 /*
906  * recvfrom_args(int s, caddr_t buf, size_t len, int flags, 
907  *                      caddr_t from, int *fromlenaddr)
908  *
909  * MPALMOSTSAFE
910  */
911 int
912 sys_recvfrom(struct recvfrom_args *uap)
913 {
914         struct thread *td = curthread;
915         struct uio auio;
916         struct iovec aiov;
917         struct sockaddr *sa = NULL;
918         int error, fromlen;
919
920         if (uap->from && uap->fromlenaddr) {
921                 error = copyin(uap->fromlenaddr, &fromlen, sizeof(fromlen));
922                 if (error)
923                         return (error);
924                 if (fromlen < 0)
925                         return (EINVAL);
926         } else {
927                 fromlen = 0;
928         }
929         aiov.iov_base = uap->buf;
930         aiov.iov_len = uap->len;
931         auio.uio_iov = &aiov;
932         auio.uio_iovcnt = 1;
933         auio.uio_offset = 0;
934         auio.uio_resid = uap->len;
935         auio.uio_segflg = UIO_USERSPACE;
936         auio.uio_rw = UIO_READ;
937         auio.uio_td = td;
938
939         get_mplock();
940         error = kern_recvmsg(uap->s, uap->from ? &sa : NULL, &auio, NULL,
941                              &uap->flags, &uap->sysmsg_szresult);
942         rel_mplock();
943
944         if (error == 0 && uap->from) {
945                 /* note: sa may still be NULL */
946                 if (sa) {
947                         fromlen = MIN(fromlen, sa->sa_len);
948                         error = copyout(sa, uap->from, fromlen);
949                 } else {
950                         fromlen = 0;
951                 }
952                 if (error == 0) {
953                         error = copyout(&fromlen, uap->fromlenaddr,
954                                         sizeof(fromlen));
955                 }
956         }
957         if (sa)
958                 FREE(sa, M_SONAME);
959
960         return (error);
961 }
962
963 /*
964  * recvmsg_args(int s, struct msghdr *msg, int flags)
965  *
966  * MPALMOSTSAFE
967  */
968 int
969 sys_recvmsg(struct recvmsg_args *uap)
970 {
971         struct thread *td = curthread;
972         struct msghdr msg;
973         struct uio auio;
974         struct iovec aiov[UIO_SMALLIOV], *iov = NULL;
975         struct mbuf *m, *control = NULL;
976         struct sockaddr *sa = NULL;
977         caddr_t ctlbuf;
978         socklen_t *ufromlenp, *ucontrollenp;
979         int error, fromlen, controllen, len, flags, *uflagsp;
980
981         /*
982          * This copyin handles everything except the iovec.
983          */
984         error = copyin(uap->msg, &msg, sizeof(msg));
985         if (error)
986                 return (error);
987
988         if (msg.msg_name && msg.msg_namelen < 0)
989                 return (EINVAL);
990         if (msg.msg_control && msg.msg_controllen < 0)
991                 return (EINVAL);
992
993         ufromlenp = (socklen_t *)((caddr_t)uap->msg + offsetof(struct msghdr,
994                     msg_namelen));
995         ucontrollenp = (socklen_t *)((caddr_t)uap->msg + offsetof(struct msghdr,
996                        msg_controllen));
997         uflagsp = (int *)((caddr_t)uap->msg + offsetof(struct msghdr,
998                                                         msg_flags));
999
1000         /*
1001          * Populate auio.
1002          */
1003         error = iovec_copyin(msg.msg_iov, &iov, aiov, msg.msg_iovlen,
1004                              &auio.uio_resid);
1005         if (error)
1006                 return (error);
1007         auio.uio_iov = iov;
1008         auio.uio_iovcnt = msg.msg_iovlen;
1009         auio.uio_offset = 0;
1010         auio.uio_segflg = UIO_USERSPACE;
1011         auio.uio_rw = UIO_READ;
1012         auio.uio_td = td;
1013
1014         flags = uap->flags;
1015
1016         get_mplock();
1017         error = kern_recvmsg(uap->s,
1018                              (msg.msg_name ? &sa : NULL), &auio,
1019                              (msg.msg_control ? &control : NULL), &flags,
1020                              &uap->sysmsg_szresult);
1021         rel_mplock();
1022
1023         /*
1024          * Conditionally copyout the name and populate the namelen field.
1025          */
1026         if (error == 0 && msg.msg_name) {
1027                 /* note: sa may still be NULL */
1028                 if (sa != NULL) {
1029                         fromlen = MIN(msg.msg_namelen, sa->sa_len);
1030                         error = copyout(sa, msg.msg_name, fromlen);
1031                 } else {
1032                         fromlen = 0;
1033                 }
1034                 if (error == 0)
1035                         error = copyout(&fromlen, ufromlenp,
1036                             sizeof(*ufromlenp));
1037         }
1038
1039         /*
1040          * Copyout msg.msg_control and msg.msg_controllen.
1041          */
1042         if (error == 0 && msg.msg_control) {
1043                 len = msg.msg_controllen;
1044                 m = control;
1045                 ctlbuf = (caddr_t)msg.msg_control;
1046
1047                 while(m && len > 0) {
1048                         unsigned int tocopy;
1049
1050                         if (len >= m->m_len) {
1051                                 tocopy = m->m_len;
1052                         } else {
1053                                 msg.msg_flags |= MSG_CTRUNC;
1054                                 tocopy = len;
1055                         }
1056
1057                         error = copyout(mtod(m, caddr_t), ctlbuf, tocopy);
1058                         if (error)
1059                                 goto cleanup;
1060
1061                         ctlbuf += tocopy;
1062                         len -= tocopy;
1063                         m = m->m_next;
1064                 }
1065                 controllen = ctlbuf - (caddr_t)msg.msg_control;
1066                 error = copyout(&controllen, ucontrollenp,
1067                     sizeof(*ucontrollenp));
1068         }
1069
1070         if (error == 0)
1071                 error = copyout(&flags, uflagsp, sizeof(*uflagsp));
1072
1073 cleanup:
1074         if (sa)
1075                 FREE(sa, M_SONAME);
1076         iovec_free(&iov, aiov);
1077         if (control)
1078                 m_freem(control);
1079         return (error);
1080 }
1081
1082 /*
1083  * If sopt->sopt_td == NULL, then sopt->sopt_val is treated as an
1084  * in kernel pointer instead of a userland pointer.  This allows us
1085  * to manipulate socket options in the emulation code.
1086  */
1087 int
1088 kern_setsockopt(int s, struct sockopt *sopt)
1089 {
1090         struct thread *td = curthread;
1091         struct proc *p = td->td_proc;
1092         struct file *fp;
1093         int error;
1094
1095         if (sopt->sopt_val == NULL && sopt->sopt_valsize != 0)
1096                 return (EFAULT);
1097         if (sopt->sopt_val != NULL && sopt->sopt_valsize == 0)
1098                 return (EINVAL);
1099         if (sopt->sopt_valsize < 0)
1100                 return (EINVAL);
1101
1102         error = holdsock(p->p_fd, s, &fp);
1103         if (error)
1104                 return (error);
1105
1106         error = sosetopt((struct socket *)fp->f_data, sopt);
1107         fdrop(fp);
1108         return (error);
1109 }
1110
1111 /*
1112  * setsockopt_args(int s, int level, int name, caddr_t val, int valsize)
1113  *
1114  * MPALMOSTSAFE
1115  */
1116 int
1117 sys_setsockopt(struct setsockopt_args *uap)
1118 {
1119         struct thread *td = curthread;
1120         struct sockopt sopt;
1121         int error;
1122
1123         sopt.sopt_level = uap->level;
1124         sopt.sopt_name = uap->name;
1125         sopt.sopt_valsize = uap->valsize;
1126         sopt.sopt_td = td;
1127         sopt.sopt_val = NULL;
1128
1129         if (sopt.sopt_valsize < 0 || sopt.sopt_valsize > SOMAXOPT_SIZE)
1130                 return (EINVAL);
1131         if (uap->val) {
1132                 sopt.sopt_val = kmalloc(sopt.sopt_valsize, M_TEMP, M_WAITOK);
1133                 error = copyin(uap->val, sopt.sopt_val, sopt.sopt_valsize);
1134                 if (error)
1135                         goto out;
1136         }
1137
1138         get_mplock();
1139         error = kern_setsockopt(uap->s, &sopt);
1140         rel_mplock();
1141 out:
1142         if (uap->val)
1143                 kfree(sopt.sopt_val, M_TEMP);
1144         return(error);
1145 }
1146
1147 /*
1148  * If sopt->sopt_td == NULL, then sopt->sopt_val is treated as an
1149  * in kernel pointer instead of a userland pointer.  This allows us
1150  * to manipulate socket options in the emulation code.
1151  */
1152 int
1153 kern_getsockopt(int s, struct sockopt *sopt)
1154 {
1155         struct thread *td = curthread;
1156         struct proc *p = td->td_proc;
1157         struct file *fp;
1158         int error;
1159
1160         if (sopt->sopt_val == NULL && sopt->sopt_valsize != 0)
1161                 return (EFAULT);
1162         if (sopt->sopt_val != NULL && sopt->sopt_valsize == 0)
1163                 return (EINVAL);
1164         if (sopt->sopt_valsize < 0 || sopt->sopt_valsize > SOMAXOPT_SIZE)
1165                 return (EINVAL);
1166
1167         error = holdsock(p->p_fd, s, &fp);
1168         if (error)
1169                 return (error);
1170
1171         error = sogetopt((struct socket *)fp->f_data, sopt);
1172         fdrop(fp);
1173         return (error);
1174 }
1175
1176 /*
1177  * getsockopt_args(int s, int level, int name, caddr_t val, int *avalsize)
1178  *
1179  * MPALMOSTSAFE
1180  */
1181 int
1182 sys_getsockopt(struct getsockopt_args *uap)
1183 {
1184         struct thread *td = curthread;
1185         struct  sockopt sopt;
1186         int     error, valsize;
1187
1188         if (uap->val) {
1189                 error = copyin(uap->avalsize, &valsize, sizeof(valsize));
1190                 if (error)
1191                         return (error);
1192         } else {
1193                 valsize = 0;
1194         }
1195
1196         sopt.sopt_level = uap->level;
1197         sopt.sopt_name = uap->name;
1198         sopt.sopt_valsize = valsize;
1199         sopt.sopt_td = td;
1200         sopt.sopt_val = NULL;
1201
1202         if (sopt.sopt_valsize < 0 || sopt.sopt_valsize > SOMAXOPT_SIZE)
1203                 return (EINVAL);
1204         if (uap->val) {
1205                 sopt.sopt_val = kmalloc(sopt.sopt_valsize, M_TEMP, M_WAITOK);
1206                 error = copyin(uap->val, sopt.sopt_val, sopt.sopt_valsize);
1207                 if (error)
1208                         goto out;
1209         }
1210
1211         get_mplock();
1212         error = kern_getsockopt(uap->s, &sopt);
1213         rel_mplock();
1214         if (error)
1215                 goto out;
1216         valsize = sopt.sopt_valsize;
1217         error = copyout(&valsize, uap->avalsize, sizeof(valsize));
1218         if (error)
1219                 goto out;
1220         if (uap->val)
1221                 error = copyout(sopt.sopt_val, uap->val, sopt.sopt_valsize);
1222 out:
1223         if (uap->val)
1224                 kfree(sopt.sopt_val, M_TEMP);
1225         return (error);
1226 }
1227
1228 /*
1229  * The second argument to kern_getsockname() is a handle to a struct sockaddr.
1230  * This allows kern_getsockname() to return a pointer to an allocated struct
1231  * sockaddr which must be freed later with FREE().  The caller must
1232  * initialize *name to NULL.
1233  */
1234 int
1235 kern_getsockname(int s, struct sockaddr **name, int *namelen)
1236 {
1237         struct thread *td = curthread;
1238         struct proc *p = td->td_proc;
1239         struct file *fp;
1240         struct socket *so;
1241         struct sockaddr *sa = NULL;
1242         int error;
1243
1244         error = holdsock(p->p_fd, s, &fp);
1245         if (error)
1246                 return (error);
1247         if (*namelen < 0) {
1248                 fdrop(fp);
1249                 return (EINVAL);
1250         }
1251         so = (struct socket *)fp->f_data;
1252         error = so_pru_sockaddr(so, &sa);
1253         if (error == 0) {
1254                 if (sa == NULL) {
1255                         *namelen = 0;
1256                 } else {
1257                         *namelen = MIN(*namelen, sa->sa_len);
1258                         *name = sa;
1259                 }
1260         }
1261
1262         fdrop(fp);
1263         return (error);
1264 }
1265
1266 /*
1267  * getsockname_args(int fdes, caddr_t asa, int *alen)
1268  *
1269  * Get socket name.
1270  *
1271  * MPALMOSTSAFE
1272  */
1273 int
1274 sys_getsockname(struct getsockname_args *uap)
1275 {
1276         struct sockaddr *sa = NULL;
1277         int error, sa_len;
1278
1279         error = copyin(uap->alen, &sa_len, sizeof(sa_len));
1280         if (error)
1281                 return (error);
1282
1283         get_mplock();
1284         error = kern_getsockname(uap->fdes, &sa, &sa_len);
1285         rel_mplock();
1286
1287         if (error == 0)
1288                 error = copyout(sa, uap->asa, sa_len);
1289         if (error == 0)
1290                 error = copyout(&sa_len, uap->alen, sizeof(*uap->alen));
1291         if (sa)
1292                 FREE(sa, M_SONAME);
1293         return (error);
1294 }
1295
1296 /*
1297  * The second argument to kern_getpeername() is a handle to a struct sockaddr.
1298  * This allows kern_getpeername() to return a pointer to an allocated struct
1299  * sockaddr which must be freed later with FREE().  The caller must
1300  * initialize *name to NULL.
1301  */
1302 int
1303 kern_getpeername(int s, struct sockaddr **name, int *namelen)
1304 {
1305         struct thread *td = curthread;
1306         struct proc *p = td->td_proc;
1307         struct file *fp;
1308         struct socket *so;
1309         struct sockaddr *sa = NULL;
1310         int error;
1311
1312         error = holdsock(p->p_fd, s, &fp);
1313         if (error)
1314                 return (error);
1315         if (*namelen < 0) {
1316                 fdrop(fp);
1317                 return (EINVAL);
1318         }
1319         so = (struct socket *)fp->f_data;
1320         if ((so->so_state & (SS_ISCONNECTED|SS_ISCONFIRMING)) == 0) {
1321                 fdrop(fp);
1322                 return (ENOTCONN);
1323         }
1324         error = so_pru_peeraddr(so, &sa);
1325         if (error == 0) {
1326                 if (sa == NULL) {
1327                         *namelen = 0;
1328                 } else {
1329                         *namelen = MIN(*namelen, sa->sa_len);
1330                         *name = sa;
1331                 }
1332         }
1333
1334         fdrop(fp);
1335         return (error);
1336 }
1337
1338 /*
1339  * getpeername_args(int fdes, caddr_t asa, int *alen)
1340  *
1341  * Get name of peer for connected socket.
1342  *
1343  * MPALMOSTSAFE
1344  */
1345 int
1346 sys_getpeername(struct getpeername_args *uap)
1347 {
1348         struct sockaddr *sa = NULL;
1349         int error, sa_len;
1350
1351         error = copyin(uap->alen, &sa_len, sizeof(sa_len));
1352         if (error)
1353                 return (error);
1354
1355         get_mplock();
1356         error = kern_getpeername(uap->fdes, &sa, &sa_len);
1357         rel_mplock();
1358
1359         if (error == 0)
1360                 error = copyout(sa, uap->asa, sa_len);
1361         if (error == 0)
1362                 error = copyout(&sa_len, uap->alen, sizeof(*uap->alen));
1363         if (sa)
1364                 FREE(sa, M_SONAME);
1365         return (error);
1366 }
1367
1368 int
1369 getsockaddr(struct sockaddr **namp, caddr_t uaddr, size_t len)
1370 {
1371         struct sockaddr *sa;
1372         int error;
1373
1374         *namp = NULL;
1375         if (len > SOCK_MAXADDRLEN)
1376                 return ENAMETOOLONG;
1377         if (len < offsetof(struct sockaddr, sa_data[0]))
1378                 return EDOM;
1379         MALLOC(sa, struct sockaddr *, len, M_SONAME, M_WAITOK);
1380         error = copyin(uaddr, sa, len);
1381         if (error) {
1382                 FREE(sa, M_SONAME);
1383         } else {
1384 #if BYTE_ORDER != BIG_ENDIAN
1385                 /*
1386                  * The bind(), connect(), and sendto() syscalls were not
1387                  * versioned for COMPAT_43.  Thus, this check must stay.
1388                  */
1389                 if (sa->sa_family == 0 && sa->sa_len < AF_MAX)
1390                         sa->sa_family = sa->sa_len;
1391 #endif
1392                 sa->sa_len = len;
1393                 *namp = sa;
1394         }
1395         return error;
1396 }
1397
1398 /*
1399  * Detach a mapped page and release resources back to the system.
1400  * We must release our wiring and if the object is ripped out
1401  * from under the vm_page we become responsible for freeing the
1402  * page.  These routines must be MPSAFE.
1403  *
1404  * XXX HACK XXX TEMPORARY UNTIL WE IMPLEMENT EXT MBUF REFERENCE COUNTING
1405  *
1406  * XXX vm_page_*() routines are not MPSAFE yet, the MP lock is required.
1407  */
1408 static void
1409 sf_buf_mfree(void *arg)
1410 {
1411         struct sf_buf *sf = arg;
1412         vm_page_t m;
1413
1414         /*
1415          * XXX vm_page_*() and SFBUF routines not MPSAFE yet.
1416          */
1417         get_mplock();
1418         crit_enter();
1419         m = sf_buf_page(sf);
1420         if (sf_buf_free(sf) == 0) {
1421                 vm_page_unwire(m, 0);
1422                 if (m->wire_count == 0 && m->object == NULL)
1423                         vm_page_try_to_free(m);
1424         }
1425         crit_exit();
1426         rel_mplock();
1427 }
1428
1429 /*
1430  * sendfile(2).
1431  * int sendfile(int fd, int s, off_t offset, size_t nbytes,
1432  *       struct sf_hdtr *hdtr, off_t *sbytes, int flags)
1433  *
1434  * Send a file specified by 'fd' and starting at 'offset' to a socket
1435  * specified by 's'. Send only 'nbytes' of the file or until EOF if
1436  * nbytes == 0. Optionally add a header and/or trailer to the socket
1437  * output. If specified, write the total number of bytes sent into *sbytes.
1438  *
1439  * In FreeBSD kern/uipc_syscalls.c,v 1.103, a bug was fixed that caused
1440  * the headers to count against the remaining bytes to be sent from
1441  * the file descriptor.  We may wish to implement a compatibility syscall
1442  * in the future.
1443  *
1444  * MPALMOSTSAFE
1445  */
1446 int
1447 sys_sendfile(struct sendfile_args *uap)
1448 {
1449         struct thread *td = curthread;
1450         struct proc *p = td->td_proc;
1451         struct file *fp;
1452         struct vnode *vp = NULL;
1453         struct sf_hdtr hdtr;
1454         struct iovec aiov[UIO_SMALLIOV], *iov = NULL;
1455         struct uio auio;
1456         struct mbuf *mheader = NULL;
1457         size_t hbytes = 0;
1458         size_t tbytes;
1459         off_t hdtr_size = 0;
1460         off_t sbytes;
1461         int error;
1462
1463         KKASSERT(p);
1464
1465         /*
1466          * Do argument checking. Must be a regular file in, stream
1467          * type and connected socket out, positive offset.
1468          */
1469         fp = holdfp(p->p_fd, uap->fd, FREAD);
1470         if (fp == NULL) {
1471                 return (EBADF);
1472         }
1473         if (fp->f_type != DTYPE_VNODE) {
1474                 fdrop(fp);
1475                 return (EINVAL);
1476         }
1477         get_mplock();
1478         vp = (struct vnode *)fp->f_data;
1479         vref(vp);
1480         fdrop(fp);
1481
1482         /*
1483          * If specified, get the pointer to the sf_hdtr struct for
1484          * any headers/trailers.
1485          */
1486         if (uap->hdtr) {
1487                 error = copyin(uap->hdtr, &hdtr, sizeof(hdtr));
1488                 if (error)
1489                         goto done;
1490                 /*
1491                  * Send any headers.
1492                  */
1493                 if (hdtr.headers) {
1494                         error = iovec_copyin(hdtr.headers, &iov, aiov,
1495                                              hdtr.hdr_cnt, &hbytes);
1496                         if (error)
1497                                 goto done;
1498                         auio.uio_iov = iov;
1499                         auio.uio_iovcnt = hdtr.hdr_cnt;
1500                         auio.uio_offset = 0;
1501                         auio.uio_segflg = UIO_USERSPACE;
1502                         auio.uio_rw = UIO_WRITE;
1503                         auio.uio_td = td;
1504                         auio.uio_resid = hbytes;
1505
1506                         mheader = m_uiomove(&auio);
1507
1508                         iovec_free(&iov, aiov);
1509                         if (mheader == NULL)
1510                                 goto done;
1511                 }
1512         }
1513
1514         error = kern_sendfile(vp, uap->s, uap->offset, uap->nbytes, mheader,
1515                               &sbytes, uap->flags);
1516         if (error)
1517                 goto done;
1518
1519         /*
1520          * Send trailers. Wimp out and use writev(2).
1521          */
1522         if (uap->hdtr != NULL && hdtr.trailers != NULL) {
1523                 error = iovec_copyin(hdtr.trailers, &iov, aiov,
1524                                      hdtr.trl_cnt, &auio.uio_resid);
1525                 if (error)
1526                         goto done;
1527                 auio.uio_iov = iov;
1528                 auio.uio_iovcnt = hdtr.trl_cnt;
1529                 auio.uio_offset = 0;
1530                 auio.uio_segflg = UIO_USERSPACE;
1531                 auio.uio_rw = UIO_WRITE;
1532                 auio.uio_td = td;
1533
1534                 error = kern_sendmsg(uap->s, NULL, &auio, NULL, 0, &tbytes);
1535
1536                 iovec_free(&iov, aiov);
1537                 if (error)
1538                         goto done;
1539                 hdtr_size += tbytes;    /* trailer bytes successfully sent */
1540         }
1541
1542 done:
1543         if (vp)
1544                 vrele(vp);
1545         rel_mplock();
1546         if (uap->sbytes != NULL) {
1547                 sbytes += hdtr_size;
1548                 copyout(&sbytes, uap->sbytes, sizeof(off_t));
1549         }
1550         return (error);
1551 }
1552
1553 int
1554 kern_sendfile(struct vnode *vp, int sfd, off_t offset, size_t nbytes,
1555     struct mbuf *mheader, off_t *sbytes, int flags)
1556 {
1557         struct thread *td = curthread;
1558         struct proc *p = td->td_proc;
1559         struct vm_object *obj;
1560         struct socket *so;
1561         struct file *fp;
1562         struct mbuf *m;
1563         struct sf_buf *sf;
1564         struct vm_page *pg;
1565         off_t off, xfsize;
1566         off_t hbytes = 0;
1567         int error = 0;
1568
1569         if (vp->v_type != VREG) {
1570                 error = EINVAL;
1571                 goto done0;
1572         }
1573         if ((obj = vp->v_object) == NULL) {
1574                 error = EINVAL;
1575                 goto done0;
1576         }
1577         error = holdsock(p->p_fd, sfd, &fp);
1578         if (error)
1579                 goto done0;
1580         so = (struct socket *)fp->f_data;
1581         if (so->so_type != SOCK_STREAM) {
1582                 error = EINVAL;
1583                 goto done;
1584         }
1585         if ((so->so_state & SS_ISCONNECTED) == 0) {
1586                 error = ENOTCONN;
1587                 goto done;
1588         }
1589         if (offset < 0) {
1590                 error = EINVAL;
1591                 goto done;
1592         }
1593
1594         *sbytes = 0;
1595         /*
1596          * Protect against multiple writers to the socket.
1597          */
1598         ssb_lock(&so->so_snd, M_WAITOK);
1599
1600         /*
1601          * Loop through the pages in the file, starting with the requested
1602          * offset. Get a file page (do I/O if necessary), map the file page
1603          * into an sf_buf, attach an mbuf header to the sf_buf, and queue
1604          * it on the socket.
1605          */
1606         for (off = offset; ; off += xfsize, *sbytes += xfsize + hbytes) {
1607                 vm_pindex_t pindex;
1608                 vm_offset_t pgoff;
1609
1610                 pindex = OFF_TO_IDX(off);
1611 retry_lookup:
1612                 /*
1613                  * Calculate the amount to transfer. Not to exceed a page,
1614                  * the EOF, or the passed in nbytes.
1615                  */
1616                 xfsize = vp->v_filesize - off;
1617                 if (xfsize > PAGE_SIZE)
1618                         xfsize = PAGE_SIZE;
1619                 pgoff = (vm_offset_t)(off & PAGE_MASK);
1620                 if (PAGE_SIZE - pgoff < xfsize)
1621                         xfsize = PAGE_SIZE - pgoff;
1622                 if (nbytes && xfsize > (nbytes - *sbytes))
1623                         xfsize = nbytes - *sbytes;
1624                 if (xfsize <= 0)
1625                         break;
1626                 /*
1627                  * Optimize the non-blocking case by looking at the socket space
1628                  * before going to the extra work of constituting the sf_buf.
1629                  */
1630                 if ((fp->f_flag & FNONBLOCK) && ssb_space(&so->so_snd) <= 0) {
1631                         if (so->so_state & SS_CANTSENDMORE)
1632                                 error = EPIPE;
1633                         else
1634                                 error = EAGAIN;
1635                         ssb_unlock(&so->so_snd);
1636                         goto done;
1637                 }
1638                 /*
1639                  * Attempt to look up the page.  
1640                  *
1641                  *      Allocate if not found, wait and loop if busy, then
1642                  *      wire the page.  critical section protection is
1643                  *      required to maintain the object association (an
1644                  *      interrupt can free the page) through to the
1645                  *      vm_page_wire() call.
1646                  */
1647                 crit_enter();
1648                 lwkt_gettoken(&vm_token);
1649                 pg = vm_page_lookup(obj, pindex);
1650                 if (pg == NULL) {
1651                         pg = vm_page_alloc(obj, pindex, VM_ALLOC_NORMAL);
1652                         if (pg == NULL) {
1653                                 vm_wait(0);
1654                                 lwkt_reltoken(&vm_token);
1655                                 crit_exit();
1656                                 goto retry_lookup;
1657                         }
1658                         vm_page_wakeup(pg);
1659                 } else if (vm_page_sleep_busy(pg, TRUE, "sfpbsy")) {
1660                         lwkt_reltoken(&vm_token);
1661                         crit_exit();
1662                         goto retry_lookup;
1663                 }
1664                 vm_page_wire(pg);
1665                 lwkt_reltoken(&vm_token);
1666                 crit_exit();
1667
1668                 /*
1669                  * If page is not valid for what we need, initiate I/O
1670                  */
1671
1672                 if (!pg->valid || !vm_page_is_valid(pg, pgoff, xfsize)) {
1673                         struct uio auio;
1674                         struct iovec aiov;
1675                         int bsize;
1676
1677                         /*
1678                          * Ensure that our page is still around when the I/O 
1679                          * completes.
1680                          */
1681                         vm_page_io_start(pg);
1682
1683                         /*
1684                          * Get the page from backing store.
1685                          */
1686                         bsize = vp->v_mount->mnt_stat.f_iosize;
1687                         auio.uio_iov = &aiov;
1688                         auio.uio_iovcnt = 1;
1689                         aiov.iov_base = 0;
1690                         aiov.iov_len = MAXBSIZE;
1691                         auio.uio_resid = MAXBSIZE;
1692                         auio.uio_offset = trunc_page(off);
1693                         auio.uio_segflg = UIO_NOCOPY;
1694                         auio.uio_rw = UIO_READ;
1695                         auio.uio_td = td;
1696                         vn_lock(vp, LK_SHARED | LK_RETRY);
1697                         error = VOP_READ(vp, &auio, 
1698                                     IO_VMIO | ((MAXBSIZE / bsize) << 16),
1699                                     td->td_ucred);
1700                         vn_unlock(vp);
1701                         vm_page_flag_clear(pg, PG_ZERO);
1702                         vm_page_io_finish(pg);
1703                         if (error) {
1704                                 crit_enter();
1705                                 vm_page_unwire(pg, 0);
1706                                 vm_page_try_to_free(pg);
1707                                 crit_exit();
1708                                 ssb_unlock(&so->so_snd);
1709                                 goto done;
1710                         }
1711                 }
1712
1713
1714                 /*
1715                  * Get a sendfile buf. We usually wait as long as necessary,
1716                  * but this wait can be interrupted.
1717                  */
1718                 if ((sf = sf_buf_alloc(pg)) == NULL) {
1719                         crit_enter();
1720                         vm_page_unwire(pg, 0);
1721                         vm_page_try_to_free(pg);
1722                         crit_exit();
1723                         ssb_unlock(&so->so_snd);
1724                         error = EINTR;
1725                         goto done;
1726                 }
1727
1728                 /*
1729                  * Get an mbuf header and set it up as having external storage.
1730                  */
1731                 MGETHDR(m, MB_WAIT, MT_DATA);
1732                 if (m == NULL) {
1733                         error = ENOBUFS;
1734                         sf_buf_free(sf);
1735                         ssb_unlock(&so->so_snd);
1736                         goto done;
1737                 }
1738
1739                 m->m_ext.ext_free = sf_buf_mfree;
1740                 m->m_ext.ext_ref = sf_buf_ref;
1741                 m->m_ext.ext_arg = sf;
1742                 m->m_ext.ext_buf = (void *)sf_buf_kva(sf);
1743                 m->m_ext.ext_size = PAGE_SIZE;
1744                 m->m_data = (char *)sf_buf_kva(sf) + pgoff;
1745                 m->m_flags |= M_EXT;
1746                 m->m_pkthdr.len = m->m_len = xfsize;
1747                 KKASSERT((m->m_flags & (M_EXT_CLUSTER)) == 0);
1748
1749                 if (mheader != NULL) {
1750                         hbytes = mheader->m_pkthdr.len;
1751                         mheader->m_pkthdr.len += m->m_pkthdr.len;
1752                         m_cat(mheader, m);
1753                         m = mheader;
1754                         mheader = NULL;
1755                 } else
1756                         hbytes = 0;
1757
1758                 /*
1759                  * Add the buffer to the socket buffer chain.
1760                  */
1761                 crit_enter();
1762 retry_space:
1763                 /*
1764                  * Make sure that the socket is still able to take more data.
1765                  * CANTSENDMORE being true usually means that the connection
1766                  * was closed. so_error is true when an error was sensed after
1767                  * a previous send.
1768                  * The state is checked after the page mapping and buffer
1769                  * allocation above since those operations may block and make
1770                  * any socket checks stale. From this point forward, nothing
1771                  * blocks before the pru_send (or more accurately, any blocking
1772                  * results in a loop back to here to re-check).
1773                  */
1774                 if ((so->so_state & SS_CANTSENDMORE) || so->so_error) {
1775                         if (so->so_state & SS_CANTSENDMORE) {
1776                                 error = EPIPE;
1777                         } else {
1778                                 error = so->so_error;
1779                                 so->so_error = 0;
1780                         }
1781                         m_freem(m);
1782                         ssb_unlock(&so->so_snd);
1783                         crit_exit();
1784                         goto done;
1785                 }
1786                 /*
1787                  * Wait for socket space to become available. We do this just
1788                  * after checking the connection state above in order to avoid
1789                  * a race condition with ssb_wait().
1790                  */
1791                 if (ssb_space(&so->so_snd) < so->so_snd.ssb_lowat) {
1792                         if (fp->f_flag & FNONBLOCK) {
1793                                 m_freem(m);
1794                                 ssb_unlock(&so->so_snd);
1795                                 crit_exit();
1796                                 error = EAGAIN;
1797                                 goto done;
1798                         }
1799                         error = ssb_wait(&so->so_snd);
1800                         /*
1801                          * An error from ssb_wait usually indicates that we've
1802                          * been interrupted by a signal. If we've sent anything
1803                          * then return bytes sent, otherwise return the error.
1804                          */
1805                         if (error) {
1806                                 m_freem(m);
1807                                 ssb_unlock(&so->so_snd);
1808                                 crit_exit();
1809                                 goto done;
1810                         }
1811                         goto retry_space;
1812                 }
1813                 error = so_pru_send(so, 0, m, NULL, NULL, td);
1814                 crit_exit();
1815                 if (error) {
1816                         ssb_unlock(&so->so_snd);
1817                         goto done;
1818                 }
1819         }
1820         if (mheader != NULL) {
1821                 *sbytes += mheader->m_pkthdr.len;
1822                 error = so_pru_send(so, 0, mheader, NULL, NULL, td);
1823                 mheader = NULL;
1824         }
1825         ssb_unlock(&so->so_snd);
1826
1827 done:
1828         fdrop(fp);
1829 done0:
1830         if (mheader != NULL)
1831                 m_freem(mheader);
1832         return (error);
1833 }
1834
1835 /*
1836  * MPALMOSTSAFE
1837  */
1838 int
1839 sys_sctp_peeloff(struct sctp_peeloff_args *uap)
1840 {
1841 #ifdef SCTP
1842         struct thread *td = curthread;
1843         struct filedesc *fdp = td->td_proc->p_fd;
1844         struct file *lfp = NULL;
1845         struct file *nfp = NULL;
1846         int error;
1847         struct socket *head, *so;
1848         caddr_t assoc_id;
1849         int fd;
1850         short fflag;            /* type must match fp->f_flag */
1851
1852         assoc_id = uap->name;
1853         error = holdsock(td->td_proc->p_fd, uap->sd, &lfp);
1854         if (error)
1855                 return (error);
1856
1857         get_mplock();
1858         crit_enter();
1859         head = (struct socket *)lfp->f_data;
1860         error = sctp_can_peel_off(head, assoc_id);
1861         if (error) {
1862                 crit_exit();
1863                 goto done;
1864         }
1865         /*
1866          * At this point we know we do have a assoc to pull
1867          * we proceed to get the fd setup. This may block
1868          * but that is ok.
1869          */
1870
1871         fflag = lfp->f_flag;
1872         error = falloc(td->td_lwp, &nfp, &fd);
1873         if (error) {
1874                 /*
1875                  * Probably ran out of file descriptors. Put the
1876                  * unaccepted connection back onto the queue and
1877                  * do another wakeup so some other process might
1878                  * have a chance at it.
1879                  */
1880                 crit_exit();
1881                 goto done;
1882         }
1883         uap->sysmsg_iresult = fd;
1884
1885         so = sctp_get_peeloff(head, assoc_id, &error);
1886         if (so == NULL) {
1887                 /*
1888                  * Either someone else peeled it off OR
1889                  * we can't get a socket.
1890                  */
1891                 goto noconnection;
1892         }
1893         soreference(so);                        /* reference needed */
1894         soclrstate(so, SS_NOFDREF | SS_COMP);   /* when clearing NOFDREF */
1895         so->so_head = NULL;
1896         if (head->so_sigio != NULL)
1897                 fsetown(fgetown(head->so_sigio), &so->so_sigio);
1898
1899         nfp->f_type = DTYPE_SOCKET;
1900         nfp->f_flag = fflag;
1901         nfp->f_ops = &socketops;
1902         nfp->f_data = so;
1903
1904 noconnection:
1905         /*
1906          * Assign the file pointer to the reserved descriptor, or clear
1907          * the reserved descriptor if an error occured.
1908          */
1909         if (error)
1910                 fsetfd(fdp, NULL, fd);
1911         else
1912                 fsetfd(fdp, nfp, fd);
1913         crit_exit();
1914         /*
1915          * Release explicitly held references before returning.
1916          */
1917 done:
1918         rel_mplock();
1919         if (nfp != NULL)
1920                 fdrop(nfp);
1921         fdrop(lfp);
1922         return (error);
1923 #else /* SCTP */
1924         return(EOPNOTSUPP);
1925 #endif /* SCTP */
1926 }