if: Move if_start_nmsg into ifaltq; prepare multiple TX queue support
[dragonfly.git] / sys / net / altq / if_altq.h
1 /*      $KAME: if_altq.h,v 1.11 2003/07/10 12:07:50 kjc Exp $   */
2
3 /*
4  * Copyright (C) 1997-2003
5  *      Sony Computer Science Laboratories Inc.  All rights reserved.
6  *
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  * 1. Redistributions of source code must retain the above copyright
11  *    notice, this list of conditions and the following disclaimer.
12  * 2. Redistributions in binary form must reproduce the above copyright
13  *    notice, this list of conditions and the following disclaimer in the
14  *    documentation and/or other materials provided with the distribution.
15  *
16  * THIS SOFTWARE IS PROVIDED BY SONY CSL AND CONTRIBUTORS ``AS IS'' AND
17  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
18  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
19  * ARE DISCLAIMED.  IN NO EVENT SHALL SONY CSL OR CONTRIBUTORS BE LIABLE
20  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
21  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
22  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
23  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
24  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
25  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
26  * SUCH DAMAGE.
27  */
28 #ifndef _NET_ALTQ_IF_ALTQ_H_
29 #define _NET_ALTQ_IF_ALTQ_H_
30
31 #ifndef _SYS_SERIALIZE_H_
32 #include <sys/serialize.h>
33 #endif
34
35 struct altq_pktattr;
36
37 struct ifaltq;
38
39 struct ifaltq_stage {
40         struct ifaltq   *ifqs_altq;
41         int             ifqs_cnt;
42         int             ifqs_len;
43         uint32_t        ifqs_flags;
44         TAILQ_ENTRY(ifaltq_stage) ifqs_link;
45 } __cachealign;
46
47 #define IFQ_STAGE_FLAG_QUED     0x1
48 #define IFQ_STAGE_FLAG_SCHED    0x2
49
50 /*
51  * Structure defining a queue for a network interface.
52  */
53 struct  ifaltq {
54         /* fields compatible with struct ifqueue */
55         struct  mbuf *ifq_head;
56         struct  mbuf *ifq_tail;
57         int     ifq_len;
58         int     ifq_maxlen;
59         int     ifq_drops;
60
61         /* alternate queueing related fields */
62         int     altq_type;              /* discipline type */
63         int     altq_flags;             /* flags (e.g. ready, in-use) */
64         void    *altq_disc;             /* for discipline-specific use */
65         struct  ifnet *altq_ifp;        /* back pointer to interface */
66
67         int     (*altq_enqueue)(struct ifaltq *, struct mbuf *,
68                                 struct altq_pktattr *);
69         struct  mbuf *(*altq_dequeue)(struct ifaltq *, struct mbuf *, int);
70         int     (*altq_request)(struct ifaltq *, int, void *);
71
72         /* classifier fields */
73         void    *altq_clfier;           /* classifier-specific use */
74         void    *(*altq_classify)(struct ifaltq *, struct mbuf *,
75                                   struct altq_pktattr *);
76
77         /* token bucket regulator */
78         struct  tb_regulator *altq_tbr;
79
80         struct  lwkt_serialize altq_lock;
81         struct  mbuf *altq_prepended;   /* mbuf dequeued, but not yet xmit */
82         int     altq_started;           /* ifnet.if_start interlock */
83         int     altq_hw_oactive;        /* hw too busy, protected by driver */
84         int     altq_cpuid;             /* owner cpu */
85         struct ifaltq_stage *altq_stage;
86         struct netmsg_base *altq_ifstart_nmsg;
87                                         /* percpu msgs to sched if_start */
88 };
89
90 #define ALTQ_ASSERT_LOCKED(ifq) ASSERT_SERIALIZED(&(ifq)->altq_lock)
91 #define ALTQ_LOCK_INIT(ifq)     lwkt_serialize_init(&(ifq)->altq_lock)
92 #define ALTQ_LOCK(ifq)          lwkt_serialize_adaptive_enter(&(ifq)->altq_lock)
93 #define ALTQ_UNLOCK(ifq)        lwkt_serialize_exit(&(ifq)->altq_lock)
94
95 #ifdef _KERNEL
96
97 /*
98  * packet attributes used by queueing disciplines.
99  * pattr_class is a discipline-dependent scheduling class that is
100  * set by a classifier.
101  * pattr_hdr and pattr_af may be used by a discipline to access
102  * the header within a mbuf.  (e.g. ECN needs to update the CE bit)
103  * note that pattr_hdr could be stale after m_pullup, though link
104  * layer output routines usually don't use m_pullup.  link-level
105  * compression also invalidates these fields.  thus, pattr_hdr needs
106  * to be verified when a discipline touches the header.
107  */
108 struct altq_pktattr {
109         void    *pattr_class;           /* sched class set by classifier */
110         int     pattr_af;               /* address family */
111         caddr_t pattr_hdr;              /* saved header position in mbuf */
112 };
113
114 /*
115  * a token-bucket regulator limits the rate that a network driver can
116  * dequeue packets from the output queue.
117  * modern cards are able to buffer a large amount of packets and dequeue
118  * too many packets at a time.  this bursty dequeue behavior makes it
119  * impossible to schedule packets by queueing disciplines.
120  * a token-bucket is used to control the burst size in a device
121  * independent manner.
122  */
123 struct tb_regulator {
124         int64_t         tbr_rate;       /* (scaled) token bucket rate */
125         int64_t         tbr_depth;      /* (scaled) token bucket depth */
126
127         int64_t         tbr_token;      /* (scaled) current token */
128         int64_t         tbr_filluptime; /* (scaled) time to fill up bucket */
129         uint64_t        tbr_last;       /* last time token was updated */
130
131         int             tbr_lastop;     /* last dequeue operation type
132                                            needed for poll-and-dequeue */
133 };
134
135 /* if_altqflags */
136 #define ALTQF_READY      0x01   /* driver supports alternate queueing */
137 #define ALTQF_ENABLED    0x02   /* altq is in use */
138 #define ALTQF_CLASSIFY   0x04   /* classify packets */
139 #define ALTQF_DRIVER1    0x40   /* driver specific */
140
141 /* if_altqflags set internally only: */
142 #define ALTQF_CANTCHANGE        (ALTQF_READY)
143
144 /* altq_dequeue 2nd arg */
145 #define ALTDQ_REMOVE            1       /* dequeue mbuf from the queue */
146 #define ALTDQ_POLL              2       /* don't dequeue mbuf from the queue */
147
148 /* altq request types (currently only purge is defined) */
149 #define ALTRQ_PURGE             1       /* purge all packets */
150
151 int     altq_attach(struct ifaltq *, int, void *,
152                     int (*)(struct ifaltq *, struct mbuf *, struct altq_pktattr *),
153                     struct mbuf *(*)(struct ifaltq *, struct mbuf *, int),
154                     int (*)(struct ifaltq *, int, void *),
155                     void *, void *(*)(struct ifaltq *, struct mbuf *,
156                                       struct altq_pktattr *));
157 int     altq_detach(struct ifaltq *);
158 int     altq_enable(struct ifaltq *);
159 int     altq_disable(struct ifaltq *);
160 struct mbuf *tbr_dequeue(struct ifaltq *, struct mbuf *, int);
161 extern int      (*altq_input)(struct mbuf *, int);
162 #endif /* _KERNEL */
163
164 #endif /* _NET_ALTQ_IF_ALTQ_H_ */