Merge from vendor branch GDB:
[dragonfly.git] / sys / sys / mbuf.h
1 /*
2  * Copyright (c) 2004 The DragonFly Project.  All rights reserved.
3  *
4  * Copyright (c) 1982, 1986, 1988, 1993
5  *      The Regents of the University of California.  All rights reserved.
6  *
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  * 1. Redistributions of source code must retain the above copyright
11  *    notice, this list of conditions and the following disclaimer.
12  * 2. Redistributions in binary form must reproduce the above copyright
13  *    notice, this list of conditions and the following disclaimer in the
14  *    documentation and/or other materials provided with the distribution.
15  * 3. All advertising materials mentioning features or use of this software
16  *    must display the following acknowledgement:
17  *      This product includes software developed by the University of
18  *      California, Berkeley and its contributors.
19  * 4. Neither the name of the University nor the names of its contributors
20  *    may be used to endorse or promote products derived from this software
21  *    without specific prior written permission.
22  *
23  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
24  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
25  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
26  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
27  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
28  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
29  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
30  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
31  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
32  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
33  * SUCH DAMAGE.
34  *
35  *      @(#)mbuf.h      8.5 (Berkeley) 2/19/95
36  * $FreeBSD: src/sys/sys/mbuf.h,v 1.44.2.17 2003/04/15 06:15:02 silby Exp $
37  * $DragonFly: src/sys/sys/mbuf.h,v 1.45 2007/12/19 12:13:17 sephe Exp $
38  */
39
40 #ifndef _SYS_MBUF_H_
41 #define _SYS_MBUF_H_
42
43 #if defined(_KERNEL) || defined(_KERNEL_STRUCTURES)
44
45 #ifndef _SYS_TYPES_H_
46 #include <sys/types.h>
47 #endif
48 #ifndef _SYS_PARAM_H_
49 #include <sys/param.h>
50 #endif
51 #ifndef _SYS_QUEUE_H_
52 #include <sys/queue.h>
53 #endif
54 #ifndef _NET_NETISR_H_
55 #include <net/netisr.h>
56 #endif
57
58 /*
59  * Mbufs are of a single size, MSIZE (machine/param.h), which
60  * includes overhead.  An mbuf may add a single "mbuf cluster" of size
61  * MCLBYTES (also in machine/param.h), which has no additional overhead
62  * and is used instead of the internal data area; this is done when
63  * at least MINCLSIZE of data must be stored.
64  */
65 #define MLEN            (MSIZE - sizeof(struct m_hdr))  /* normal data len */
66 #define MHLEN           (MLEN - sizeof(struct pkthdr))  /* data len w/pkthdr */
67 #define MINCLSIZE       (MHLEN + 1)     /* smallest amount to put in cluster */
68 #define M_MAXCOMPRESS   (MHLEN / 2)     /* max amount to copy for compression */
69
70 /*
71  * Macros for type conversion:
72  * mtod(m, t)   -- Convert mbuf pointer to data pointer of correct type.
73  * mtocl(x) -   convert pointer within cluster to cluster index #
74  * cltom(x) -   convert cluster # to ptr to beginning of cluster
75  */
76 #define mtod(m, t)      ((t)((m)->m_data))
77
78 /*
79  * Header present at the beginning of every mbuf.
80  */
81 struct m_hdr {
82         struct  mbuf *mh_next;          /* next buffer in chain */
83         struct  mbuf *mh_nextpkt;       /* next chain in queue/record */
84         caddr_t mh_data;                /* location of data */
85         int     mh_len;                 /* amount of data in this mbuf */
86         int     mh_flags;               /* flags; see below */
87         short   mh_type;                /* type of data in this mbuf */
88         short   mh_pad;                 /* padding */
89         struct netmsg_packet mh_netmsg; /* hardware->proto stack msg */
90 };
91
92 /*
93  * Packet tag structure (see below for details).
94  */
95 struct m_tag {
96         SLIST_ENTRY(m_tag)      m_tag_link;     /* List of packet tags */
97         u_int16_t               m_tag_id;       /* Tag ID */
98         u_int16_t               m_tag_len;      /* Length of data */
99         u_int32_t               m_tag_cookie;   /* ABI/Module ID */
100 };
101
102 SLIST_HEAD(packet_tags, m_tag);
103
104 /*
105  * Record/packet header in first mbuf of chain; valid only if M_PKTHDR is set.
106  *
107  * Be careful: The fields have been carefully ordered to avoid hidden padding.
108  *             Keep this in mind, when adding or removing fields!
109  */
110 struct pkthdr {
111         struct  ifnet *rcvif;           /* rcv interface */
112         int     len;                    /* total packet length */
113         struct packet_tags tags;        /* list of packet tags */
114
115         /* variables for ip and tcp reassembly */
116         void    *header;                /* pointer to packet header */
117
118         /* variables for hardware checksum */
119         int     csum_flags;             /* flags regarding checksum */
120         int     csum_data;              /* data field used by csum routines */
121
122         /* firewall flags */
123         uint32_t fw_flags;              /* flags for PF */
124
125         /* variables for PF processing */
126         uint16_t pf_tag;                /* PF tag id */
127         uint8_t pf_routed;              /* PF routing counter */
128
129         /* variables for ALTQ processing */
130         uint8_t ecn_af;                 /* address family for ECN */
131         uint32_t altq_qid;              /* queue id */
132 };
133
134 /*
135  * Description of external storage mapped into mbuf; valid only if M_EXT is set.
136  */
137 struct m_ext {
138         caddr_t ext_buf;                /* start of buffer */
139         void    (*ext_free)(void *);
140         u_int   ext_size;               /* size of buffer, for ext_free */
141         void    (*ext_ref)(void *);
142         void    *ext_arg;
143 };
144
145 /*
146  * The core of the mbuf object along with some shortcut defines for
147  * practical purposes.
148  */
149 struct mbuf {
150         struct  m_hdr m_hdr;
151         union {
152                 struct {
153                         struct  pkthdr MH_pkthdr;       /* M_PKTHDR set */
154                         union {
155                                 struct  m_ext MH_ext;   /* M_EXT set */
156                                 char    MH_databuf[MHLEN];
157                         } MH_dat;
158                 } MH;
159                 char    M_databuf[MLEN];                /* !M_PKTHDR, !M_EXT */
160         } M_dat;
161 };
162 #define m_next          m_hdr.mh_next
163 #define m_len           m_hdr.mh_len
164 #define m_data          m_hdr.mh_data
165 #define m_type          m_hdr.mh_type
166 #define m_flags         m_hdr.mh_flags
167 #define m_nextpkt       m_hdr.mh_nextpkt
168 #define m_pkthdr        M_dat.MH.MH_pkthdr
169 #define m_ext           M_dat.MH.MH_dat.MH_ext
170 #define m_pktdat        M_dat.MH.MH_dat.MH_databuf
171 #define m_dat           M_dat.M_databuf
172
173 /*
174  * Code that uses m_act should be converted to use m_nextpkt
175  * instead; m_act is historical and deprecated.
176  */
177 #define m_act           m_nextpkt
178
179 /*
180  * mbuf flags.
181  */
182 #define M_EXT           0x0001  /* has associated external storage */
183 #define M_PKTHDR        0x0002  /* start of record */
184 #define M_EOR           0x0004  /* end of record */
185 #define M_PROTO1        0x0008  /* protocol-specific */
186 #define M_PROTO2        0x0010  /* protocol-specific */
187 #define M_PROTO3        0x0020  /* protocol-specific */
188 #define M_PROTO4        0x0040  /* protocol-specific */
189 #define M_PROTO5        0x0080  /* protocol-specific */
190
191 /*
192  * mbuf pkthdr flags (also stored in m_flags).
193  */
194 #define M_BCAST         0x0100  /* send/received as link-level broadcast */
195 #define M_MCAST         0x0200  /* send/received as link-level multicast */
196 #define M_FRAG          0x0400  /* packet is a fragment of a larger packet */
197 #define M_FIRSTFRAG     0x0800  /* packet is first fragment */
198 #define M_LASTFRAG      0x1000  /* packet is last fragment */
199 #define M_CLCACHE       0x2000  /* mbuf allocated from the cluster cache */
200 #define M_EXT_CLUSTER   0x4000  /* standard cluster else special */
201 #define M_PHCACHE       0x8000  /* mbuf allocated from the pkt header cache */
202 #define M_NOTIFICATION  0x10000 /* notification event */
203
204 /*
205  * Flags copied when copying m_pkthdr.
206  */
207 #define M_COPYFLAGS     (M_PKTHDR|M_EOR|M_PROTO1|M_PROTO1|M_PROTO2|M_PROTO3 | \
208                             M_PROTO4|M_PROTO5|M_BCAST|M_MCAST|M_FRAG | \
209                             M_FIRSTFRAG|M_LASTFRAG)
210
211 /*
212  * Flags indicating hw checksum support and sw checksum requirements.
213  */
214 #define CSUM_IP                 0x0001          /* will csum IP */
215 #define CSUM_TCP                0x0002          /* will csum TCP */
216 #define CSUM_UDP                0x0004          /* will csum UDP */
217 #define CSUM_IP_FRAGS           0x0008          /* will csum IP fragments */
218 #define CSUM_FRAGMENT           0x0010          /* will do IP fragmentation */
219
220 #define CSUM_IP_CHECKED         0x0100          /* did csum IP */
221 #define CSUM_IP_VALID           0x0200          /*   ... the csum is valid */
222 #define CSUM_DATA_VALID         0x0400          /* csum_data field is valid */
223 #define CSUM_PSEUDO_HDR         0x0800          /* csum_data has pseudo hdr */
224 #define CSUM_FRAG_NOT_CHECKED   0x1000          /* did _not_ csum fragment
225                                                  * NB: This flag is only used
226                                                  * by IP defragmenter.
227                                                  */
228
229 #define CSUM_DELAY_DATA         (CSUM_TCP | CSUM_UDP)
230 #define CSUM_DELAY_IP           (CSUM_IP)       /* XXX add ipv6 here too? */
231
232 /*
233  * Flags indicating PF processing status
234  */
235 #define FW_MBUF_GENERATED       0x00000001
236 #define PF_MBUF_TAGGED          0x00000002      /* pf_tag field is valid */
237 #define PF_MBUF_ROUTED          0x00000004      /* pf_routed field is valid */
238 #define PF_MBUF_TRANSLATE_LOCALHOST                                     \
239                                 0x00000008
240 #define PF_MBUF_FRAGCACHE       0x00000010
241 #define ALTQ_MBUF_TAGGED        0x00000020      /* altq_qid is valid */
242 #define PF_MBUF_GENERATED       FW_MBUF_GENERATED
243 #define IPFW_MBUF_GENERATED     FW_MBUF_GENERATED
244 #define DUMMYNET_MBUF_TAGGED    0x00000080
245
246 /*
247  * mbuf types.
248  */
249 #define MT_FREE         0       /* should be on free list */
250 #define MT_DATA         1       /* dynamic (data) allocation */
251 #define MT_HEADER       2       /* packet header */
252 #define MT_SONAME       3       /* socket name */
253 #define MT_TAG          4       /* volatile metadata associated to pkts */
254 #define MT_CONTROL      5       /* extra-data protocol message */
255 #define MT_OOBDATA      6       /* expedited data  */
256 #define MT_NTYPES       7       /* number of mbuf types for mbtypes[] */
257
258 /*
259  * General mbuf allocator statistics structure.
260  */
261 struct mbstat {
262         u_long  m_mbufs;        /* mbufs obtained from page pool */
263         u_long  m_clusters;     /* clusters obtained from page pool */
264         u_long  m_spare;        /* spare field */
265         u_long  m_clfree;       /* free clusters */
266         u_long  m_drops;        /* times failed to find space */
267         u_long  m_wait;         /* times waited for space */
268         u_long  m_drain;        /* times drained protocols for space */
269         u_long  m_mcfail;       /* times m_copym failed */
270         u_long  m_mpfail;       /* times m_pullup failed */
271         u_long  m_msize;        /* length of an mbuf */
272         u_long  m_mclbytes;     /* length of an mbuf cluster */
273         u_long  m_minclsize;    /* min length of data to allocate a cluster */
274         u_long  m_mlen;         /* length of data in an mbuf */
275         u_long  m_mhlen;        /* length of data in a header mbuf */
276 };
277
278 /*
279  * Flags specifying how an allocation should be made.
280  */
281
282 #define MB_DONTWAIT     0x4
283 #define MB_TRYWAIT      0x8
284 #define MB_WAIT         MB_TRYWAIT
285
286 /*
287  * Mbuf to Malloc Flag Conversion.
288  */
289 #define MBTOM(how)      ((how) & MB_TRYWAIT ? M_WAITOK : M_NOWAIT)
290
291 /*
292  * These are identifying numbers passed to the m_mballoc_wait function,
293  * allowing us to determine whether the call came from an MGETHDR or
294  * an MGET.
295  */
296 #define MGETHDR_C      1
297 #define MGET_C         2
298
299 /*
300  * mbuf allocation/deallocation macros (YYY deprecated, too big):
301  *
302  *      MGET(struct mbuf *m, int how, int type)
303  * allocates an mbuf and initializes it to contain internal data.
304  *
305  *      MGETHDR(struct mbuf *m, int how, int type)
306  * allocates an mbuf and initializes it to contain a packet header
307  * and internal data.
308  */
309 #define MGET(m, how, type) do {                                         \
310         (m) = m_get((how), (type));                                     \
311 } while (0)
312
313 #define MGETHDR(m, how, type) do {                                      \
314         (m) = m_gethdr((how), (type));                                  \
315 } while (0)
316
317 /*
318  * MCLGET adds such clusters to a normal mbuf.  The flag M_EXT is set upon
319  * success.
320  * Deprecated.  Use m_getcl() or m_getl() instead.
321  */
322 #define MCLGET(m, how) do {                                             \
323         m_mclget((m), (how));                                           \
324 } while (0)
325
326 /*
327  * NB: M_COPY_PKTHDR is deprecated; use either M_MOVE_PKTHDR
328  *     or m_dup_pkthdr.
329  */
330 /*
331  * Move mbuf pkthdr from "from" to "to".
332  * from should have M_PKTHDR set, and to must be empty.
333  * from no longer has a pkthdr after this operation.
334  */
335 #define M_MOVE_PKTHDR(_to, _from)       m_move_pkthdr((_to), (_from))
336
337 /*
338  * Set the m_data pointer of a newly-allocated mbuf (m_get/MGET) to place
339  * an object of the specified size at the end of the mbuf, longword aligned.
340  */
341 #define M_ALIGN(m, len) do {                                            \
342         (m)->m_data += (MLEN - (len)) & ~(sizeof(long) - 1);            \
343 } while (0)
344
345 /*
346  * As above, for mbufs allocated with m_gethdr/MGETHDR
347  * or initialized by M_COPY_PKTHDR.
348  */
349 #define MH_ALIGN(m, len) do {                                           \
350         (m)->m_data += (MHLEN - (len)) & ~(sizeof(long) - 1);           \
351 } while (0)
352
353 /*
354  * Check if we can write to an mbuf.
355  */
356 #define M_EXT_WRITABLE(m)       (m_sharecount(m) == 1)
357 #define M_WRITABLE(m)           (!((m)->m_flags & M_EXT) || M_EXT_WRITABLE(m))
358
359 /*
360  * Check if the supplied mbuf has a packet header, or else panic.
361  */
362 #define M_ASSERTPKTHDR(m)                                               \
363         KASSERT(m != NULL && m->m_flags & M_PKTHDR,                     \
364                 ("%s: invalid mbuf or no mbuf packet header!", __func__))
365
366 /*
367  * Compute the amount of space available before the current start of data.
368  * The M_EXT_WRITABLE() is a temporary, conservative safety measure: the burden
369  * of checking writability of the mbuf data area rests solely with the caller.
370  */
371 #define M_LEADINGSPACE(m)                                               \
372         ((m)->m_flags & M_EXT ?                                         \
373             (M_EXT_WRITABLE(m) ? (m)->m_data - (m)->m_ext.ext_buf : 0): \
374             (m)->m_flags & M_PKTHDR ? (m)->m_data - (m)->m_pktdat :     \
375             (m)->m_data - (m)->m_dat)
376
377 /*
378  * Compute the amount of space available after the end of data in an mbuf.
379  * The M_WRITABLE() is a temporary, conservative safety measure: the burden
380  * of checking writability of the mbuf data area rests solely with the caller.
381  */
382 #define M_TRAILINGSPACE(m)                                              \
383         ((m)->m_flags & M_EXT ?                                         \
384             (M_WRITABLE(m) ? (m)->m_ext.ext_buf + (m)->m_ext.ext_size   \
385                 - ((m)->m_data + (m)->m_len) : 0) :                     \
386             &(m)->m_dat[MLEN] - ((m)->m_data + (m)->m_len))
387
388 /*
389  * Arrange to prepend space of size plen to mbuf m.
390  * If a new mbuf must be allocated, how specifies whether to wait.
391  * If how is MB_DONTWAIT and allocation fails, the original mbuf chain
392  * is freed and m is set to NULL.
393  */
394 #define M_PREPEND(m, plen, how) do {                                    \
395         struct mbuf **_mmp = &(m);                                      \
396         struct mbuf *_mm = *_mmp;                                       \
397         int _mplen = (plen);                                            \
398         int __mhow = (how);                                             \
399                                                                         \
400         if (M_LEADINGSPACE(_mm) >= _mplen) {                            \
401                 _mm->m_data -= _mplen;                                  \
402                 _mm->m_len += _mplen;                                   \
403         } else                                                          \
404                 _mm = m_prepend(_mm, _mplen, __mhow);                   \
405         if (_mm != NULL && _mm->m_flags & M_PKTHDR)                     \
406                 _mm->m_pkthdr.len += _mplen;                            \
407         *_mmp = _mm;                                                    \
408 } while (0)
409
410 /* Length to m_copy to copy all. */
411 #define M_COPYALL       1000000000
412
413 /* Compatibility with 4.3 */
414 #define m_copy(m, o, l) m_copym((m), (o), (l), MB_DONTWAIT)
415
416 #ifdef _KERNEL
417 extern  u_int            m_clalloc_wid; /* mbuf cluster wait count */
418 extern  u_int            m_mballoc_wid; /* mbuf wait count */
419 extern  int              max_linkhdr;   /* largest link-level header */
420 extern  int              max_protohdr;  /* largest protocol header */
421 extern  int              max_hdr;       /* largest link+protocol header */
422 extern  int              max_datalen;   /* MHLEN - max_hdr */
423 extern  int              mbuf_wait;     /* mbuf sleep time */
424 extern  int              nmbclusters;
425 extern  int              nmbufs;
426
427 struct uio;
428
429 void             m_adj(struct mbuf *, int);
430 void             m_cat(struct mbuf *, struct mbuf *);
431 u_int            m_countm(struct mbuf *m, struct mbuf **lastm, u_int *mbcnt);
432 void             m_copyback(struct mbuf *, int, int, caddr_t);
433 void             m_copydata(const struct mbuf *, int, int, caddr_t);
434 struct  mbuf    *m_copym(const struct mbuf *, int, int, int);
435 struct  mbuf    *m_copypacket(struct mbuf *, int);
436 struct  mbuf    *m_defrag(struct mbuf *, int);
437 struct  mbuf    *m_defrag_nofree(struct mbuf *, int);
438 struct  mbuf    *m_devget(char *, int, int, struct ifnet *,
439                   void (*copy)(volatile const void *, volatile void *, size_t));
440 struct  mbuf    *m_dup(struct mbuf *, int);
441 int              m_dup_pkthdr(struct mbuf *, const struct mbuf *, int);
442 struct  mbuf    *m_free(struct mbuf *);
443 void             m_freem(struct mbuf *);
444 struct  mbuf    *m_get(int, int);
445 struct  mbuf    *m_getc(int len, int how, int type);
446 struct  mbuf    *m_getcl(int how, short type, int flags);
447 struct  mbuf    *m_getclr(int, int);
448 struct  mbuf    *m_gethdr(int, int);
449 struct  mbuf    *m_getm(struct mbuf *, int, int, int);
450 struct  mbuf    *m_last(struct mbuf *m);
451 u_int            m_lengthm(struct mbuf *m, struct mbuf **lastm);
452 void             m_move_pkthdr(struct mbuf *, struct mbuf *);
453 struct  mbuf    *m_prepend(struct mbuf *, int, int);
454 void             m_print(const struct mbuf *m);
455 struct  mbuf    *m_pulldown(struct mbuf *, int, int, int *);
456 struct  mbuf    *m_pullup(struct mbuf *, int);
457 struct  mbuf    *m_split(struct mbuf *, int, int);
458 struct  mbuf    *m_uiomove(struct uio *);
459 void            m_mclget(struct mbuf *m, int how);
460 int             m_sharecount(struct mbuf *m);
461 void            m_chtype(struct mbuf *m, int type);
462
463 #ifdef MBUF_DEBUG
464 void            mbuftrackid(struct mbuf *, int);
465 #else
466 #define mbuftrackid(m, id)      /* empty */
467 #endif
468
469 /*
470  * Allocate the right type of mbuf for the desired total length.
471  * The mbuf returned does not necessarily cover the entire requested length.
472  * This function follows mbuf chaining policy of allowing MINCLSIZE
473  * amount of chained mbufs.
474  */
475 static __inline struct mbuf *
476 m_getl(int len, int how, int type, int flags, int *psize)
477 {
478         struct mbuf *m;
479         int size;
480
481         if (len >= MINCLSIZE) {
482                 m = m_getcl(how, type, flags);
483                 size = MCLBYTES;
484         } else if (flags & M_PKTHDR) {
485                 m = m_gethdr(how, type);
486                 size = MHLEN;
487         } else {
488                 m = m_get(how, type);
489                 size = MLEN;
490         }
491         if (psize != NULL)
492                 *psize = size;
493         return (m);
494 }
495
496 /*
497  * Get a single mbuf that covers the requested number of bytes.
498  * This function does not create mbuf chains.  It explicitly marks
499  * places in the code that abuse mbufs for contiguous data buffers.
500  */
501 static __inline struct mbuf *
502 m_getb(int len, int how, int type, int flags)
503 {
504         struct mbuf *m;
505         int mbufsize = (flags & M_PKTHDR) ? MHLEN : MLEN;
506
507         if (len > mbufsize)
508                 m = m_getcl(how, type, flags);
509         else if (flags & M_PKTHDR)
510                 m = m_gethdr(how, type);
511         else
512                 m = m_get(how, type);
513         return (m);
514 }
515
516 /*
517  * Packets may have annotations attached by affixing a list
518  * of "packet tags" to the pkthdr structure.  Packet tags are
519  * dynamically allocated semi-opaque data structures that have
520  * a fixed header (struct m_tag) that specifies the size of the
521  * memory block and a <cookie,type> pair that identifies it.
522  * The cookie is a 32-bit unique unsigned value used to identify
523  * a module or ABI.  By convention this value is chose as the
524  * date+time that the module is created, expressed as the number of
525  * seconds since the epoch (e.g. using date -u +'%s').  The type value
526  * is an ABI/module-specific value that identifies a particular annotation
527  * and is private to the module.  For compatibility with systems
528  * like openbsd that define packet tags w/o an ABI/module cookie,
529  * the value PACKET_ABI_COMPAT is used to implement m_tag_get and
530  * m_tag_find compatibility shim functions and several tag types are
531  * defined below.  Users that do not require compatibility should use
532  * a private cookie value so that packet tag-related definitions
533  * can be maintained privately.
534  *
535  * Note that the packet tag returned by m_tag_alloc has the default
536  * memory alignment implemented by kmalloc.  To reference private data
537  * one can use a construct like:
538  *
539  *      struct m_tag *mtag = m_tag_alloc(...);
540  *      struct foo *p = m_tag_data(mtag);
541  *
542  * if the alignment of struct m_tag is sufficient for referencing members
543  * of struct foo.  Otherwise it is necessary to embed struct m_tag within
544  * the private data structure to insure proper alignment; e.g.
545  *
546  *      struct foo {
547  *              struct m_tag    tag;
548  *              ...
549  *      };
550  *      struct foo *p = (struct foo *)m_tag_alloc(...);
551  *      struct m_tag *mtag = &p->tag;
552  */
553
554 #define PACKET_TAG_NONE                         0  /* Nadda */
555
556 /* Packet tag for use with PACKET_ABI_COMPAT */
557 #define PACKET_TAG_IPSEC_IN_DONE                1  /* IPsec applied, in */
558 /* struct tdb_indent */
559 #define PACKET_TAG_IPSEC_OUT_DONE               2  /* IPsec applied, out */
560 /* struct tdb_indent */
561 #define PACKET_TAG_IPSEC_IN_CRYPTO_DONE         3  /* NIC IPsec crypto done */
562 /* struct tdb_indent, never added */
563 #define PACKET_TAG_IPSEC_OUT_CRYPTO_NEEDED      4  /* NIC IPsec crypto req'ed */
564 /* struct tdb_indent, never added */
565 #define PACKET_TAG_IPSEC_PENDING_TDB            5  /* Reminder to do IPsec */
566 /* struct tdb_indent, never added */
567 #define PACKET_TAG_ENCAP                        6 /* Encap.  processing */
568 /* struct ifnet *, the GIF interface */
569 #define PACKET_TAG_IPSEC_HISTORY                7 /* IPSEC history */
570 /* struct ipsec_history */
571 #define PACKET_TAG_IPV6_INPUT                   8 /* IPV6 input processing */
572 /* struct ip6aux */
573 #define PACKET_TAG_IPFW_DIVERT                  9 /* divert info */
574 /* uint16_t */
575 #define PACKET_TAG_DUMMYNET                     15 /* dummynet info */
576 /* struct dn_pkt */
577 #define PACKET_TAG_CARP                         28 /* CARP info */
578
579 /*
580  * As a temporary and low impact solution to replace the even uglier
581  * approach used so far in some parts of the network stack (which relies
582  * on global variables), packet tag-like annotations are stored in MT_TAG
583  * mbufs (or lookalikes) prepended to the actual mbuf chain.
584  *
585  *      m_type  = MT_TAG
586  *      m_flags = m_tag_id
587  *      m_next  = next buffer in chain.
588  *
589  * BE VERY CAREFUL not to pass these blocks to the mbuf handling routines.
590  */
591 #define _m_tag_id       m_hdr.mh_flags
592
593 /* Packet tags used in the FreeBSD network stack */
594 #define PACKET_TAG_IPFORWARD                    18 /* ipforward info */
595 /* struct sockaddr_in * as m_data */
596
597 /* Packet tag routines */
598 struct  m_tag   *m_tag_alloc(u_int32_t, int, int, int);
599 void             m_tag_free(struct m_tag *);
600 void             m_tag_prepend(struct mbuf *, struct m_tag *);
601 void             m_tag_unlink(struct mbuf *, struct m_tag *);
602 void             m_tag_delete(struct mbuf *, struct m_tag *);
603 void             m_tag_delete_chain(struct mbuf *);
604 struct  m_tag   *m_tag_locate(struct mbuf *, u_int32_t, int, struct m_tag *);
605 struct  m_tag   *m_tag_copy(struct m_tag *, int);
606 int              m_tag_copy_chain(struct mbuf *, const struct mbuf *, int);
607 void             m_tag_init(struct mbuf *);
608 struct  m_tag   *m_tag_first(struct mbuf *);
609 struct  m_tag   *m_tag_next(struct mbuf *, struct m_tag *);
610
611 /* these are for openbsd compatibility */
612 #define MTAG_ABI_COMPAT         0               /* compatibility ABI */
613
614 static __inline void *
615 m_tag_data(struct m_tag *tag)
616 {
617         return ((void *)(tag + 1));
618 }
619
620 static __inline struct m_tag *
621 m_tag_get(int type, int length, int wait)
622 {
623         return m_tag_alloc(MTAG_ABI_COMPAT, type, length, wait);
624 }
625
626 static __inline struct m_tag *
627 m_tag_find(struct mbuf *m, int type, struct m_tag *start)
628 {
629         return m_tag_locate(m, MTAG_ABI_COMPAT, type, start);
630 }
631
632 #endif  /* _KERNEL */
633
634 #endif  /* _KERNEL || _KERNEL_STRUCTURES */
635 #endif  /* !_SYS_MBUF_H_ */