igb: Split RX and TX serializer
[dragonfly.git] / sys / dev / netif / igb / if_igb.h
1 /*
2  * Copyright (c) 2001-2011, Intel Corporation 
3  * All rights reserved.
4  * 
5  * Redistribution and use in source and binary forms, with or without 
6  * modification, are permitted provided that the following conditions are met:
7  * 
8  *  1. Redistributions of source code must retain the above copyright notice, 
9  *     this list of conditions and the following disclaimer.
10  * 
11  *  2. Redistributions in binary form must reproduce the above copyright 
12  *     notice, this list of conditions and the following disclaimer in the 
13  *     documentation and/or other materials provided with the distribution.
14  * 
15  *  3. Neither the name of the Intel Corporation nor the names of its 
16  *     contributors may be used to endorse or promote products derived from 
17  *     this software without specific prior written permission.
18  * 
19  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
20  * AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE 
21  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE 
22  * ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT OWNER OR CONTRIBUTORS BE 
23  * LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR 
24  * CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF 
25  * SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS 
26  * INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN 
27  * CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) 
28  * ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
29  * POSSIBILITY OF SUCH DAMAGE.
30  */
31
32 #ifndef _IF_IGB_H_
33 #define _IF_IGB_H_
34
35 /* Tunables */
36
37 /*
38  * IGB_TXD: Maximum number of Transmit Descriptors
39  *
40  *   This value is the number of transmit descriptors allocated by the driver.
41  *   Increasing this value allows the driver to queue more transmits. Each
42  *   descriptor is 16 bytes.
43  *   Since TDLEN should be multiple of 128bytes, the number of transmit
44  *   desscriptors should meet the following condition.
45  *      (num_tx_desc * sizeof(struct e1000_tx_desc)) % 128 == 0
46  */
47 #define IGB_MIN_TXD             256
48 #define IGB_DEFAULT_TXD         1024
49 #define IGB_MAX_TXD             4096
50
51 /*
52  * IGB_RXD: Maximum number of Transmit Descriptors
53  *
54  *   This value is the number of receive descriptors allocated by the driver.
55  *   Increasing this value allows the driver to buffer more incoming packets.
56  *   Each descriptor is 16 bytes.  A receive buffer is also allocated for each
57  *   descriptor. The maximum MTU size is 16110.
58  *   Since TDLEN should be multiple of 128bytes, the number of transmit
59  *   desscriptors should meet the following condition.
60  *      (num_tx_desc * sizeof(struct e1000_tx_desc)) % 128 == 0
61  */
62 #define IGB_MIN_RXD             256
63 #define IGB_DEFAULT_RXD         1024
64 #define IGB_MAX_RXD             4096
65
66 /*
67  * This parameter controls when the driver calls the routine to reclaim
68  * transmit descriptors. Cleaning earlier seems a win.
69  */
70 #define IGB_TX_CLEANUP_THRESHOLD(sc)    ((sc)->num_tx_desc / 2)
71
72 /*
73  * This parameter controls whether or not autonegotation is enabled.
74  *              0 - Disable autonegotiation
75  *              1 - Enable  autonegotiation
76  */
77 #define DO_AUTO_NEG             1
78
79 /*
80  * This parameter control whether or not the driver will wait for
81  * autonegotiation to complete.
82  *              1 - Wait for autonegotiation to complete
83  *              0 - Don't wait for autonegotiation to complete
84  */
85 #define WAIT_FOR_AUTO_NEG_DEFAULT       0
86
87 /* Tunables -- End */
88
89 #define AUTONEG_ADV_DEFAULT     (ADVERTISE_10_HALF | ADVERTISE_10_FULL | \
90                                  ADVERTISE_100_HALF | ADVERTISE_100_FULL | \
91                                  ADVERTISE_1000_FULL)
92
93 #define AUTO_ALL_MODES                  0
94
95 /* PHY master/slave setting */
96 #define IGB_MASTER_SLAVE                e1000_ms_hw_default
97
98 /*
99  * Micellaneous constants
100  */
101 #define IGB_VENDOR_ID                   0x8086
102
103 #define IGB_JUMBO_PBA                   0x00000028
104 #define IGB_DEFAULT_PBA                 0x00000030
105 #define IGB_SMARTSPEED_DOWNSHIFT        3
106 #define IGB_SMARTSPEED_MAX              15
107 #define IGB_MAX_LOOP                    10
108
109 #define IGB_RX_PTHRESH                  (hw->mac.type <= e1000_82576 ? 16 : 8)
110 #define IGB_RX_HTHRESH                  8
111 #define IGB_RX_WTHRESH                  1
112
113 #define IGB_TX_PTHRESH                  8
114 #define IGB_TX_HTHRESH                  1
115 #define IGB_TX_WTHRESH                  16
116
117 #define MAX_NUM_MULTICAST_ADDRESSES     128
118 #define IGB_FC_PAUSE_TIME               0x0680
119
120 #define IGB_INTR_RATE                   10000
121
122 /*
123  * TDBA/RDBA should be aligned on 16 byte boundary. But TDLEN/RDLEN should be
124  * multiple of 128 bytes. So we align TDBA/RDBA on 128 byte boundary. This will
125  * also optimize cache line size effect. H/W supports up to cache line size 128.
126  */
127 #define IGB_DBA_ALIGN                   128
128
129 /* PCI Config defines */
130 #define IGB_MSIX_BAR                    3
131
132 #define IGB_MAX_SCATTER                 64
133 #define IGB_VFTA_SIZE                   128
134 #define IGB_TSO_SIZE                    (65535 + \
135                                          sizeof(struct ether_vlan_header))
136 #define IGB_TSO_SEG_SIZE                4096    /* Max dma segment size */
137 #define IGB_HDR_BUF                     128
138 #define IGB_PKTTYPE_MASK                0x0000FFF0
139
140 #define IGB_CSUM_FEATURES               (CSUM_IP | CSUM_TCP | CSUM_UDP)
141 #define IGB_IPVHL_SIZE                  1 /* sizeof(ip.ip_vhl) */
142 #define IGB_TXCSUM_MINHL                (ETHER_HDR_LEN + EVL_ENCAPLEN + \
143                                          IGB_IPVHL_SIZE)
144
145 /* One for TX csum offloading desc, the other 2 are reserved */
146 #define IGB_TX_RESERVED                 3
147
148 /* Large enough for 64K TSO */
149 #define IGB_TX_SPARE                    32
150
151 #define IGB_TX_OACTIVE_MAX              64
152
153 /* main + 16x RX + 16x TX */
154 #define IGB_NSERIALIZE                  33
155
156 struct igb_softc;
157
158 /*
159  * Bus dma information structure
160  */
161 struct igb_dma {
162         bus_addr_t              dma_paddr;
163         void                    *dma_vaddr;
164         bus_dma_tag_t           dma_tag;
165         bus_dmamap_t            dma_map;
166 };
167
168 /*
169  * Transmit ring: one per queue
170  */
171 struct igb_tx_ring {
172         struct lwkt_serialize   tx_serialize;
173         struct igb_softc        *sc;
174         uint32_t                me;
175         struct igb_dma          txdma;
176         bus_dma_tag_t           tx_hdr_dtag;
177         bus_dmamap_t            tx_hdr_dmap;
178         bus_addr_t              tx_hdr_paddr;
179         struct e1000_tx_desc    *tx_base;
180         int                     num_tx_desc;
181         uint32_t                next_avail_desc;
182         uint32_t                next_to_clean;
183         uint32_t                *tx_hdr;
184         int                     tx_avail;
185         struct igb_tx_buf       *tx_buf;
186         bus_dma_tag_t           tx_tag;
187         int                     tx_nsegs;
188         int                     spare_desc;
189         int                     oact_lo_desc;
190         int                     oact_hi_desc;
191         int                     intr_nsegs;
192         int                     tx_intr_bit;
193         uint32_t                tx_intr_mask;
194
195         u_long                  no_desc_avail;
196         u_long                  tx_packets;
197
198         u_long                  ctx_try_pullup;
199         u_long                  ctx_drop1;
200         u_long                  ctx_drop2;
201         u_long                  ctx_pullup1;
202         u_long                  ctx_pullup1_failed;
203         u_long                  ctx_pullup2;
204         u_long                  ctx_pullup2_failed;
205 };
206
207 /*
208  * Receive ring: one per queue
209  */
210 struct igb_rx_ring {
211         struct lwkt_serialize   rx_serialize;
212         struct igb_softc        *sc;
213         uint32_t                me;
214         struct igb_dma          rxdma;
215         union e1000_adv_rx_desc *rx_base;
216         boolean_t               discard;
217         int                     num_rx_desc;
218         uint32_t                next_to_check;
219         struct igb_rx_buf       *rx_buf;
220         bus_dma_tag_t           rx_tag;
221         bus_dmamap_t            rx_sparemap;
222         int                     rx_intr_bit;
223         uint32_t                rx_intr_mask;
224
225         /*
226          * First/last mbuf pointers, for
227          * collecting multisegment RX packets.
228          */
229         struct mbuf             *fmp;
230         struct mbuf             *lmp;
231
232         /* Soft stats */
233         u_long                  rx_packets;
234 };
235
236 struct igb_softc {
237         struct arpcom           arpcom;
238         struct e1000_hw         hw;
239
240         struct e1000_osdep      osdep;
241         device_t                dev;
242         uint32_t                flags;
243 #define IGB_FLAG_SHARED_INTR    0x1
244 #define IGB_FLAG_HAS_MGMT       0x2
245
246         bus_dma_tag_t           parent_tag;
247
248         int                     mem_rid;
249         struct resource         *mem_res;
250
251         struct ifmedia          media;
252         struct callout          timer;
253
254         int                     intr_type;
255         int                     intr_rid;
256         struct resource         *intr_res;
257         void                    *intr_tag;
258
259         int                     if_flags;
260         int                     max_frame_size;
261         int                     pause_frames;
262         uint16_t                vf_ifp; /* a VF interface */
263
264         /* Management and WOL features */
265         int                     wol;
266
267         /* Info about the interface */
268         uint8_t                 link_active;
269         uint16_t                link_speed;
270         uint16_t                link_duplex;
271         uint32_t                smartspeed;
272         uint32_t                dma_coalesce;
273
274         /* Multicast array pointer */
275         uint8_t                 *mta;
276
277         int                     serialize_cnt;
278         int                     tx_serialize;
279         int                     rx_serialize;
280         struct lwkt_serialize   *serializes[IGB_NSERIALIZE];
281         struct lwkt_serialize   main_serialize;
282
283         int                     intr_rate;
284         uint32_t                intr_mask;
285
286         /*
287          * Transmit rings
288          */
289         int                     tx_ring_cnt;
290         struct igb_tx_ring      *tx_rings;
291
292         /*
293          * Receive rings
294          */
295         int                     rx_ring_cnt;
296         struct igb_rx_ring      *rx_rings;
297
298         /* Misc stats maintained by the driver */
299         u_long                  dropped_pkts;
300         u_long                  mbuf_defrag_failed;
301         u_long                  no_tx_dma_setup;
302         u_long                  watchdog_events;
303         u_long                  rx_overruns;
304         u_long                  device_control;
305         u_long                  rx_control;
306         u_long                  int_mask;
307         u_long                  eint_mask;
308         u_long                  packet_buf_alloc_rx;
309         u_long                  packet_buf_alloc_tx;
310
311         /* sysctl tree glue */
312         struct sysctl_ctx_list  sysctl_ctx;
313         struct sysctl_oid       *sysctl_tree;
314
315         void                    *stats;
316 };
317
318 struct igb_tx_buf {
319         struct mbuf     *m_head;
320         bus_dmamap_t    map;            /* bus_dma map for packet */
321 };
322
323 struct igb_rx_buf {
324         struct mbuf     *m_head;
325         bus_dmamap_t    map;    /* bus_dma map for packet */
326         bus_addr_t      paddr;
327 };
328
329 #define UPDATE_VF_REG(reg, last, cur)           \
330 {                                               \
331         uint32_t new = E1000_READ_REG(hw, reg); \
332         if (new < last)                         \
333                 cur += 0x100000000LL;           \
334         last = new;                             \
335         cur &= 0xFFFFFFFF00000000LL;            \
336         cur |= new;                             \
337 }
338
339 #define IGB_IS_OACTIVE(txr)     ((txr)->tx_avail < (txr)->oact_lo_desc)
340 #define IGB_IS_NOT_OACTIVE(txr) ((txr)->tx_avail >= (txr)->oact_hi_desc)
341
342 #endif /* _IF_IGB_H_ */