kernel - lwbuf - Remove dead code
[dragonfly.git] / sys / cpu / i386 / misc / lwbuf.c
1 /*
2  * Copyright (c) 2010 by The DragonFly Project and Samuel J. Greear.
3  * All rights reserved.
4  *
5  * This code is derived from software contributed to The DragonFly Project
6  * by Samuel J. Greear <sjg@thesjg.com>
7  *
8  * Redistribution and use in source and binary forms, with or without
9  * modification, are permitted provided that the following conditions
10  * are met:
11  *
12  * 1. Redistributions of source code must retain the above copyright
13  *    notice, this list of conditions and the following disclaimer.
14  * 2. Redistributions in binary form must reproduce the above copyright
15  *    notice, this list of conditions and the following disclaimer in
16  *    the documentation and/or other materials provided with the
17  *    distribution.
18  * 3. Neither the name of The DragonFly Project nor the names of its
19  *    contributors may be used to endorse or promote products derived
20  *    from this software without specific, prior written permission.
21  *
22  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
23  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
24  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS
25  * FOR A PARTICULAR PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE
26  * COPYRIGHT HOLDERS OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT,
27  * INCIDENTAL, SPECIAL, EXEMPLARY OR CONSEQUENTIAL DAMAGES (INCLUDING,
28  * BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
29  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
30  * AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
31  * OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT
32  * OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
33  * SUCH DAMAGE.
34  */
35
36 #include <sys/types.h>
37 #include <sys/kernel.h>
38 #include <sys/objcache.h>
39 #include <sys/sysctl.h>
40 #include <sys/param.h>
41 #include <sys/serialize.h>
42 #include <sys/systm.h>
43 #include <sys/proc.h>
44 #include <sys/queue.h>
45 #include <vm/vm.h>
46 #include <vm/pmap.h>
47 #include <vm/vm_extern.h>
48 #include <vm/vm_kern.h>
49 #include <vm/vm_page.h>
50 #include <cpu/lwbuf.h>
51 #include <machine/globaldata.h>
52 #include <machine/atomic.h>
53 #include <machine/param.h>
54
55 #include <sys/mplock2.h>
56
57 static void lwbuf_init(void *);
58 SYSINIT(sock_lwb, SI_BOOT2_MACHDEP, SI_ORDER_ANY, lwbuf_init, NULL);
59
60 static struct objcache *lwbuf_cache;
61
62 MALLOC_DEFINE(M_LWBUF, "lwbuf", "Lightweight buffers");
63 struct objcache_malloc_args lwbuf_malloc_args =
64             { sizeof(struct lwbuf), M_LWBUF };
65
66 /* Number of pages of KVA to allocate at boot per cpu (1MB) */
67 static int lwbuf_reserve_pages = 256;
68 static int lwbuf_count;
69 static int lwbuf_kva_bytes;
70
71 SYSCTL_INT(_kern_ipc, OID_AUTO, lwbuf_reserve, CTLFLAG_RD,
72            &lwbuf_reserve_pages, 0,
73            "Number of pre-allocated lightweight buffers");
74 SYSCTL_INT(_kern_ipc, OID_AUTO, lwbuf_count, CTLFLAG_RD,
75            &lwbuf_count, 0,
76            "Currently allocated lightweight buffers");
77 SYSCTL_INT(_kern_ipc, OID_AUTO, lwbuf_kva_bytes, CTLFLAG_RD,
78            &lwbuf_kva_bytes, 0,
79            "Currently used KVA for lightweight buffers");
80
81 static boolean_t
82 lwbuf_cache_ctor(void *obj, void *pdata, int ocflags)
83 {
84     struct lwbuf *lwb = (struct lwbuf *)obj;
85
86     lwb->m = NULL;
87     lwb->cpumask = 0;
88     get_mplock();
89     lwb->kva = kmem_alloc_nofault(&kernel_map, PAGE_SIZE, PAGE_SIZE);
90     rel_mplock();
91     if (lwb->kva == 0)
92         return (FALSE);
93     atomic_add_int(&lwbuf_kva_bytes, PAGE_SIZE);
94
95     return (TRUE);
96 }
97
98 static void
99 lwbuf_cache_dtor(void *obj, void *pdata)
100 {
101     struct lwbuf *lwb = (struct lwbuf *)obj;
102
103     KKASSERT(lwb->kva != 0);
104     get_mplock();
105     kmem_free(&kernel_map, lwb->kva, PAGE_SIZE);
106     rel_mplock();
107     lwb->kva = 0;
108     atomic_add_int(&lwbuf_kva_bytes, -PAGE_SIZE);
109 }
110
111 static void
112 lwbuf_init(void *arg)
113 {
114     lwbuf_cache = objcache_create("lwbuf", 0, 0,
115         lwbuf_cache_ctor, lwbuf_cache_dtor, NULL,
116         objcache_malloc_alloc, objcache_malloc_free,
117         &lwbuf_malloc_args);
118 }
119
120 struct lwbuf *
121 lwbuf_alloc(vm_page_t m)
122 {
123     struct mdglobaldata *gd = mdcpu;
124     struct lwbuf *lwb;
125
126     lwb = objcache_get(lwbuf_cache, M_WAITOK);
127     KKASSERT(lwb->m == NULL);
128     lwb->m = m;
129     lwb->cpumask = gd->mi.gd_cpumask;
130     pmap_kenter_quick(lwb->kva, m->phys_addr);
131     atomic_add_int(&lwbuf_count, 1);
132
133     return (lwb);
134 }
135
136 void
137 lwbuf_free(struct lwbuf *lwb)
138 {
139     KKASSERT(lwb->m != NULL);
140     lwb->m = NULL;
141     lwb->cpumask = 0;
142     objcache_put(lwbuf_cache, lwb);
143     atomic_add_int(&lwbuf_count, -1);
144 }
145
146 void
147 lwbuf_set_global(struct lwbuf *lwb)
148 {
149     if (lwb->cpumask != (cpumask_t)-1) {
150         pmap_kenter_sync(lwb->kva);
151         lwb->cpumask = (cpumask_t)-1;
152     }
153 }
154
155 static vm_offset_t
156 _lwbuf_kva(struct lwbuf *lwb, struct mdglobaldata *gd)
157 {
158     cpumask_t old, new;
159
160     pmap_kenter_sync_quick(lwb->kva);
161
162     do {
163         old = lwb->cpumask;
164         new = old | gd->mi.gd_cpumask;
165     } while (atomic_cmpset_int(&lwb->cpumask, old, new) == 0);
166
167     return (lwb->kva);
168 }
169
170 __inline vm_offset_t
171 lwbuf_kva(struct lwbuf *lwb)
172 {
173     struct mdglobaldata *gd = mdcpu;
174
175     if (lwb->cpumask & gd->mi.gd_cpumask)
176         return (lwb->kva);
177
178     return (_lwbuf_kva(lwb, gd));
179 }