Merge branch 'master' of ssh://crater.dragonflybsd.org/repository/git/dragonfly
[dragonfly.git] / sys / sys / spinlock2.h
1 /*
2  * Copyright (c) 2005 Jeffrey M. Hsu.  All rights reserved.
3  *
4  * This code is derived from software contributed to The DragonFly Project
5  * by Jeffrey M. Hsu.
6  *
7  * Redistribution and use in source and binary forms, with or without
8  * modification, are permitted provided that the following conditions
9  * are met:
10  * 1. Redistributions of source code must retain the above copyright
11  *    notice, this list of conditions and the following disclaimer.
12  * 2. Redistributions in binary form must reproduce the above copyright
13  *    notice, this list of conditions and the following disclaimer in the
14  *    documentation and/or other materials provided with the distribution.
15  * 3. Neither the name of The DragonFly Project nor the names of its
16  *    contributors may be used to endorse or promote products derived
17  *    from this software without specific, prior written permission.
18  *
19  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
20  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
21  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS
22  * FOR A PARTICULAR PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE
23  * COPYRIGHT HOLDERS OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT,
24  * INCIDENTAL, SPECIAL, EXEMPLARY OR CONSEQUENTIAL DAMAGES (INCLUDING,
25  * BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
26  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
27  * AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
28  * OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT
29  * OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
30  * SUCH DAMAGE.
31  *
32  * $DragonFly: src/sys/sys/spinlock2.h,v 1.12 2008/06/04 04:34:54 nth Exp $
33  */
34
35 #ifndef _SYS_SPINLOCK2_H_
36 #define _SYS_SPINLOCK2_H_
37
38 #ifndef _KERNEL
39
40 #error "This file should not be included by userland programs."
41
42 #else
43
44 #ifndef _SYS_SYSTM_H_
45 #include <sys/systm.h>
46 #endif
47 #ifndef _SYS_THREAD2_H_
48 #include <sys/thread2.h>
49 #endif
50 #ifndef _SYS_GLOBALDATA_H_
51 #include <sys/globaldata.h>
52 #endif
53 #ifndef _MACHINE_ATOMIC_H_
54 #include <machine/atomic.h>
55 #endif
56 #ifndef _MACHINE_CPUFUNC_H_
57 #include <machine/cpufunc.h>
58 #endif
59
60 /*
61  * SPECIAL NOTE!  Obtaining a spinlock does not enter a critical section
62  * or protect against FAST interrupts but it will prevent thread preemption.
63  * Because the spinlock code path is ultra critical, we do not check for
64  * LWKT reschedule requests (due to an interrupt thread not being able to
65  * preempt).
66  */
67
68 #ifdef SMP
69
70 extern int spin_trylock_wr_contested(globaldata_t gd, struct spinlock *mtx,
71     int value);
72 extern void spin_lock_wr_contested(struct spinlock *mtx, int value);
73 extern void spin_lock_rd_contested(struct spinlock *mtx);
74
75 #endif
76
77 #ifdef SMP
78
79 /*
80  * Attempt to obtain an exclusive spinlock.  Returns FALSE on failure,
81  * TRUE on success.
82  */
83 static __inline boolean_t
84 spin_trylock_wr(struct spinlock *mtx)
85 {
86         globaldata_t gd = mycpu;
87         int value;
88
89         ++gd->gd_curthread->td_critcount;
90         cpu_ccfence();
91         ++gd->gd_spinlocks_wr;
92         if ((value = atomic_swap_int(&mtx->lock, SPINLOCK_EXCLUSIVE)) != 0)
93                 return (spin_trylock_wr_contested(gd, mtx, value));
94         return (TRUE);
95 }
96
97 #else
98
99 static __inline boolean_t
100 spin_trylock_wr(struct spinlock *mtx)
101 {
102         globaldata_t gd = mycpu;
103
104         ++gd->gd_curthread->td_critcount;
105         cpu_ccfence();
106         ++gd->gd_spinlocks_wr;
107         return (TRUE);
108 }
109
110 #endif
111
112 /*
113  * Obtain an exclusive spinlock and return.  Shortcut the case where the only
114  * cached read lock was from our own cpu (it can just be cleared).
115  */
116 static __inline void
117 spin_lock_wr_quick(globaldata_t gd, struct spinlock *mtx)
118 {
119 #ifdef SMP
120         int value;
121 #endif
122
123         ++gd->gd_curthread->td_critcount;
124         cpu_ccfence();
125         ++gd->gd_spinlocks_wr;
126 #ifdef SMP
127         if ((value = atomic_swap_int(&mtx->lock, SPINLOCK_EXCLUSIVE)) != 0) {
128                 value &= ~gd->gd_cpumask;
129                 if (value)
130                         spin_lock_wr_contested(mtx, value);
131         }
132 #endif
133 }
134
135 static __inline void
136 spin_lock_wr(struct spinlock *mtx)
137 {
138         spin_lock_wr_quick(mycpu, mtx);
139 }
140
141 /*
142  * Obtain a shared spinlock and return.  This is a critical code path.
143  *
144  * The vast majority of the overhead is in the cpu_mfence() (5ns vs 1ns for
145  * the entire rest of the procedure).  Unfortunately we have to ensure that
146  * spinlock pointer is written out before we check the cpumask to interlock
147  * against an exclusive spinlock that clears the cpumask and then checks
148  * the spinlock pointer.
149  *
150  * But what is EXTREMELY important here is that we do not have to perform
151  * a locked bus cycle on the spinlock itself if the shared bit for our cpu
152  * is already found to be set.  We only need the mfence, and the mfence is
153  * local to the cpu and never conflicts with other cpu's.
154  *
155  * This means that multiple parallel shared acessors (e.g. filedescriptor
156  * table lookups, namecache lookups) run at full speed and incur NO cache
157  * contention at all.  It is the difference between 10ns and 40-100ns.
158  */
159 static __inline void
160 spin_lock_rd_quick(globaldata_t gd, struct spinlock *mtx)
161 {
162         ++gd->gd_curthread->td_critcount;
163         cpu_ccfence();
164         gd->gd_spinlock_rd = mtx;
165 #ifdef SMP
166         cpu_mfence();
167         if ((mtx->lock & gd->gd_cpumask) == 0)
168                 spin_lock_rd_contested(mtx);
169 #endif
170 }
171
172 static __inline void
173 spin_lock_rd(struct spinlock *mtx)
174 {
175         spin_lock_rd_quick(mycpu,mtx);
176 }
177
178 /*
179  * Release an exclusive spinlock.  We can just do this passively, only
180  * ensuring that our spinlock count is left intact until the mutex is
181  * cleared.
182  */
183 static __inline void
184 spin_unlock_wr_quick(globaldata_t gd, struct spinlock *mtx)
185 {
186 #ifdef SMP
187         mtx->lock = 0;
188 #endif
189         KKASSERT(gd->gd_spinlocks_wr > 0);
190         --gd->gd_spinlocks_wr;
191         cpu_ccfence();
192         --gd->gd_curthread->td_critcount;
193 }
194
195 static __inline void
196 spin_unlock_wr(struct spinlock *mtx)
197 {
198         spin_unlock_wr_quick(mycpu, mtx);
199 }
200
201 /*
202  * Release a shared spinlock.  We leave the shared bit set in the spinlock
203  * as a cache and simply clear the spinlock pointer for the cpu.  This
204  * fast-paths another shared lock later at the cost of an exclusive lock
205  * having to check per-cpu spinlock pointers to determine when there are no
206  * shared holders remaining.
207  */
208 static __inline void
209 spin_unlock_rd_quick(globaldata_t gd, struct spinlock *mtx)
210 {
211         KKASSERT(gd->gd_spinlock_rd == mtx);
212         gd->gd_spinlock_rd = NULL;
213         cpu_ccfence();
214         --gd->gd_curthread->td_critcount;
215 }
216
217 static __inline void
218 spin_unlock_rd(struct spinlock *mtx)
219 {
220         spin_unlock_rd_quick(mycpu, mtx);
221 }
222
223 static __inline void
224 spin_init(struct spinlock *mtx)
225 {
226         mtx->lock = 0;
227 }
228
229 static __inline void
230 spin_uninit(struct spinlock *mtx)
231 {
232         /* unused */
233 }
234
235 #endif  /* _KERNEL */
236 #endif  /* _SYS_SPINLOCK2_H_ */
237