threaded interrupts 1: Rewrite the ICU interrupt code, splz, and doreti code.
[dragonfly.git] / sys / platform / pc32 / isa / ipl_funcs.c
1 /*-
2  * Copyright (c) 1997 Bruce Evans.
3  * All rights reserved.
4  *
5  * Redistribution and use in source and binary forms, with or without
6  * modification, are permitted provided that the following conditions
7  * are met:
8  * 1. Redistributions of source code must retain the above copyright
9  *    notice, this list of conditions and the following disclaimer.
10  * 2. Redistributions in binary form must reproduce the above copyright
11  *    notice, this list of conditions and the following disclaimer in the
12  *    documentation and/or other materials provided with the distribution.
13  *
14  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR AND CONTRIBUTORS ``AS IS'' AND
15  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
16  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
17  * ARE DISCLAIMED.  IN NO EVENT SHALL THE AUTHOR OR CONTRIBUTORS BE LIABLE
18  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
19  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
20  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
21  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
22  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
23  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
24  * SUCH DAMAGE.
25  *
26  * $FreeBSD: src/sys/i386/isa/ipl_funcs.c,v 1.32.2.5 2002/12/17 18:04:02 sam Exp $
27  * $DragonFly: src/sys/platform/pc32/isa/ipl_funcs.c,v 1.6 2003/06/29 03:28:43 dillon Exp $
28  */
29
30 #include <sys/param.h>
31 #include <sys/systm.h>
32 #include <sys/kernel.h>
33 #include <sys/sysctl.h>
34 #include <sys/proc.h>
35 #include <machine/ipl.h>
36 #include <machine/globaldata.h>
37 #include <machine/pcb.h>
38 #include <i386/isa/intr_machdep.h>
39
40 /*
41  * Bits in the ipending bitmap variable must be set atomically because
42  * ipending may be manipulated by interrupts or other cpu's without holding 
43  * any locks.
44  *
45  * Note: setbits uses a locked or, making simple cases MP safe.
46  */
47 #define DO_SETBITS(name, var, bits) \
48 void name(void)                                 \
49 {                                               \
50         atomic_set_int(var, bits);              \
51         mdcpu->mi.gd_reqpri = TDPRI_CRIT;       \
52 }
53
54 DO_SETBITS(setdelayed,   &mdcpu->gd_ipending, loadandclear(&idelayed))
55
56 DO_SETBITS(setsoftcamnet,&mdcpu->gd_ipending, SWI_CAMNET_PENDING)
57 DO_SETBITS(setsoftcambio,&mdcpu->gd_ipending, SWI_CAMBIO_PENDING)
58 DO_SETBITS(setsoftclock, &mdcpu->gd_ipending, SWI_CLOCK_PENDING)
59 DO_SETBITS(setsoftnet,   &mdcpu->gd_ipending, SWI_NET_PENDING)
60 DO_SETBITS(setsofttty,   &mdcpu->gd_ipending, SWI_TTY_PENDING)
61 DO_SETBITS(setsoftvm,    &mdcpu->gd_ipending, SWI_VM_PENDING)
62 DO_SETBITS(setsofttq,    &mdcpu->gd_ipending, SWI_TQ_PENDING)
63 DO_SETBITS(setsoftcrypto,&mdcpu->gd_ipending, SWI_CRYPTO_PENDING)
64
65 DO_SETBITS(schedsoftcamnet, &idelayed, SWI_CAMNET_PENDING)
66 DO_SETBITS(schedsoftcambio, &idelayed, SWI_CAMBIO_PENDING)
67 DO_SETBITS(schedsoftnet, &idelayed, SWI_NET_PENDING)
68 DO_SETBITS(schedsofttty, &idelayed, SWI_TTY_PENDING)
69 DO_SETBITS(schedsoftvm, &idelayed, SWI_VM_PENDING)
70 DO_SETBITS(schedsofttq, &idelayed, SWI_TQ_PENDING)
71 /* YYY schedsoft what? */
72
73 unsigned
74 softclockpending(void)
75 {
76         return ((mdcpu->gd_ipending | mdcpu->gd_fpending) & SWI_CLOCK_PENDING);
77 }
78
79 /*
80  * Support for SPL assertions.
81  */
82
83 #ifdef INVARIANT_SUPPORT
84
85 #define SPLASSERT_IGNORE        0
86 #define SPLASSERT_LOG           1
87 #define SPLASSERT_PANIC         2
88
89 static int splassertmode = SPLASSERT_LOG;
90 SYSCTL_INT(_kern, OID_AUTO, splassertmode, CTLFLAG_RW,
91         &splassertmode, 0, "Set the mode of SPLASSERT");
92 TUNABLE_INT("kern.splassertmode", &splassertmode);
93
94 static void
95 splassertfail(char *str, const char *msg, char *name, int level)
96 {
97         switch (splassertmode) {
98         case SPLASSERT_IGNORE:
99                 break;
100         case SPLASSERT_LOG:
101                 printf(str, msg, name, level);
102                 printf("\n");
103                 break;
104         case SPLASSERT_PANIC:
105                 panic(str, msg, name, level);
106                 break;
107         }
108 }
109
110 #define GENSPLASSERT(NAME, MODIFIER)                    \
111 void                                                    \
112 NAME##assert(const char *msg)                           \
113 {                                                       \
114         if ((curthread->td_cpl & (MODIFIER)) != (MODIFIER)) \
115                 splassertfail("%s: not %s, curthread->td_cpl == %#x",   \
116                     msg, __XSTRING(NAME) + 3, curthread->td_cpl);       \
117 }
118 #else
119 #define GENSPLASSERT(NAME, MODIFIER)
120 #endif
121
122 /************************************************************************
123  *                      GENERAL SPL CODE                                *
124  ************************************************************************
125  *
126  *  Implement splXXX(), spl0(), splx(), and splq().  splXXX() disables a
127  *  set of interrupts (e.g. splbio() disables interrupts relating to 
128  *  device I/O) and returns the previous interrupt mask.  splx() restores
129  *  the previous interrupt mask, spl0() is a special case which enables
130  *  all interrupts and is typically used inside i386/i386 swtch.s and
131  *  fork_trampoline.  splq() is a generic version of splXXX().
132  *
133  *  The SPL routines mess around with the 'cpl' global, which masks 
134  *  interrupts.  Interrupts are not *actually* masked.  What happens is 
135  *  that if an interrupt masked by the cpl occurs, the appropriate bit
136  *  in '*pending' is set and the interrupt is defered.  When we clear
137  *  bits in the cpl we must check to see if any *pending interrupts have
138  *  been unmasked and issue the synchronously, which is what the splz()
139  *  call does.
140  *
141  *  Because the cpl is often saved and restored in a nested fashion, cpl
142  *  modifications are only allowed in the SMP case when the MP lock is held
143  *  to prevent multiple processes from tripping over each other's masks.
144  *  The cpl is saved when you do a context switch (mi_switch()) and restored
145  *  when your process gets cpu again.
146  *
147  *  An interrupt routine is allowed to modify the cpl as long as it restores
148  *  it prior to returning (thus the interrupted mainline code doesn't notice
149  *  anything amiss).  For the SMP case, the interrupt routine must hold 
150  *  the MP lock for any cpl manipulation.
151  *
152  *  Likewise, due to the deterministic nature of cpl modifications, we do
153  *  NOT need to use locked instructions to modify it.
154  */
155
156 #define GENSPL(NAME, OP, MODIFIER, PC)          \
157 GENSPLASSERT(NAME, MODIFIER)                    \
158 unsigned NAME(void)                             \
159 {                                               \
160         unsigned x;                             \
161         struct thread *td = curthread;          \
162                                                 \
163         x = td->td_cpl;                         \
164         td->td_cpl OP MODIFIER;                 \
165         return (x);                             \
166 }
167
168 void
169 spl0(void)
170 {
171         struct mdglobaldata *gd = mdcpu;
172         struct thread *td = gd->mi.gd_curthread;
173
174         td->td_cpl = 0;
175         if ((gd->gd_ipending || gd->gd_fpending) && td->td_pri < TDPRI_CRIT)
176                 splz();
177 }
178
179 void
180 splx(unsigned ipl)
181 {
182         struct mdglobaldata *gd = mdcpu;
183         struct thread *td = gd->mi.gd_curthread;
184
185         td->td_cpl = ipl;
186         if (((gd->gd_ipending | gd->gd_fpending) & ~ipl) &&
187             td->td_pri < TDPRI_CRIT) {
188                 splz();
189         }
190 }
191
192 intrmask_t
193 splq(intrmask_t mask)
194
195         struct mdglobaldata *gd = mdcpu;
196         struct thread *td = gd->mi.gd_curthread;
197         intrmask_t tmp;
198
199         tmp = td->td_cpl;
200         td->td_cpl |= mask;
201         return (tmp);
202 }       
203
204 /* Finally, generate the actual spl*() functions */
205
206 /*    NAME:            OP:     MODIFIER:                                PC: */
207 GENSPL(splbio,          |=,     bio_imask,                              2)
208 GENSPL(splcam,          |=,     cam_imask,                              7)
209 GENSPL(splclock,         =,     HWI_MASK | SWI_MASK,                    3)
210 GENSPL(splhigh,          =,     HWI_MASK | SWI_MASK,                    4)
211 GENSPL(splimp,          |=,     net_imask,                              5)
212 GENSPL(splnet,          |=,     SWI_NET_MASK,                           6)
213 GENSPL(splsoftcam,      |=,     SWI_CAMBIO_MASK | SWI_CAMNET_MASK,      8)
214 GENSPL(splsoftcambio,   |=,     SWI_CAMBIO_MASK,                        9)
215 GENSPL(splsoftcamnet,   |=,     SWI_CAMNET_MASK,                        10)
216 GENSPL(splsoftclock,     =,     SWI_CLOCK_MASK,                         11)
217 GENSPL(splsofttty,      |=,     SWI_TTY_MASK,                           12)
218 GENSPL(splsoftvm,       |=,     SWI_VM_MASK,                            16)
219 GENSPL(splsofttq,       |=,     SWI_TQ_MASK,                            17)
220 GENSPL(splstatclock,    |=,     stat_imask,                             13)
221 GENSPL(spltty,          |=,     tty_imask,                              14)
222 GENSPL(splvm,           |=,     net_imask | bio_imask | cam_imask,      15)
223 GENSPL(splcrypto,       |=,     net_imask | SWI_NET_MASK | SWI_CRYPTO_MASK,16)