installer: Finish incomplete commit to merge nrelease/{installer,root}.
[dragonfly.git] / sys / cpu / amd64 / include / ieeefp.h
1 /*-
2  * Copyright (c) 2003 Peter Wemm.
3  * Copyright (c) 1990 Andrew Moore, Talke Studio
4  * All rights reserved.
5  *
6  * Redistribution and use in source and binary forms, with or without
7  * modification, are permitted provided that the following conditions
8  * are met:
9  * 1. Redistributions of source code must retain the above copyright
10  *    notice, this list of conditions and the following disclaimer.
11  * 2. Redistributions in binary form must reproduce the above copyright
12  *    notice, this list of conditions and the following disclaimer in the
13  *    documentation and/or other materials provided with the distribution.
14  * 3. All advertising materials mentioning features or use of this software
15  *    must display the following acknowledgement:
16  *      This product includes software developed by the University of
17  *      California, Berkeley and its contributors.
18  * 4. Neither the name of the University nor the names of its contributors
19  *    may be used to endorse or promote products derived from this software
20  *    without specific prior written permission.
21  *
22  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
23  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
24  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
25  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
26  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
27  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
28  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
29  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
30  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
31  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
32  * SUCH DAMAGE.
33  *
34  *      from: @(#) ieeefp.h     1.0 (Berkeley) 9/23/93
35  * $FreeBSD: src/sys/amd64/include/ieeefp.h,v 1.11 2003/11/08 04:39:22 peter Exp $
36  * $DragonFly: src/sys/cpu/amd64/include/ieeefp.h,v 1.1 2007/08/21 19:40:24 corecode Exp $
37  */
38
39 #ifndef _CPU_IEEEFP_H_
40 #define _CPU_IEEEFP_H_
41
42 /*
43  * IEEE floating point type, constant and function definitions.
44  * XXX: {FP,SSE}*FLD and {FP,SSE}*OFF are undocumented pollution.
45  */
46
47 /*
48  * Rounding modes.
49  */
50 typedef enum {
51         FP_RN=0,        /* round to nearest */
52         FP_RM,          /* round down towards minus infinity */
53         FP_RP,          /* round up towards plus infinity */
54         FP_RZ           /* truncate */
55 } fp_rnd_t;
56
57 /*
58  * Precision (i.e., rounding precision) modes.
59  */
60 typedef enum {
61         FP_PS=0,        /* 24 bit (single-precision) */
62         FP_PRS,         /* reserved */
63         FP_PD,          /* 53 bit (double-precision) */
64         FP_PE           /* 64 bit (extended-precision) */
65 } fp_prec_t;
66
67 #define fp_except_t     int
68
69 /*
70  * Exception bit masks.
71  */
72 #define FP_X_INV        0x01    /* invalid operation */
73 #define FP_X_DNML       0x02    /* denormal */
74 #define FP_X_DZ         0x04    /* zero divide */
75 #define FP_X_OFL        0x08    /* overflow */
76 #define FP_X_UFL        0x10    /* underflow */
77 #define FP_X_IMP        0x20    /* (im)precision */
78 #define FP_X_STK        0x40    /* stack fault */
79
80 /*
81  * FPU control word bit-field masks.
82  */
83 #define FP_MSKS_FLD     0x3f    /* exception masks field */
84 #define FP_PRC_FLD      0x300   /* precision control field */
85 #define FP_RND_FLD      0xc00   /* rounding control field */
86
87 /*
88  * FPU status word bit-field masks.
89  */
90 #define FP_STKY_FLD     0x3f    /* sticky flags field */
91
92 /*
93  * SSE mxcsr register bit-field masks.
94  */
95 #define SSE_STKY_FLD    0x3f    /* exception flags */
96 #define SSE_DAZ_FLD     0x40    /* Denormals are zero */
97 #define SSE_MSKS_FLD    0x1f80  /* exception masks field */
98 #define SSE_RND_FLD     0x6000  /* rounding control */
99 #define SSE_FZ_FLD      0x8000  /* flush to zero on underflow */
100
101 /*
102  * FPU control word bit-field offsets (shift counts).
103  */
104 #define FP_MSKS_OFF     0       /* exception masks offset */
105 #define FP_PRC_OFF      8       /* precision control offset */
106 #define FP_RND_OFF      10      /* rounding control offset */
107
108 /*
109  * FPU status word bit-field offsets (shift counts).
110  */
111 #define FP_STKY_OFF     0       /* sticky flags offset */
112
113 /*
114  * SSE mxcsr register bit-field offsets (shift counts).
115  */
116 #define SSE_STKY_OFF    0       /* exception flags offset */
117 #define SSE_DAZ_OFF     6       /* DAZ exception mask offset */
118 #define SSE_MSKS_OFF    7       /* other exception masks offset */
119 #define SSE_RND_OFF     13      /* rounding control offset */
120 #define SSE_FZ_OFF      15      /* flush to zero offset */
121
122 #if defined(__GNUC__) && !defined(__cplusplus)
123
124 #define __fldcw(addr)   __asm __volatile("fldcw %0" : : "m" (*(addr)))
125 #define __fldenv(addr)  __asm __volatile("fldenv %0" : : "m" (*(addr)))
126 #define __fnstcw(addr)  __asm __volatile("fnstcw %0" : "=m" (*(addr)))
127 #define __fnstenv(addr) __asm __volatile("fnstenv %0" : "=m" (*(addr)))
128 #define __fnstsw(addr)  __asm __volatile("fnstsw %0" : "=m" (*(addr)))
129 #define __ldmxcsr(addr) __asm __volatile("ldmxcsr %0" : : "m" (*(addr)))
130 #define __stmxcsr(addr) __asm __volatile("stmxcsr %0" : "=m" (*(addr)))
131
132 /*
133  * Load the control word.  Be careful not to trap if there is a currently
134  * unmasked exception (ones that will become freshly unmasked are not a
135  * problem).  This case must be handled by a save/restore of the
136  * environment or even of the full x87 state.  Accessing the environment
137  * is very inefficient, so only do it when necessary.
138  */
139 static __inline void
140 __fnldcw(unsigned short _cw, unsigned short _newcw)
141 {
142         struct {
143                 unsigned _cw;
144                 unsigned _other[6];
145         } _env;
146         unsigned short _sw;
147
148         if ((_cw & FP_MSKS_FLD) != FP_MSKS_FLD) {
149                 __fnstsw(&_sw);
150                 if (((_sw & ~_cw) & FP_STKY_FLD) != 0) {
151                         __fnstenv(&_env);
152                         _env._cw = _newcw;
153                         __fldenv(&_env);
154                         return;
155                 }
156         }
157         __fldcw(&_newcw);
158 }
159
160 /*
161  * General notes about conflicting SSE vs FP status bits.
162  * This code assumes that software will not fiddle with the control
163  * bits of the SSE and x87 in such a way to get them out of sync and
164  * still expect this to work.  Break this at your peril.
165  * Because I based this on the i386 port, the x87 state is used for
166  * the fpget*() functions, and is shadowed into the SSE state for
167  * the fpset*() functions.  For dual source fpget*() functions, I
168  * merge the two together.  I think.
169  */
170
171 static __inline fp_rnd_t
172 __fpgetround(void)
173 {
174         unsigned short _cw;
175
176         __fnstcw(&_cw);
177         return ((fp_rnd_t)((_cw & FP_RND_FLD) >> FP_RND_OFF));
178 }
179
180 static __inline fp_rnd_t
181 __fpsetround(fp_rnd_t _m)
182 {
183         fp_rnd_t _p;
184         unsigned _mxcsr;
185         unsigned short _cw, _newcw;
186
187         __fnstcw(&_cw);
188         _p = (fp_rnd_t)((_cw & FP_RND_FLD) >> FP_RND_OFF);
189         _newcw = _cw & ~FP_RND_FLD;
190         _newcw |= (_m << FP_RND_OFF) & FP_RND_FLD;
191         __fnldcw(_cw, _newcw);
192         __stmxcsr(&_mxcsr);
193         _mxcsr &= ~SSE_RND_FLD;
194         _mxcsr |= (_m << SSE_RND_OFF) & SSE_RND_FLD;
195         __ldmxcsr(&_mxcsr);
196         return (_p);
197 }
198
199 /*
200  * Get or set the rounding precision for x87 arithmetic operations.
201  * There is no equivalent SSE mode or control.
202  */
203
204 static __inline fp_prec_t
205 __fpgetprec(void)
206 {
207         unsigned short _cw;
208
209         __fnstcw(&_cw);
210         return ((fp_prec_t)((_cw & FP_PRC_FLD) >> FP_PRC_OFF));
211 }
212
213 static __inline fp_prec_t
214 __fpsetprec(fp_prec_t _m)
215 {
216         fp_prec_t _p;
217         unsigned short _cw, _newcw;
218
219         __fnstcw(&_cw);
220         _p = (fp_prec_t)((_cw & FP_PRC_FLD) >> FP_PRC_OFF);
221         _newcw = _cw & ~FP_PRC_FLD;
222         _newcw |= (_m << FP_PRC_OFF) & FP_PRC_FLD;
223         __fnldcw(_cw, _newcw);
224         return (_p);
225 }
226
227 /*
228  * Get or set the exception mask.
229  * Note that the x87 mask bits are inverted by the API -- a mask bit of 1
230  * means disable for x87 and SSE, but for fp*mask() it means enable.
231  */
232
233 static __inline fp_except_t
234 __fpgetmask(void)
235 {
236         unsigned short _cw;
237
238         __fnstcw(&_cw);
239         return ((~_cw & FP_MSKS_FLD) >> FP_MSKS_OFF);
240 }
241
242 static __inline fp_except_t
243 __fpsetmask(fp_except_t _m)
244 {
245         fp_except_t _p;
246         unsigned _mxcsr;
247         unsigned short _cw, _newcw;
248
249         __fnstcw(&_cw);
250         _p = (~_cw & FP_MSKS_FLD) >> FP_MSKS_OFF;
251         _newcw = _cw & ~FP_MSKS_FLD;
252         _newcw |= (~_m << FP_MSKS_OFF) & FP_MSKS_FLD;
253         __fnldcw(_cw, _newcw);
254         __stmxcsr(&_mxcsr);
255         /* XXX should we clear non-ieee SSE_DAZ_FLD and SSE_FZ_FLD ? */
256         _mxcsr &= ~SSE_MSKS_FLD;
257         _mxcsr |= (~_m << SSE_MSKS_OFF) & SSE_MSKS_FLD;
258         __ldmxcsr(&_mxcsr);
259         return (_p);
260 }
261
262 static __inline fp_except_t
263 __fpgetsticky(void)
264 {
265         unsigned _ex, _mxcsr;
266         unsigned short _sw;
267
268         __fnstsw(&_sw);
269         _ex = (_sw & FP_STKY_FLD) >> FP_STKY_OFF;
270         __stmxcsr(&_mxcsr);
271         _ex |= (_mxcsr & SSE_STKY_FLD) >> SSE_STKY_OFF;
272         return ((fp_except_t)_ex);
273 }
274
275 #endif /* __GNUC__ && !__cplusplus */
276
277 #if !defined(__IEEEFP_NOINLINES__) && !defined(__cplusplus) && defined(__GNUC__)
278
279 #define fpgetmask()     __fpgetmask()
280 #define fpgetprec()     __fpgetprec()
281 #define fpgetround()    __fpgetround()
282 #define fpgetsticky()   __fpgetsticky()
283 #define fpsetmask(m)    __fpsetmask(m)
284 #define fpsetprec(m)    __fpsetprec(m)
285 #define fpsetround(m)   __fpsetround(m)
286
287 /* Suppress prototypes in the MI header. */
288 #define _IEEEFP_INLINED_        1
289
290 #else /* !__IEEEFP_NOINLINES__ && !__cplusplus && __GNUC__ */
291
292 /* Augment the userland declarations. */
293 __BEGIN_DECLS
294 fp_prec_t       fpgetprec(void);
295 fp_prec_t       fpsetprec(fp_prec_t);
296 __END_DECLS
297
298 #endif /* !__IEEEFP_NOINLINES__ && !__cplusplus && __GNUC__ */
299
300 #endif /* !_CPU_IEEEFP_H_ */