Pass LK_PCATCH instead of trying to store tsleep flags in the lock
[dragonfly.git] / sys / sys / buf2.h
1 /*
2  * Copyright (c) 1982, 1986, 1989, 1993
3  *      The Regents of the University of California.  All rights reserved.
4  * (c) UNIX System Laboratories, Inc.
5  * All or some portions of this file are derived from material licensed
6  * to the University of California by American Telephone and Telegraph
7  * Co. or Unix System Laboratories, Inc. and are reproduced herein with
8  * the permission of UNIX System Laboratories, Inc.
9  *
10  * Redistribution and use in source and binary forms, with or without
11  * modification, are permitted provided that the following conditions
12  * are met:
13  * 1. Redistributions of source code must retain the above copyright
14  *    notice, this list of conditions and the following disclaimer.
15  * 2. Redistributions in binary form must reproduce the above copyright
16  *    notice, this list of conditions and the following disclaimer in the
17  *    documentation and/or other materials provided with the distribution.
18  * 3. All advertising materials mentioning features or use of this software
19  *    must display the following acknowledgement:
20  *      This product includes software developed by the University of
21  *      California, Berkeley and its contributors.
22  * 4. Neither the name of the University nor the names of its contributors
23  *    may be used to endorse or promote products derived from this software
24  *    without specific prior written permission.
25  *
26  * THIS SOFTWARE IS PROVIDED BY THE REGENTS AND CONTRIBUTORS ``AS IS'' AND
27  * ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
28  * IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
29  * ARE DISCLAIMED.  IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE
30  * FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL
31  * DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
32  * OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
33  * HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
34  * LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
35  * OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
36  * SUCH DAMAGE.
37  *
38  *      @(#)buf.h       8.9 (Berkeley) 3/30/95
39  * $FreeBSD: src/sys/sys/buf.h,v 1.88.2.10 2003/01/25 19:02:23 dillon Exp $
40  * $DragonFly: src/sys/sys/buf2.h,v 1.13 2006/03/02 19:08:00 dillon Exp $
41  */
42
43 #ifndef _SYS_BUF2_H_
44 #define _SYS_BUF2_H_
45
46 #ifdef _KERNEL
47
48 #ifndef _SYS_GLOBALDATA_H_
49 #include <sys/globaldata.h>     /* curthread */
50 #endif
51 #ifndef _SYS_THREAD2_H_
52 #include <sys/thread2.h>        /* crit_*() functions */
53 #endif
54 #ifndef _SYS_SPINLOCK2_H_
55 #include <sys/spinlock2.h>      /* crit_*() functions */
56 #endif
57
58 /*
59  * Initialize a lock.
60  */
61 #define BUF_LOCKINIT(bp) \
62         lockinit(&(bp)->b_lock, buf_wmesg, 0, 0)
63
64 /*
65  *
66  * Get a lock sleeping non-interruptably until it becomes available.
67  */
68 static __inline int
69 BUF_LOCK(struct buf *bp, int locktype)
70 {
71         int ret;
72
73         spin_lock(&buftimespinlock);
74         bp->b_lock.lk_wmesg = buf_wmesg;
75         ret = lockmgr(&(bp)->b_lock, locktype | LK_INTERLOCK,
76                         &buftimespinlock, curthread);
77         return ret;
78 }
79 /*
80  * Get a lock sleeping with specified interruptably and timeout.
81  *
82  * XXX different entities calling BUF_TIMELOCK with different timeouts
83  * will conflict, only one of the multiply specified timeouts may wind
84  * up being used.
85  */
86 static __inline int
87 BUF_TIMELOCK(struct buf *bp, int locktype, char *wmesg, int timo)
88 {
89         int ret;
90
91         spin_lock(&buftimespinlock);
92         bp->b_lock.lk_wmesg = wmesg;
93         bp->b_lock.lk_timo = timo;
94         ret = lockmgr(&(bp)->b_lock, locktype | LK_INTERLOCK | LK_TIMELOCK,
95                         &buftimespinlock, curthread);
96         return ret;
97 }
98 /*
99  * Release a lock. Only the acquiring process may free the lock unless
100  * it has been handed off to biodone.
101  */
102 static __inline void
103 BUF_UNLOCK(struct buf *bp)
104 {
105         lockmgr(&(bp)->b_lock, LK_RELEASE, NULL, curthread);
106 }
107
108 /*
109  * When initiating asynchronous I/O, change ownership of the lock to the
110  * kernel. Once done, the lock may legally released by biodone. The
111  * original owning process can no longer acquire it recursively, but must
112  * wait until the I/O is completed and the lock has been freed by biodone.
113  */
114 static __inline void
115 BUF_KERNPROC(struct buf *bp)
116 {
117         struct thread *td = curthread;
118
119         if (bp->b_lock.lk_lockholder == td)
120                 td->td_locks--;
121         bp->b_lock.lk_lockholder = LK_KERNTHREAD;
122 }
123 /*
124  * Find out the number of references to a lock.
125  *
126  * The non-blocking version should only be used for assertions in cases
127  * where the buffer is expected to be owned or otherwise data stable.
128  */
129 static __inline int
130 BUF_REFCNT(struct buf *bp)
131 {
132         return (lockcount(&(bp)->b_lock));
133 }
134
135 static __inline int
136 BUF_REFCNTNB(struct buf *bp)
137 {
138         return (lockcountnb(&(bp)->b_lock));
139 }
140
141 /*
142  * Free a buffer lock.
143  */
144 #define BUF_LOCKFREE(bp)                        \
145         if (BUF_REFCNTNB(bp) > 0)               \
146                 panic("free locked buf")
147
148 static __inline void
149 bioq_init(struct bio_queue_head *head)
150 {
151         TAILQ_INIT(&head->queue);
152         head->last_blkno = 0;
153         head->insert_point = NULL;
154         head->switch_point = NULL;
155 }
156
157 static __inline void
158 bioq_insert_tail(struct bio_queue_head *head, struct bio *bio)
159 {
160         if ((bio->bio_buf->b_flags & B_ORDERED) != 0) {
161                 head->insert_point = bio;
162                 head->switch_point = NULL;
163         }
164         TAILQ_INSERT_TAIL(&head->queue, bio, bio_act);
165 }
166
167 static __inline void
168 bioq_remove(struct bio_queue_head *head, struct bio *bio)
169 {
170         if (bio == head->switch_point)
171                 head->switch_point = TAILQ_NEXT(bio, bio_act);
172         if (bio == head->insert_point) {
173                 head->insert_point = TAILQ_PREV(bio, bio_queue, bio_act);
174                 if (head->insert_point == NULL)
175                         head->last_blkno = 0;
176         } else if (bio == TAILQ_FIRST(&head->queue))
177                 head->last_blkno = bio->bio_blkno;
178         TAILQ_REMOVE(&head->queue, bio, bio_act);
179         if (TAILQ_FIRST(&head->queue) == head->switch_point)
180                 head->switch_point = NULL;
181 }
182
183 static __inline struct bio *
184 bioq_first(struct bio_queue_head *head)
185 {
186         return (TAILQ_FIRST(&head->queue));
187 }
188
189 #endif /* _KERNEL */
190
191 #endif /* !_SYS_BUF2_H_ */