Merge branches 'hammer2' and 'master' of ssh://crater.dragonflybsd.org/repository...
[dragonfly.git] / sys / vfs / hammer2 / hammer2_inode.c
1 /*
2  * Copyright (c) 2011-2012 The DragonFly Project.  All rights reserved.
3  *
4  * This code is derived from software contributed to The DragonFly Project
5  * by Matthew Dillon <dillon@dragonflybsd.org>
6  * by Venkatesh Srinivas <vsrinivas@dragonflybsd.org>
7  *
8  * Redistribution and use in source and binary forms, with or without
9  * modification, are permitted provided that the following conditions
10  * are met:
11  *
12  * 1. Redistributions of source code must retain the above copyright
13  *    notice, this list of conditions and the following disclaimer.
14  * 2. Redistributions in binary form must reproduce the above copyright
15  *    notice, this list of conditions and the following disclaimer in
16  *    the documentation and/or other materials provided with the
17  *    distribution.
18  * 3. Neither the name of The DragonFly Project nor the names of its
19  *    contributors may be used to endorse or promote products derived
20  *    from this software without specific, prior written permission.
21  *
22  * THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS
23  * ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT
24  * LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS
25  * FOR A PARTICULAR PURPOSE ARE DISCLAIMED.  IN NO EVENT SHALL THE
26  * COPYRIGHT HOLDERS OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT, INDIRECT,
27  * INCIDENTAL, SPECIAL, EXEMPLARY OR CONSEQUENTIAL DAMAGES (INCLUDING,
28  * BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
29  * LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED
30  * AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY,
31  * OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT
32  * OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF
33  * SUCH DAMAGE.
34  */
35 #include <sys/cdefs.h>
36 #include <sys/cdefs.h>
37 #include <sys/param.h>
38 #include <sys/systm.h>
39 #include <sys/types.h>
40 #include <sys/lock.h>
41 #include <sys/uuid.h>
42
43 #include "hammer2.h"
44
45 /*
46  * Adding a ref to an inode is only legal if the inode already has at least
47  * one ref.
48  */
49 void
50 hammer2_inode_ref(hammer2_inode_t *ip)
51 {
52         hammer2_chain_ref(ip->hmp, &ip->chain);
53 }
54
55 /*
56  * Drop an inode reference, freeing the inode when the last reference goes
57  * away.
58  */
59 void
60 hammer2_inode_drop(hammer2_inode_t *ip)
61 {
62         hammer2_chain_drop(ip->hmp, &ip->chain);
63 }
64
65 /*
66  * Get the vnode associated with the given inode, allocating the vnode if
67  * necessary.
68  *
69  * Great care must be taken to avoid deadlocks and vnode acquisition/reclaim
70  * races.
71  *
72  * The vnode will be returned exclusively locked and referenced.  The
73  * reference on the vnode prevents it from being reclaimed.
74  *
75  * The inode (ip) must be referenced by the caller and not locked to avoid
76  * it getting ripped out from under us or deadlocked.
77  */
78 struct vnode *
79 hammer2_igetv(hammer2_inode_t *ip, int *errorp)
80 {
81         struct vnode *vp;
82         hammer2_mount_t *hmp;
83
84         hmp = ip->hmp;
85         *errorp = 0;
86
87         for (;;) {
88                 /*
89                  * Attempt to reuse an existing vnode assignment.  It is
90                  * possible to race a reclaim so the vget() may fail.  The
91                  * inode must be unlocked during the vget() to avoid a
92                  * deadlock against a reclaim.
93                  */
94                 vp = ip->vp;
95                 if (vp) {
96                         /*
97                          * Lock the inode and check for a reclaim race
98                          */
99                         hammer2_inode_lock_ex(ip);
100                         if (ip->vp != vp) {
101                                 hammer2_inode_unlock_ex(ip);
102                                 continue;
103                         }
104
105                         /*
106                          * Inode must be unlocked during the vget() to avoid
107                          * possible deadlocks, vnode is held to prevent
108                          * destruction during the vget().  The vget() can
109                          * still fail if we lost a reclaim race on the vnode.
110                          */
111                         vhold_interlocked(vp);
112                         hammer2_inode_unlock_ex(ip);
113                         if (vget(vp, LK_EXCLUSIVE)) {
114                                 vdrop(vp);
115                                 continue;
116                         }
117                         vdrop(vp);
118                         /* vp still locked and ref from vget */
119                         *errorp = 0;
120                         break;
121                 }
122
123                 /*
124                  * No vnode exists, allocate a new vnode.  Beware of
125                  * allocation races.  This function will return an
126                  * exclusively locked and referenced vnode.
127                  */
128                 *errorp = getnewvnode(VT_HAMMER2, H2TOMP(hmp), &vp, 0, 0);
129                 if (*errorp) {
130                         vp = NULL;
131                         break;
132                 }
133
134                 /*
135                  * Lock the inode and check for an allocation race.
136                  */
137                 hammer2_inode_lock_ex(ip);
138                 if (ip->vp != NULL) {
139                         vp->v_type = VBAD;
140                         vx_put(vp);
141                         hammer2_inode_unlock_ex(ip);
142                         continue;
143                 }
144
145                 kprintf("igetv new\n");
146                 switch (ip->ip_data.type) {
147                 case HAMMER2_OBJTYPE_DIRECTORY:
148                         vp->v_type = VDIR;
149                         break;
150                 case HAMMER2_OBJTYPE_REGFILE:
151                         vp->v_type = VREG;
152                         vinitvmio(vp, 0, HAMMER2_LBUFSIZE,
153                                   (int)ip->ip_data.size & HAMMER2_LBUFMASK);
154                         break;
155                 /* XXX FIFO */
156                 default:
157                         panic("hammer2: unhandled objtype %d",
158                               ip->ip_data.type);
159                         break;
160                 }
161
162                 if (ip == hmp->iroot)
163                         vsetflags(vp, VROOT);
164
165                 vp->v_data = ip;
166                 ip->vp = vp;
167                 hammer2_inode_unlock_ex(ip);
168                 break;
169         }
170
171         /*
172          * Return non-NULL vp and *errorp == 0, or NULL vp and *errorp != 0.
173          */
174         kprintf("igetv vp %p refs %d aux %d\n",
175                 vp, vp->v_sysref.refcnt, vp->v_auxrefs);
176         return (vp);
177 }
178
179 #if 0
180 /*
181  * Allocate a HAMMER2 inode memory structure.
182  *
183  * Returns a busied but unlocked inode
184  */
185 hammer2_inode_t *
186 hammer2_inode_alloc(hammer2_mount_t *hmp, void *data)
187 {
188         hammer2_inode_t *ip;
189
190         ip = kmalloc(sizeof(hammer2_inode_t), hmp->inodes, M_WAITOK | M_ZERO);
191
192         atomic_add_int(&hmp->ninodes, 1);
193         ip->hmp = hmp;
194         lockinit(&ip->lk, "h2inode", 0, 0);
195         ip->vp = NULL;
196         ip->data = *(struct hammer2_inode_data *)data;
197
198         return (ip);
199 }
200
201 /*
202  * Free a HAMMER2 inode memory structure.
203  *
204  * The inode must be locked exclusively with one reference and will
205  * be destroyed on return.
206  */
207 void
208 hammer2_inode_free(hammer2_inode_t *ip)
209 {
210         hammer2_mount_t *hmp = ip->hmp;
211
212         KKASSERT(ip->hmp != NULL);
213         KKASSERT(ip->vp == NULL);
214         KKASSERT(ip->chain.refs == 0);
215
216         hammer2_chain_unlink(hmp, &ip->chain);  /* XXX races */
217
218         atomic_add_int(&hmp->ninodes, -1);
219         ip->chain.u.ip = NULL;
220
221         kfree(ip, hmp->inodes);
222 }
223
224 #endif