drm/linux: Implement more reservation objects code
[dragonfly.git] / sys / dev / drm / include / linux / mm.h
1 /*-
2  * Copyright (c) 2010 Isilon Systems, Inc.
3  * Copyright (c) 2010 iX Systems, Inc.
4  * Copyright (c) 2010 Panasas, Inc.
5  * Copyright (c) 2013, 2014 Mellanox Technologies, Ltd.
6  * Copyright (c) 2015 Matthew Dillon <dillon@backplane.com>
7  * Copyright (c) 2015-2018 François Tigeot <ftigeot@wolfpond.org>
8  * All rights reserved.
9  *
10  * Redistribution and use in source and binary forms, with or without
11  * modification, are permitted provided that the following conditions
12  * are met:
13  * 1. Redistributions of source code must retain the above copyright
14  *    notice unmodified, this list of conditions, and the following
15  *    disclaimer.
16  * 2. Redistributions in binary form must reproduce the above copyright
17  *    notice, this list of conditions and the following disclaimer in the
18  *    documentation and/or other materials provided with the distribution.
19  *
20  * THIS SOFTWARE IS PROVIDED BY THE AUTHOR ``AS IS'' AND ANY EXPRESS OR
21  * IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES
22  * OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
23  * IN NO EVENT SHALL THE AUTHOR BE LIABLE FOR ANY DIRECT, INDIRECT,
24  * INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING, BUT
25  * NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES; LOSS OF USE,
26  * DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND ON ANY
27  * THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
28  * (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF
29  * THIS SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
30  */
31 #ifndef _LINUX_MM_H_
32 #define _LINUX_MM_H_
33
34 #include <linux/errno.h>
35
36 #include <linux/mmdebug.h>
37 #include <linux/gfp.h>
38 #include <linux/bug.h>
39 #include <linux/list.h>
40 #include <linux/mmzone.h>
41 #include <linux/rbtree.h>
42 #include <linux/atomic.h>
43 #include <linux/mm_types.h>
44 #include <linux/err.h>
45
46 #include <asm/page.h>
47 #include <asm/pgtable.h>
48
49 static inline struct page *
50 nth_page(struct page *page, int n)
51 {
52         return page + n;
53 }
54
55 #define PAGE_ALIGN(addr) round_page(addr)
56
57 struct vm_area_struct {
58         vm_offset_t     vm_start;
59         vm_offset_t     vm_end;
60         vm_offset_t     vm_pgoff;
61         vm_paddr_t      vm_pfn;         /* PFN For mmap. */
62         vm_memattr_t    vm_page_prot;
63 };
64
65 /*
66  * Compute log2 of the power of two rounded up count of pages
67  * needed for size bytes.
68  */
69 static inline int
70 get_order(unsigned long size)
71 {
72         int order;
73
74         size = (size - 1) >> PAGE_SHIFT;
75         order = 0;
76         while (size) {
77                 order++;
78                 size >>= 1;
79         }
80         return (order);
81 }
82
83 /*
84  * This only works via mmap ops.
85  */
86 static inline int
87 io_remap_pfn_range(struct vm_area_struct *vma,
88     unsigned long addr, unsigned long pfn, unsigned long size,
89     vm_memattr_t prot)
90 {
91         vma->vm_page_prot = prot;
92         vma->vm_pfn = pfn;
93
94         return (0);
95 }
96
97 static inline unsigned long
98 vma_pages(struct vm_area_struct *vma)
99 {
100         unsigned long size;
101
102         size = vma->vm_end - vma->vm_start;
103
104         return size >> PAGE_SHIFT;
105 }
106
107 #define offset_in_page(off)     ((off) & PAGE_MASK)
108
109 static inline void
110 set_page_dirty(struct page *page)
111 {
112         vm_page_dirty((struct vm_page *)page);
113 }
114
115 /*
116  * Allocate multiple contiguous pages.  The DragonFly code can only do
117  * multiple allocations via the free page reserve.  Linux does not appear
118  * to restrict the address space, so neither do we.
119  */
120 static inline struct vm_page *
121 alloc_pages(int flags, u_int order)
122 {
123         size_t bytes = PAGE_SIZE << order;
124         struct vm_page *pgs;
125
126         pgs = vm_page_alloc_contig(0LLU, ~0LLU, bytes, bytes, bytes,
127                                    VM_MEMATTR_DEFAULT);
128         kprintf("alloc_pages order %u vm_pages=%p\n", order, pgs);
129         return pgs;
130 }
131
132 /*
133  * Free multiple contiguous pages
134  */
135 static inline void
136 __free_pages(struct vm_page *pgs, u_int order)
137 {
138         size_t bytes = PAGE_SIZE << order;
139
140         vm_page_free_contig(pgs, bytes);
141 }
142
143 static inline void
144 get_page(struct vm_page *page)
145 {
146         vm_page_hold(page);
147 }
148
149 extern vm_paddr_t Realmem;
150
151 static inline unsigned long get_num_physpages(void)
152 {
153         return Realmem / PAGE_SIZE;
154 }
155
156 int is_vmalloc_addr(const void *x);
157
158 static inline void
159 unmap_mapping_range(struct address_space *mapping,
160         loff_t const holebegin, loff_t const holelen, int even_cows)
161 {
162 }
163
164 #endif  /* _LINUX_MM_H_ */