]> rtime.felk.cvut.cz Git - jailhouse.git/blob - hypervisor/arch/arm/irqchip.c
1e2a4e494a6a08a83bf81e3a6de58f6635b1ff25
[jailhouse.git] / hypervisor / arch / arm / irqchip.c
1 /*
2  * Jailhouse, a Linux-based partitioning hypervisor
3  *
4  * Copyright (c) ARM Limited, 2014
5  *
6  * Authors:
7  *  Jean-Philippe Brucker <jean-philippe.brucker@arm.com>
8  *
9  * This work is licensed under the terms of the GNU GPL, version 2.  See
10  * the COPYING file in the top-level directory.
11  */
12
13 #include <jailhouse/entry.h>
14 #include <jailhouse/mmio.h>
15 #include <jailhouse/paging.h>
16 #include <jailhouse/printk.h>
17 #include <jailhouse/string.h>
18 #include <asm/gic_common.h>
19 #include <asm/irqchip.h>
20 #include <asm/platform.h>
21 #include <asm/setup.h>
22 #include <asm/sysregs.h>
23
24 /* AMBA's biosfood */
25 #define AMBA_DEVICE     0xb105f00d
26
27 void *gicd_base;
28 unsigned long gicd_size;
29
30 /*
31  * The init function must be called after the MMU setup, and whilst in the
32  * per-cpu setup, which means that a bool must be set by the master CPU
33  */
34 static bool irqchip_is_init;
35 static struct irqchip_ops irqchip;
36
37 bool spi_in_cell(struct cell *cell, unsigned int spi)
38 {
39         /* FIXME: Change the configuration to a bitmask range */
40         u32 spi_mask;
41
42         if (spi >= 64)
43                 return false;
44         else if (spi >= 32)
45                 spi_mask = cell->arch.spis >> 32;
46         else
47                 spi_mask = cell->arch.spis;
48
49         return spi_mask & (1 << (spi & 31));
50 }
51
52 static int irqchip_init_pending(struct per_cpu *cpu_data)
53 {
54         struct pending_irq *pend_array;
55
56         if (cpu_data->pending_irqs == NULL) {
57                 cpu_data->pending_irqs = pend_array = page_alloc(&mem_pool, 1);
58                 if (pend_array == NULL)
59                         return -ENOMEM;
60         } else {
61                 pend_array = cpu_data->pending_irqs;
62         }
63
64         memset(pend_array, 0, PAGE_SIZE);
65
66         cpu_data->pending_irqs = pend_array;
67         cpu_data->first_pending = NULL;
68
69         return 0;
70 }
71
72 /*
73  * Find the first available pending struct for insertion. The `prev' pointer is
74  * set to the previous pending interrupt, if any, to help inserting the new one
75  * into the list.
76  * Returns NULL when no slot is available
77  */
78 static struct pending_irq* get_pending_slot(struct per_cpu *cpu_data,
79                                             struct pending_irq **prev)
80 {
81         u32 i, pending_idx;
82         struct pending_irq *pending = cpu_data->first_pending;
83
84         *prev = NULL;
85
86         for (i = 0; i < MAX_PENDING_IRQS; i++) {
87                 pending_idx = pending - cpu_data->pending_irqs;
88                 if (pending == NULL || i < pending_idx)
89                         return cpu_data->pending_irqs + i;
90
91                 *prev = pending;
92                 pending = pending->next;
93         }
94
95         return NULL;
96 }
97
98 int irqchip_insert_pending(struct per_cpu *cpu_data, struct pending_irq *irq)
99 {
100         struct pending_irq *prev = NULL;
101         struct pending_irq *slot;
102
103         spin_lock(&cpu_data->gic_lock);
104
105         slot = get_pending_slot(cpu_data, &prev);
106         if (slot == NULL) {
107                 spin_unlock(&cpu_data->gic_lock);
108                 return -ENOMEM;
109         }
110
111         /*
112          * Don't override the pointers yet, they may be read by the injection
113          * loop. Odds are astronomically low, but hey.
114          */
115         memcpy(slot, irq, sizeof(struct pending_irq) - 2 * sizeof(void *));
116         slot->prev = prev;
117         if (prev) {
118                 slot->next = prev->next;
119                 prev->next = slot;
120         } else {
121                 slot->next = cpu_data->first_pending;
122                 cpu_data->first_pending = slot;
123         }
124         if (slot->next)
125                 slot->next->prev = slot;
126
127         spin_unlock(&cpu_data->gic_lock);
128
129         return 0;
130 }
131
132 int irqchip_set_pending(struct per_cpu *cpu_data, u32 irq_id, bool try_inject)
133 {
134         struct pending_irq pending;
135
136         pending.virt_id = irq_id;
137
138         if (try_inject && irqchip.inject_irq(cpu_data, &pending) == 0)
139                 return 0;
140
141         return irqchip_insert_pending(cpu_data, &pending);
142 }
143
144 /*
145  * Only executed by `irqchip_inject_pending' on a CPU to inject its own stuff.
146  */
147 int irqchip_remove_pending(struct per_cpu *cpu_data, struct pending_irq *irq)
148 {
149         spin_lock(&cpu_data->gic_lock);
150
151         if (cpu_data->first_pending == irq)
152                 cpu_data->first_pending = irq->next;
153         if (irq->prev)
154                 irq->prev->next = irq->next;
155         if (irq->next)
156                 irq->next->prev = irq->prev;
157
158         spin_unlock(&cpu_data->gic_lock);
159
160         return 0;
161 }
162
163 void irqchip_inject_pending(struct per_cpu *cpu_data)
164 {
165         int err;
166         struct pending_irq *pending = cpu_data->first_pending;
167
168         while (pending != NULL) {
169                 err = irqchip.inject_irq(cpu_data, pending);
170                 if (err == -EBUSY)
171                         /* The list registers are full. */
172                         break;
173                 else
174                         /*
175                          * Removal only changes the pointers, but does not
176                          * deallocate anything.
177                          * Concurrent accesses are avoided with the spinlock,
178                          * but the `next' pointer of the current pending object
179                          * may be rewritten by an external insert before or
180                          * after this removal, which isn't an issue.
181                          */
182                         irqchip_remove_pending(cpu_data, pending);
183
184                 pending = pending->next;
185         }
186 }
187
188 void irqchip_handle_irq(struct per_cpu *cpu_data)
189 {
190         irqchip.handle_irq(cpu_data);
191 }
192
193 void irqchip_eoi_irq(u32 irqn, bool deactivate)
194 {
195         irqchip.eoi_irq(irqn, deactivate);
196 }
197
198 int irqchip_send_sgi(struct sgi *sgi)
199 {
200         return irqchip.send_sgi(sgi);
201 }
202
203 int irqchip_cpu_init(struct per_cpu *cpu_data)
204 {
205         int err;
206
207         err = irqchip_init_pending(cpu_data);
208         if (err)
209                 return err;
210
211         if (irqchip.cpu_init)
212                 return irqchip.cpu_init(cpu_data);
213
214         return 0;
215 }
216
217 int irqchip_cpu_reset(struct per_cpu *cpu_data)
218 {
219         int err;
220
221         err = irqchip_init_pending(cpu_data);
222         if (err)
223                 return err;
224
225         if (irqchip.cpu_reset)
226                 return irqchip.cpu_reset(cpu_data, false);
227
228         return 0;
229 }
230
231 void irqchip_cpu_shutdown(struct per_cpu *cpu_data)
232 {
233         /*
234          * The GIC backend must take care of only resetting the hyp interface if
235          * it has been initialised: this function may be executed during the
236          * setup phase.
237          */
238         if (irqchip.cpu_reset)
239                 irqchip.cpu_reset(cpu_data, true);
240 }
241
242 static const struct jailhouse_irqchip *
243 irqchip_find_config(struct jailhouse_cell_desc *config)
244 {
245         const struct jailhouse_irqchip *irq_config =
246                 jailhouse_cell_irqchips(config);
247
248         if (config->num_irqchips)
249                 return irq_config;
250         else
251                 return NULL;
252 }
253
254 int irqchip_cell_init(struct cell *cell)
255 {
256         const struct jailhouse_irqchip *pins = irqchip_find_config(cell->config);
257
258         cell->arch.spis = (pins ? pins->pin_bitmap : 0);
259
260         return irqchip.cell_init(cell);
261 }
262
263 void irqchip_cell_exit(struct cell *cell)
264 {
265         const struct jailhouse_irqchip *root_pins =
266                 irqchip_find_config(root_cell.config);
267
268         /* might be called by arch_shutdown while rolling back
269          * a failed setup */
270         if (!irqchip_is_init)
271                 return;
272
273         if (root_pins)
274                 root_cell.arch.spis |= cell->arch.spis & root_pins->pin_bitmap;
275
276         irqchip.cell_exit(cell);
277 }
278
279 void irqchip_root_cell_shrink(struct cell *cell)
280 {
281         root_cell.arch.spis &= ~(cell->arch.spis);
282 }
283
284 /* Only the GIC is implemented */
285 extern struct irqchip_ops gic_irqchip;
286
287 int irqchip_init(void)
288 {
289         int i, err;
290         u32 pidr2, cidr;
291         u32 dev_id = 0;
292
293         /* Only executed on master CPU */
294         if (irqchip_is_init)
295                 return 0;
296
297         /* FIXME: parse device tree */
298         gicd_base = GICD_BASE;
299         gicd_size = GICD_SIZE;
300
301         if ((err = arch_map_device(gicd_base, gicd_base, gicd_size)) != 0)
302                 return err;
303
304         for (i = 3; i >= 0; i--) {
305                 cidr = mmio_read32(gicd_base + GICD_CIDR0 + i * 4);
306                 dev_id |= cidr << i * 8;
307         }
308         if (dev_id != AMBA_DEVICE)
309                 goto err_no_distributor;
310
311         /* Probe the GIC version */
312         pidr2 = mmio_read32(gicd_base + GICD_PIDR2);
313         switch (GICD_PIDR2_ARCH(pidr2)) {
314         case 0x2:
315         case 0x3:
316         case 0x4:
317                 memcpy(&irqchip, &gic_irqchip, sizeof(struct irqchip_ops));
318                 break;
319         }
320
321         if (irqchip.init) {
322                 err = irqchip.init();
323                 irqchip_is_init = true;
324
325                 return err;
326         }
327
328 err_no_distributor:
329         printk("GIC: no distributor found\n");
330         arch_unmap_device(gicd_base, gicd_size);
331
332         return -ENODEV;
333 }