]> rtime.felk.cvut.cz Git - jailhouse.git/blob - hypervisor/arch/arm/gic-v2.c
arm: Unmap virtual GIC on cell destruction
[jailhouse.git] / hypervisor / arch / arm / gic-v2.c
1 /*
2  * Jailhouse, a Linux-based partitioning hypervisor
3  *
4  * Copyright (c) ARM Limited, 2014
5  *
6  * Authors:
7  *  Jean-Philippe Brucker <jean-philippe.brucker@arm.com>
8  *
9  * This work is licensed under the terms of the GNU GPL, version 2.  See
10  * the COPYING file in the top-level directory.
11  */
12
13 #include <jailhouse/control.h>
14 #include <jailhouse/mmio.h>
15 #include <asm/gic_common.h>
16 #include <asm/irqchip.h>
17 #include <asm/platform.h>
18 #include <asm/setup.h>
19
20 static unsigned int gic_num_lr;
21
22 extern void *gicd_base;
23 extern unsigned int gicd_size;
24 void *gicc_base;
25 unsigned int gicc_size;
26 void *gicv_base;
27 void *gich_base;
28 unsigned int gich_size;
29
30 static int gic_init(void)
31 {
32         int err;
33
34         /* FIXME: parse device tree */
35         gicc_base = GICC_BASE;
36         gicc_size = GICC_SIZE;
37         gich_base = GICH_BASE;
38         gich_size = GICH_SIZE;
39         gicv_base = GICV_BASE;
40
41         err = arch_map_device(gicc_base, gicc_base, gicc_size);
42         if (err)
43                 return err;
44
45         err = arch_map_device(gich_base, gich_base, gich_size);
46
47         return err;
48 }
49
50 static void gic_clear_pending_irqs(void)
51 {
52         unsigned int n;
53
54         /* Clear list registers. */
55         for (n = 0; n < gic_num_lr; n++)
56                 gic_write_lr(n, 0);
57
58         /* Clear active priority bits. */
59         mmio_write32(gich_base + GICH_APR, 0);
60 }
61
62 static int gic_cpu_reset(struct per_cpu *cpu_data, bool is_shutdown)
63 {
64         unsigned int i;
65         bool root_shutdown = is_shutdown && (cpu_data->cell == &root_cell);
66         u32 active;
67         u32 gich_vmcr = 0;
68         u32 gicc_ctlr, gicc_pmr;
69
70         gic_clear_pending_irqs();
71
72         /* Deactivate all PPIs */
73         active = mmio_read32(gicd_base + GICD_ISACTIVER);
74         for (i = 16; i < 32; i++) {
75                 if (test_bit(i, (unsigned long *)&active))
76                         mmio_write32(gicc_base + GICC_DIR, i);
77         }
78
79         /* Disable PPIs if necessary */
80         if (!root_shutdown)
81                 mmio_write32(gicd_base + GICD_ICENABLER, 0xffff0000);
82         /* Ensure IPIs are enabled */
83         mmio_write32(gicd_base + GICD_ISENABLER, 0x0000ffff);
84
85         if (is_shutdown)
86                 mmio_write32(gich_base + GICH_HCR, 0);
87
88         if (root_shutdown) {
89                 gich_vmcr = mmio_read32(gich_base + GICH_VMCR);
90                 gicc_ctlr = 0;
91                 gicc_pmr = (gich_vmcr >> GICH_VMCR_PMR_SHIFT) << GICV_PMR_SHIFT;
92
93                 if (gich_vmcr & GICH_VMCR_EN0)
94                         gicc_ctlr |= GICC_CTLR_GRPEN1;
95                 if (gich_vmcr & GICH_VMCR_EOImode)
96                         gicc_ctlr |= GICC_CTLR_EOImode;
97
98                 mmio_write32(gicc_base + GICC_CTLR, gicc_ctlr);
99                 mmio_write32(gicc_base + GICC_PMR, gicc_pmr);
100
101                 gich_vmcr = 0;
102         }
103         mmio_write32(gich_base + GICH_VMCR, gich_vmcr);
104
105         return 0;
106 }
107
108 static int gic_cpu_init(struct per_cpu *cpu_data)
109 {
110         u32 vtr, vmcr;
111         u32 cell_gicc_ctlr, cell_gicc_pmr;
112
113         /* Ensure all IPIs are enabled */
114         mmio_write32(gicd_base + GICD_ISENABLER, 0x0000ffff);
115
116         cell_gicc_ctlr = mmio_read32(gicc_base + GICC_CTLR);
117         cell_gicc_pmr = mmio_read32(gicc_base + GICC_PMR);
118
119         mmio_write32(gicc_base + GICC_CTLR,
120                      GICC_CTLR_GRPEN1 | GICC_CTLR_EOImode);
121         mmio_write32(gicc_base + GICC_PMR, GICC_PMR_DEFAULT);
122
123         vtr = mmio_read32(gich_base + GICH_VTR);
124         gic_num_lr = (vtr & 0x3f) + 1;
125
126         /* VMCR only contains 5 bits of priority */
127         vmcr = (cell_gicc_pmr >> GICV_PMR_SHIFT) << GICH_VMCR_PMR_SHIFT;
128         /*
129          * All virtual interrupts are group 0 in this driver since the GICV
130          * layout seen by the guest corresponds to GICC without security
131          * extensions:
132          * - A read from GICV_IAR doesn't acknowledge group 1 interrupts
133          *   (GICV_AIAR does it, but the guest never attempts to accesses it)
134          * - A write to GICV_CTLR.GRP0EN corresponds to the GICC_CTLR.GRP1EN bit
135          *   Since the guest's driver thinks that it is accessing a GIC with
136          *   security extensions, a write to GPR1EN will enable group 0
137          *   interrups.
138          * - Group 0 interrupts are presented as virtual IRQs (FIQEn = 0)
139          */
140         if (cell_gicc_ctlr & GICC_CTLR_GRPEN1)
141                 vmcr |= GICH_VMCR_EN0;
142         if (cell_gicc_ctlr & GICC_CTLR_EOImode)
143                 vmcr |= GICH_VMCR_EOImode;
144
145         mmio_write32(gich_base + GICH_VMCR, vmcr);
146         mmio_write32(gich_base + GICH_HCR, GICH_HCR_EN);
147
148         /*
149          * Clear pending virtual IRQs in case anything is left from previous
150          * use. Physically pending IRQs will be forwarded to Linux once we
151          * enable interrupts for the hypervisor.
152          */
153         gic_clear_pending_irqs();
154
155         /* Register ourselves into the CPU itf map */
156         gic_probe_cpu_id(cpu_data->cpu_id);
157
158         return 0;
159 }
160
161 static void gic_eoi_irq(u32 irq_id, bool deactivate)
162 {
163         /*
164          * The GIC doesn't seem to care about the CPUID value written to EOIR,
165          * which is rather convenient...
166          */
167         mmio_write32(gicc_base + GICC_EOIR, irq_id);
168         if (deactivate)
169                 mmio_write32(gicc_base + GICC_DIR, irq_id);
170 }
171
172 static int gic_cell_init(struct cell *cell)
173 {
174         /*
175          * target_cpu_map has not been populated by all available CPUs when the
176          * setup code initialises the root cell. It is assumed that the kernel
177          * already has configured all its SPIs anyway, and that it will redirect
178          * them when unplugging a CPU.
179          */
180         if (cell != &root_cell)
181                 gic_target_spis(cell, cell);
182
183         /*
184          * Let the guest access the virtual CPU interface instead of the
185          * physical one.
186          *
187          * WARN: some SoCs (EXYNOS4) use a modified GIC which doesn't have any
188          * banked CPU interface, so we should map per-CPU physical addresses
189          * here.
190          * As for now, none of them seem to have virtualization extensions.
191          */
192         return paging_create(&cell->arch.mm, (unsigned long)gicv_base,
193                              gicc_size, (unsigned long)gicc_base,
194                              (PTE_FLAG_VALID | PTE_ACCESS_FLAG |
195                               S2_PTE_ACCESS_RW | S2_PTE_FLAG_DEVICE),
196                              PAGING_NON_COHERENT);
197 }
198
199 static void gic_cell_exit(struct cell *cell)
200 {
201         paging_destroy(&cell->arch.mm, (unsigned long)gicc_base, gicc_size,
202                        PAGING_NON_COHERENT);
203         /* Reset interrupt routing of the cell's spis */
204         gic_target_spis(cell, &root_cell);
205 }
206
207 static int gic_send_sgi(struct sgi *sgi)
208 {
209         u32 val;
210
211         if (!is_sgi(sgi->id))
212                 return -EINVAL;
213
214         val = (sgi->routing_mode & 0x3) << 24
215                 | (sgi->targets & 0xff) << 16
216                 | (sgi->id & 0xf);
217
218         mmio_write32(gicd_base + GICD_SGIR, val);
219
220         return 0;
221 }
222
223 static int gic_inject_irq(struct per_cpu *cpu_data, struct pending_irq *irq)
224 {
225         int i;
226         int first_free = -1;
227         u32 lr;
228         unsigned long elsr[2];
229
230         elsr[0] = mmio_read32(gich_base + GICH_ELSR0);
231         elsr[1] = mmio_read32(gich_base + GICH_ELSR1);
232         for (i = 0; i < gic_num_lr; i++) {
233                 if (test_bit(i, elsr)) {
234                         /* Entry is available */
235                         if (first_free == -1)
236                                 first_free = i;
237                         continue;
238                 }
239
240                 /* Check that there is no overlapping */
241                 lr = gic_read_lr(i);
242                 if ((lr & GICH_LR_VIRT_ID_MASK) == irq->virt_id)
243                         return -EINVAL;
244         }
245
246         if (first_free == -1) {
247                 /* Enable maintenance IRQ */
248                 u32 hcr;
249                 hcr = mmio_read32(gich_base + GICH_HCR);
250                 hcr |= GICH_HCR_UIE;
251                 mmio_write32(gich_base + GICH_HCR, hcr);
252
253                 return -EBUSY;
254         }
255
256         /* Inject group 0 interrupt (seen as IRQ by the guest) */
257         lr = irq->virt_id;
258         lr |= GICH_LR_PENDING_BIT;
259
260         if (irq->hw) {
261                 lr |= GICH_LR_HW_BIT;
262                 lr |= irq->type.irq << GICH_LR_PHYS_ID_SHIFT;
263         } else {
264                 lr |= irq->type.sgi.cpuid << GICH_LR_CPUID_SHIFT;
265                 if (irq->type.sgi.maintenance)
266                         lr |= GICH_LR_SGI_EOI_BIT;
267         }
268
269         gic_write_lr(first_free, lr);
270
271         return 0;
272 }
273
274 static int gic_mmio_access(struct per_cpu *cpu_data,
275                            struct mmio_access *access)
276 {
277         void *address = (void *)access->addr;
278
279         if (address >= gicd_base && address < gicd_base + gicd_size)
280                 return gic_handle_dist_access(cpu_data, access);
281
282         return TRAP_UNHANDLED;
283 }
284
285 struct irqchip_ops gic_irqchip = {
286         .init = gic_init,
287         .cpu_init = gic_cpu_init,
288         .cpu_reset = gic_cpu_reset,
289         .cell_init = gic_cell_init,
290         .cell_exit = gic_cell_exit,
291
292         .send_sgi = gic_send_sgi,
293         .handle_irq = gic_handle_irq,
294         .inject_irq = gic_inject_irq,
295         .eoi_irq = gic_eoi_irq,
296         .mmio_access = gic_mmio_access,
297 };