]> rtime.felk.cvut.cz Git - zynq/linux.git/commitdiff
iommu: remove the mapping_error dma_map_ops method
authorChristoph Hellwig <hch@lst.de>
Wed, 21 Nov 2018 18:28:34 +0000 (19:28 +0100)
committerChristoph Hellwig <hch@lst.de>
Thu, 6 Dec 2018 14:56:46 +0000 (06:56 -0800)
Return DMA_MAPPING_ERROR instead of 0 on a dma mapping failure and let
the core dma-mapping code handle the rest.

Note that the existing code used AMD_IOMMU_MAPPING_ERROR to check from
a 0 return from the IOVA allocator, which is replaced with an explicit
0 as in the implementation and other users of that interface.

Signed-off-by: Christoph Hellwig <hch@lst.de>
Acked-by: Linus Torvalds <torvalds@linux-foundation.org>
drivers/iommu/amd_iommu.c

index 1167ff0416cf7471d9fb372e2b32a1f086ec558f..c5d6c7c42b0a4ce67ecc1e679fff367eaf4546fe 100644 (file)
@@ -55,8 +55,6 @@
 #include "amd_iommu_types.h"
 #include "irq_remapping.h"
 
-#define AMD_IOMMU_MAPPING_ERROR        0
-
 #define CMD_SET_TYPE(cmd, t) ((cmd)->data[1] |= ((t) << 28))
 
 #define LOOP_TIMEOUT   100000
@@ -2339,7 +2337,7 @@ static dma_addr_t __map_single(struct device *dev,
        paddr &= PAGE_MASK;
 
        address = dma_ops_alloc_iova(dev, dma_dom, pages, dma_mask);
-       if (address == AMD_IOMMU_MAPPING_ERROR)
+       if (!address)
                goto out;
 
        prot = dir2prot(direction);
@@ -2376,7 +2374,7 @@ out_unmap:
 
        dma_ops_free_iova(dma_dom, address, pages);
 
-       return AMD_IOMMU_MAPPING_ERROR;
+       return DMA_MAPPING_ERROR;
 }
 
 /*
@@ -2427,7 +2425,7 @@ static dma_addr_t map_page(struct device *dev, struct page *page,
        if (PTR_ERR(domain) == -EINVAL)
                return (dma_addr_t)paddr;
        else if (IS_ERR(domain))
-               return AMD_IOMMU_MAPPING_ERROR;
+               return DMA_MAPPING_ERROR;
 
        dma_mask = *dev->dma_mask;
        dma_dom = to_dma_ops_domain(domain);
@@ -2504,7 +2502,7 @@ static int map_sg(struct device *dev, struct scatterlist *sglist,
        npages = sg_num_pages(dev, sglist, nelems);
 
        address = dma_ops_alloc_iova(dev, dma_dom, npages, dma_mask);
-       if (address == AMD_IOMMU_MAPPING_ERROR)
+       if (address == DMA_MAPPING_ERROR)
                goto out_err;
 
        prot = dir2prot(direction);
@@ -2627,7 +2625,7 @@ static void *alloc_coherent(struct device *dev, size_t size,
        *dma_addr = __map_single(dev, dma_dom, page_to_phys(page),
                                 size, DMA_BIDIRECTIONAL, dma_mask);
 
-       if (*dma_addr == AMD_IOMMU_MAPPING_ERROR)
+       if (*dma_addr == DMA_MAPPING_ERROR)
                goto out_free;
 
        return page_address(page);
@@ -2678,11 +2676,6 @@ static int amd_iommu_dma_supported(struct device *dev, u64 mask)
        return check_device(dev);
 }
 
-static int amd_iommu_mapping_error(struct device *dev, dma_addr_t dma_addr)
-{
-       return dma_addr == AMD_IOMMU_MAPPING_ERROR;
-}
-
 static const struct dma_map_ops amd_iommu_dma_ops = {
        .alloc          = alloc_coherent,
        .free           = free_coherent,
@@ -2691,7 +2684,6 @@ static const struct dma_map_ops amd_iommu_dma_ops = {
        .map_sg         = map_sg,
        .unmap_sg       = unmap_sg,
        .dma_supported  = amd_iommu_dma_supported,
-       .mapping_error  = amd_iommu_mapping_error,
 };
 
 static int init_reserved_iova_ranges(void)