ia64: replace ZONE_DMA with ZONE_DMA32
authorChristoph Hellwig <hch@lst.de>
Sun, 24 Dec 2017 12:20:52 +0000 (13:20 +0100)
committerChristoph Hellwig <hch@lst.de>
Mon, 15 Jan 2018 08:35:51 +0000 (09:35 +0100)
ia64 uses ZONE_DMA for allocations below 32-bits.  These days we
name the zone for that ZONE_DMA32, which will allow to use the
dma-direct and generic swiotlb code as-is, so rename it.

Signed-off-by: Christoph Hellwig <hch@lst.de>
Acked-by: Christian König <christian.koenig@amd.com>
arch/ia64/Kconfig
arch/ia64/kernel/pci-swiotlb.c
arch/ia64/mm/contig.c
arch/ia64/mm/discontig.c

index 4d18fca885ee701671d8bf1f1cda4e153c62a5b2..888acdb163cb8fdecb08fbf0bd19bea777d217dd 100644 (file)
@@ -66,7 +66,7 @@ config 64BIT
        select ATA_NONSTANDARD if ATA
        default y
 
-config ZONE_DMA
+config ZONE_DMA32
        def_bool y
        depends on !IA64_SGI_SN2
 
index f1ae873a8c35c231954ea5ac831d71b8836c96ea..4a9a6e58ad6a688789cc4114f1cc19c9ec48e8db 100644 (file)
@@ -20,7 +20,7 @@ static void *ia64_swiotlb_alloc_coherent(struct device *dev, size_t size,
                                         unsigned long attrs)
 {
        if (dev->coherent_dma_mask != DMA_BIT_MASK(64))
-               gfp |= GFP_DMA;
+               gfp |= GFP_DMA32;
        return swiotlb_alloc_coherent(dev, size, dma_handle, gfp);
 }
 
index 52715a71aede013ecc3151338986e8417b134be0..7d64b30913d1f1b20396de5922b42c8f6b34864e 100644 (file)
@@ -237,9 +237,9 @@ paging_init (void)
        unsigned long max_zone_pfns[MAX_NR_ZONES];
 
        memset(max_zone_pfns, 0, sizeof(max_zone_pfns));
-#ifdef CONFIG_ZONE_DMA
+#ifdef CONFIG_ZONE_DMA32
        max_dma = virt_to_phys((void *) MAX_DMA_ADDRESS) >> PAGE_SHIFT;
-       max_zone_pfns[ZONE_DMA] = max_dma;
+       max_zone_pfns[ZONE_DMA32] = max_dma;
 #endif
        max_zone_pfns[ZONE_NORMAL] = max_low_pfn;
 
index 9b2d994cddf68cfe4d8417148df393aff76b7f8c..ac46f0d60b66060e4f6dcca6a328e8d79424ca4a 100644 (file)
@@ -38,7 +38,7 @@ struct early_node_data {
        struct ia64_node_data *node_data;
        unsigned long pernode_addr;
        unsigned long pernode_size;
-#ifdef CONFIG_ZONE_DMA
+#ifdef CONFIG_ZONE_DMA32
        unsigned long num_dma_physpages;
 #endif
        unsigned long min_pfn;
@@ -669,7 +669,7 @@ static __init int count_node_pages(unsigned long start, unsigned long len, int n
 {
        unsigned long end = start + len;
 
-#ifdef CONFIG_ZONE_DMA
+#ifdef CONFIG_ZONE_DMA32
        if (start <= __pa(MAX_DMA_ADDRESS))
                mem_data[node].num_dma_physpages +=
                        (min(end, __pa(MAX_DMA_ADDRESS)) - start) >>PAGE_SHIFT;
@@ -724,8 +724,8 @@ void __init paging_init(void)
        }
 
        memset(max_zone_pfns, 0, sizeof(max_zone_pfns));
-#ifdef CONFIG_ZONE_DMA
-       max_zone_pfns[ZONE_DMA] = max_dma;
+#ifdef CONFIG_ZONE_DMA32
+       max_zone_pfns[ZONE_DMA32] = max_dma;
 #endif
        max_zone_pfns[ZONE_NORMAL] = max_pfn;
        free_area_init_nodes(max_zone_pfns);