]> www.pilppa.org Git - linux-2.6-omap-h63xx.git/blob - arch/x86/include/asm/summit/apic.h
x86: Add cpu_mask_to_apicid_and
[linux-2.6-omap-h63xx.git] / arch / x86 / include / asm / summit / apic.h
1 #ifndef __ASM_SUMMIT_APIC_H
2 #define __ASM_SUMMIT_APIC_H
3
4 #include <asm/smp.h>
5
6 #define esr_disable (1)
7 #define NO_BALANCE_IRQ (0)
8
9 /* In clustered mode, the high nibble of APIC ID is a cluster number.
10  * The low nibble is a 4-bit bitmap. */
11 #define XAPIC_DEST_CPUS_SHIFT   4
12 #define XAPIC_DEST_CPUS_MASK    ((1u << XAPIC_DEST_CPUS_SHIFT) - 1)
13 #define XAPIC_DEST_CLUSTER_MASK (XAPIC_DEST_CPUS_MASK << XAPIC_DEST_CPUS_SHIFT)
14
15 #define APIC_DFR_VALUE  (APIC_DFR_CLUSTER)
16
17 static inline const cpumask_t *target_cpus(void)
18 {
19         /* CPU_MASK_ALL (0xff) has undefined behaviour with
20          * dest_LowestPrio mode logical clustered apic interrupt routing
21          * Just start on cpu 0.  IRQ balancing will spread load
22          */
23         return &cpumask_of_cpu(0);
24 }
25
26 #define INT_DELIVERY_MODE (dest_LowestPrio)
27 #define INT_DEST_MODE 1     /* logical delivery broadcast to all procs */
28
29 static inline unsigned long check_apicid_used(physid_mask_t bitmap, int apicid)
30 {
31         return 0;
32 }
33
34 /* we don't use the phys_cpu_present_map to indicate apicid presence */
35 static inline unsigned long check_apicid_present(int bit)
36 {
37         return 1;
38 }
39
40 #define apicid_cluster(apicid) ((apicid) & XAPIC_DEST_CLUSTER_MASK)
41
42 extern u8 cpu_2_logical_apicid[];
43
44 static inline void init_apic_ldr(void)
45 {
46         unsigned long val, id;
47         int count = 0;
48         u8 my_id = (u8)hard_smp_processor_id();
49         u8 my_cluster = (u8)apicid_cluster(my_id);
50 #ifdef CONFIG_SMP
51         u8 lid;
52         int i;
53
54         /* Create logical APIC IDs by counting CPUs already in cluster. */
55         for (count = 0, i = NR_CPUS; --i >= 0; ) {
56                 lid = cpu_2_logical_apicid[i];
57                 if (lid != BAD_APICID && apicid_cluster(lid) == my_cluster)
58                         ++count;
59         }
60 #endif
61         /* We only have a 4 wide bitmap in cluster mode.  If a deranged
62          * BIOS puts 5 CPUs in one APIC cluster, we're hosed. */
63         BUG_ON(count >= XAPIC_DEST_CPUS_SHIFT);
64         id = my_cluster | (1UL << count);
65         apic_write(APIC_DFR, APIC_DFR_VALUE);
66         val = apic_read(APIC_LDR) & ~APIC_LDR_MASK;
67         val |= SET_APIC_LOGICAL_ID(id);
68         apic_write(APIC_LDR, val);
69 }
70
71 static inline int multi_timer_check(int apic, int irq)
72 {
73         return 0;
74 }
75
76 static inline int apic_id_registered(void)
77 {
78         return 1;
79 }
80
81 static inline void setup_apic_routing(void)
82 {
83         printk("Enabling APIC mode:  Summit.  Using %d I/O APICs\n",
84                                                 nr_ioapics);
85 }
86
87 static inline int apicid_to_node(int logical_apicid)
88 {
89 #ifdef CONFIG_SMP
90         return apicid_2_node[hard_smp_processor_id()];
91 #else
92         return 0;
93 #endif
94 }
95
96 /* Mapping from cpu number to logical apicid */
97 static inline int cpu_to_logical_apicid(int cpu)
98 {
99 #ifdef CONFIG_SMP
100        if (cpu >= NR_CPUS)
101                return BAD_APICID;
102         return (int)cpu_2_logical_apicid[cpu];
103 #else
104         return logical_smp_processor_id();
105 #endif
106 }
107
108 static inline int cpu_present_to_apicid(int mps_cpu)
109 {
110         if (mps_cpu < NR_CPUS)
111                 return (int)per_cpu(x86_bios_cpu_apicid, mps_cpu);
112         else
113                 return BAD_APICID;
114 }
115
116 static inline physid_mask_t ioapic_phys_id_map(physid_mask_t phys_id_map)
117 {
118         /* For clustered we don't have a good way to do this yet - hack */
119         return physids_promote(0x0F);
120 }
121
122 static inline physid_mask_t apicid_to_cpu_present(int apicid)
123 {
124         return physid_mask_of_physid(0);
125 }
126
127 static inline void setup_portio_remap(void)
128 {
129 }
130
131 static inline int check_phys_apicid_present(int boot_cpu_physical_apicid)
132 {
133         return 1;
134 }
135
136 static inline void enable_apic_mode(void)
137 {
138 }
139
140 static inline unsigned int cpu_mask_to_apicid(const cpumask_t *cpumask)
141 {
142         int num_bits_set;
143         int cpus_found = 0;
144         int cpu;
145         int apicid;
146
147         num_bits_set = cpus_weight(*cpumask);
148         /* Return id to all */
149         if (num_bits_set == NR_CPUS)
150                 return (int) 0xFF;
151         /*
152          * The cpus in the mask must all be on the apic cluster.  If are not
153          * on the same apicid cluster return default value of TARGET_CPUS.
154          */
155         cpu = first_cpu(*cpumask);
156         apicid = cpu_to_logical_apicid(cpu);
157         while (cpus_found < num_bits_set) {
158                 if (cpu_isset(cpu, *cpumask)) {
159                         int new_apicid = cpu_to_logical_apicid(cpu);
160                         if (apicid_cluster(apicid) !=
161                                         apicid_cluster(new_apicid)){
162                                 printk ("%s: Not a valid mask!\n", __func__);
163                                 return 0xFF;
164                         }
165                         apicid = apicid | new_apicid;
166                         cpus_found++;
167                 }
168                 cpu++;
169         }
170         return apicid;
171 }
172
173 static inline unsigned int cpu_mask_to_apicid_and(const cpumask_t *cpumask,
174                                                   const cpumask_t *andmask)
175 {
176         int num_bits_set;
177         int num_bits_set2;
178         int cpus_found = 0;
179         int cpu;
180         int apicid = 0;
181
182         num_bits_set = cpus_weight(*cpumask);
183         num_bits_set2 = cpus_weight(*andmask);
184         num_bits_set = min_t(int, num_bits_set, num_bits_set2);
185         /* Return id to all */
186         if (num_bits_set >= nr_cpu_ids)
187                 return 0xFF;
188         /*
189          * The cpus in the mask must all be on the apic cluster.  If are not
190          * on the same apicid cluster return default value of TARGET_CPUS.
191          */
192         while ((cpu = next_cpu(-1, *cpumask)) < nr_cpu_ids)
193                 if (cpu_isset(cpu, *andmask)
194                         apicid = cpu_to_logical_apicid(cpu);
195         while (cpus_found < num_bits_set) {
196                 if (cpu_isset(cpu, *cpumask) && cpu_isset(cpu, *andmask)) {
197                         int new_apicid = cpu_to_logical_apicid(cpu);
198                         if (apicid_cluster(apicid) !=
199                                         apicid_cluster(new_apicid)) {
200                                 printk(KERN_WARNING
201                                         "%s: Not a valid mask!\n", __func__);
202                                 return 0xFF;
203                         }
204                         apicid = apicid | new_apicid;
205                         cpus_found++;
206                 }
207                 cpu++;
208         }
209         return apicid;
210 }
211
212 /* cpuid returns the value latched in the HW at reset, not the APIC ID
213  * register's value.  For any box whose BIOS changes APIC IDs, like
214  * clustered APIC systems, we must use hard_smp_processor_id.
215  *
216  * See Intel's IA-32 SW Dev's Manual Vol2 under CPUID.
217  */
218 static inline u32 phys_pkg_id(u32 cpuid_apic, int index_msb)
219 {
220         return hard_smp_processor_id() >> index_msb;
221 }
222
223 #endif /* __ASM_SUMMIT_APIC_H */