]> www.pilppa.org Git - linux-2.6-omap-h63xx.git/blob - arch/x86/kernel/mpparse_32.c
x86: move mp_lapic_addr to apic_32.c
[linux-2.6-omap-h63xx.git] / arch / x86 / kernel / mpparse_32.c
1 /*
2  *      Intel Multiprocessor Specification 1.1 and 1.4
3  *      compliant MP-table parsing routines.
4  *
5  *      (c) 1995 Alan Cox, Building #3 <alan@redhat.com>
6  *      (c) 1998, 1999, 2000 Ingo Molnar <mingo@redhat.com>
7  *
8  *      Fixes
9  *              Erich Boleyn    :       MP v1.4 and additional changes.
10  *              Alan Cox        :       Added EBDA scanning
11  *              Ingo Molnar     :       various cleanups and rewrites
12  *              Maciej W. Rozycki:      Bits for default MP configurations
13  *              Paul Diefenbaugh:       Added full ACPI support
14  */
15
16 #include <linux/mm.h>
17 #include <linux/init.h>
18 #include <linux/acpi.h>
19 #include <linux/delay.h>
20 #include <linux/bootmem.h>
21 #include <linux/kernel_stat.h>
22 #include <linux/mc146818rtc.h>
23 #include <linux/bitops.h>
24
25 #include <asm/smp.h>
26 #include <asm/acpi.h>
27 #include <asm/mtrr.h>
28 #include <asm/mpspec.h>
29 #include <asm/io_apic.h>
30 #include <asm/bios_ebda.h>
31
32 #include <mach_apic.h>
33 #include <mach_apicdef.h>
34 #include <mach_mpparse.h>
35
36 /* Have we found an MP table */
37 int smp_found_config;
38 unsigned int __cpuinitdata maxcpus = NR_CPUS;
39
40 /*
41  * Various Linux-internal data structures created from the
42  * MP-table.
43  */
44 #if defined (CONFIG_MCA) || defined (CONFIG_EISA)
45 int mp_bus_id_to_type [MAX_MP_BUSSES];
46 #endif
47 DECLARE_BITMAP(mp_bus_not_pci, MAX_MP_BUSSES);
48 int mp_bus_id_to_pci_bus [MAX_MP_BUSSES] = { [0 ... MAX_MP_BUSSES-1] = -1 };
49 static int mp_current_pci_id;
50
51 /* I/O APIC entries */
52 struct mpc_config_ioapic mp_ioapics[MAX_IO_APICS];
53
54 /* # of MP IRQ source entries */
55 struct mpc_config_intsrc mp_irqs[MAX_IRQ_SOURCES];
56
57 /* MP IRQ source entries */
58 int mp_irq_entries;
59
60 int nr_ioapics;
61
62 int pic_mode;
63
64 unsigned int def_to_bigsmp = 0;
65
66 /* Processor that is doing the boot up */
67 unsigned int boot_cpu_physical_apicid = -1U;
68 /* Internal processor count */
69 unsigned int num_processors;
70
71 unsigned disabled_cpus __cpuinitdata;
72
73 /* Bitmask of physically existing CPUs */
74 physid_mask_t phys_cpu_present_map;
75
76 #ifndef CONFIG_SMP
77 DEFINE_PER_CPU(u16, x86_bios_cpu_apicid) = BAD_APICID;
78 #endif
79
80 /*
81  * Intel MP BIOS table parsing routines:
82  */
83
84
85 /*
86  * Checksum an MP configuration block.
87  */
88
89 static int __init mpf_checksum(unsigned char *mp, int len)
90 {
91         int sum = 0;
92
93         while (len--)
94                 sum += *mp++;
95
96         return sum & 0xFF;
97 }
98
99 #ifdef CONFIG_X86_NUMAQ
100 /*
101  * Have to match translation table entries to main table entries by counter
102  * hence the mpc_record variable .... can't see a less disgusting way of
103  * doing this ....
104  */
105
106 static int mpc_record; 
107 static struct mpc_config_translation *translation_table[MAX_MPC_ENTRY] __cpuinitdata;
108 #endif
109
110 static void __cpuinit generic_processor_info(int apicid, int version)
111 {
112         int cpu;
113         cpumask_t tmp_map;
114         physid_mask_t phys_cpu;
115
116         /*
117          * Validate version
118          */
119         if (version == 0x0) {
120                 printk(KERN_WARNING "BIOS bug, APIC version is 0 for CPU#%d! "
121                                 "fixing up to 0x10. (tell your hw vendor)\n",
122                                 version);
123                 version = 0x10;
124         }
125         apic_version[apicid] = version;
126
127         phys_cpu = apicid_to_cpu_present(apicid);
128         physids_or(phys_cpu_present_map, phys_cpu_present_map, phys_cpu);
129
130         if (num_processors >= NR_CPUS) {
131                 printk(KERN_WARNING "WARNING: NR_CPUS limit of %i reached."
132                         "  Processor ignored.\n", NR_CPUS);
133                 return;
134         }
135
136         if (num_processors >= maxcpus) {
137                 printk(KERN_WARNING "WARNING: maxcpus limit of %i reached."
138                         " Processor ignored.\n", maxcpus);
139                 return;
140         }
141
142         num_processors++;
143         cpus_complement(tmp_map, cpu_present_map);
144         cpu = first_cpu(tmp_map);
145
146         if (apicid == boot_cpu_physical_apicid)
147                 /*
148                  * x86_bios_cpu_apicid is required to have processors listed
149                  * in same order as logical cpu numbers. Hence the first
150                  * entry is BSP, and so on.
151                  */
152                 cpu = 0;
153
154         /*
155          * Would be preferable to switch to bigsmp when CONFIG_HOTPLUG_CPU=y
156          * but we need to work other dependencies like SMP_SUSPEND etc
157          * before this can be done without some confusion.
158          * if (CPU_HOTPLUG_ENABLED || num_processors > 8)
159          *       - Ashok Raj <ashok.raj@intel.com>
160          */
161         if (num_processors > 8) {
162                 switch (boot_cpu_data.x86_vendor) {
163                 case X86_VENDOR_INTEL:
164                         if (!APIC_XAPIC(version)) {
165                                 def_to_bigsmp = 0;
166                                 break;
167                         }
168                         /* If P4 and above fall through */
169                 case X86_VENDOR_AMD:
170                         def_to_bigsmp = 1;
171                 }
172         }
173 #ifdef CONFIG_SMP
174         /* are we being called early in kernel startup? */
175         if (x86_cpu_to_apicid_early_ptr) {
176                 u16 *cpu_to_apicid = x86_cpu_to_apicid_early_ptr;
177                 u16 *bios_cpu_apicid = x86_bios_cpu_apicid_early_ptr;
178
179                 cpu_to_apicid[cpu] = apicid;
180                 bios_cpu_apicid[cpu] = apicid;
181         } else {
182                 per_cpu(x86_cpu_to_apicid, cpu) = apicid;
183                 per_cpu(x86_bios_cpu_apicid, cpu) = apicid;
184         }
185 #endif
186         cpu_set(cpu, cpu_possible_map);
187         cpu_set(cpu, cpu_present_map);
188 }
189
190 static void __cpuinit MP_processor_info(struct mpc_config_processor *m)
191 {
192         int apicid;
193
194         if (!(m->mpc_cpuflag & CPU_ENABLED)) {
195                 disabled_cpus++;
196                 return;
197         }
198
199 #ifdef CONFIG_X86_NUMAQ
200         apicid = mpc_apic_id(m, translation_table[mpc_record]);
201 #else
202         Dprintk("Processor #%d %u:%u APIC version %d\n",
203                 m->mpc_apicid,
204                 (m->mpc_cpufeature & CPU_FAMILY_MASK) >> 8,
205                 (m->mpc_cpufeature & CPU_MODEL_MASK) >> 4,
206                 m->mpc_apicver);
207         apicid = m->mpc_apicid;
208 #endif
209
210         if (m->mpc_featureflag&(1<<0))
211                 Dprintk("    Floating point unit present.\n");
212         if (m->mpc_featureflag&(1<<7))
213                 Dprintk("    Machine Exception supported.\n");
214         if (m->mpc_featureflag&(1<<8))
215                 Dprintk("    64 bit compare & exchange supported.\n");
216         if (m->mpc_featureflag&(1<<9))
217                 Dprintk("    Internal APIC present.\n");
218         if (m->mpc_featureflag&(1<<11))
219                 Dprintk("    SEP present.\n");
220         if (m->mpc_featureflag&(1<<12))
221                 Dprintk("    MTRR  present.\n");
222         if (m->mpc_featureflag&(1<<13))
223                 Dprintk("    PGE  present.\n");
224         if (m->mpc_featureflag&(1<<14))
225                 Dprintk("    MCA  present.\n");
226         if (m->mpc_featureflag&(1<<15))
227                 Dprintk("    CMOV  present.\n");
228         if (m->mpc_featureflag&(1<<16))
229                 Dprintk("    PAT  present.\n");
230         if (m->mpc_featureflag&(1<<17))
231                 Dprintk("    PSE  present.\n");
232         if (m->mpc_featureflag&(1<<18))
233                 Dprintk("    PSN  present.\n");
234         if (m->mpc_featureflag&(1<<19))
235                 Dprintk("    Cache Line Flush Instruction present.\n");
236         /* 20 Reserved */
237         if (m->mpc_featureflag&(1<<21))
238                 Dprintk("    Debug Trace and EMON Store present.\n");
239         if (m->mpc_featureflag&(1<<22))
240                 Dprintk("    ACPI Thermal Throttle Registers  present.\n");
241         if (m->mpc_featureflag&(1<<23))
242                 Dprintk("    MMX  present.\n");
243         if (m->mpc_featureflag&(1<<24))
244                 Dprintk("    FXSR  present.\n");
245         if (m->mpc_featureflag&(1<<25))
246                 Dprintk("    XMM  present.\n");
247         if (m->mpc_featureflag&(1<<26))
248                 Dprintk("    Willamette New Instructions  present.\n");
249         if (m->mpc_featureflag&(1<<27))
250                 Dprintk("    Self Snoop  present.\n");
251         if (m->mpc_featureflag&(1<<28))
252                 Dprintk("    HT  present.\n");
253         if (m->mpc_featureflag&(1<<29))
254                 Dprintk("    Thermal Monitor present.\n");
255         /* 30, 31 Reserved */
256
257
258         if (m->mpc_cpuflag & CPU_BOOTPROCESSOR) {
259                 Dprintk("    Bootup CPU\n");
260                 boot_cpu_physical_apicid = m->mpc_apicid;
261         }
262
263         generic_processor_info(apicid, m->mpc_apicver);
264 }
265
266 static void __init MP_bus_info (struct mpc_config_bus *m)
267 {
268         char str[7];
269
270         memcpy(str, m->mpc_bustype, 6);
271         str[6] = 0;
272
273 #ifdef CONFIG_X86_NUMAQ
274         mpc_oem_bus_info(m, str, translation_table[mpc_record]);
275 #else
276         Dprintk("Bus #%d is %s\n", m->mpc_busid, str);
277 #endif
278
279 #if MAX_MP_BUSSES < 256
280         if (m->mpc_busid >= MAX_MP_BUSSES) {
281                 printk(KERN_WARNING "MP table busid value (%d) for bustype %s "
282                         " is too large, max. supported is %d\n",
283                         m->mpc_busid, str, MAX_MP_BUSSES - 1);
284                 return;
285         }
286 #endif
287
288         set_bit(m->mpc_busid, mp_bus_not_pci);
289         if (strncmp(str, BUSTYPE_PCI, sizeof(BUSTYPE_PCI)-1) == 0) {
290 #ifdef CONFIG_X86_NUMAQ
291                 mpc_oem_pci_bus(m, translation_table[mpc_record]);
292 #endif
293                 clear_bit(m->mpc_busid, mp_bus_not_pci);
294                 mp_bus_id_to_pci_bus[m->mpc_busid] = mp_current_pci_id;
295                 mp_current_pci_id++;
296 #if defined(CONFIG_EISA) || defined (CONFIG_MCA)
297                 mp_bus_id_to_type[m->mpc_busid] = MP_BUS_PCI;
298         } else if (strncmp(str, BUSTYPE_ISA, sizeof(BUSTYPE_ISA)-1) == 0) {
299                 mp_bus_id_to_type[m->mpc_busid] = MP_BUS_ISA;
300         } else if (strncmp(str, BUSTYPE_EISA, sizeof(BUSTYPE_EISA)-1) == 0) {
301                 mp_bus_id_to_type[m->mpc_busid] = MP_BUS_EISA;
302         } else if (strncmp(str, BUSTYPE_MCA, sizeof(BUSTYPE_MCA)-1) == 0) {
303                 mp_bus_id_to_type[m->mpc_busid] = MP_BUS_MCA;
304         } else {
305                 printk(KERN_WARNING "Unknown bustype %s - ignoring\n", str);
306 #endif
307         }
308 }
309
310 static int bad_ioapic(unsigned long address)
311 {
312         if (nr_ioapics >= MAX_IO_APICS) {
313                 printk(KERN_ERR "ERROR: Max # of I/O APICs (%d) exceeded "
314                        "(found %d)\n", MAX_IO_APICS, nr_ioapics);
315                 panic("Recompile kernel with bigger MAX_IO_APICS!\n");
316         }
317         if (!address) {
318                 printk(KERN_ERR "WARNING: Bogus (zero) I/O APIC address"
319                        " found in table, skipping!\n");
320                 return 1;
321         }
322         return 0;
323 }
324
325 static void __init MP_ioapic_info (struct mpc_config_ioapic *m)
326 {
327         if (!(m->mpc_flags & MPC_APIC_USABLE))
328                 return;
329
330         printk(KERN_INFO "I/O APIC #%d Version %d at 0x%X.\n",
331                 m->mpc_apicid, m->mpc_apicver, m->mpc_apicaddr);
332
333         if (bad_ioapic(m->mpc_apicaddr))
334                 return;
335
336         mp_ioapics[nr_ioapics] = *m;
337         nr_ioapics++;
338 }
339
340 static void __init MP_intsrc_info (struct mpc_config_intsrc *m)
341 {
342         mp_irqs [mp_irq_entries] = *m;
343         Dprintk("Int: type %d, pol %d, trig %d, bus %d,"
344                 " IRQ %02x, APIC ID %x, APIC INT %02x\n",
345                         m->mpc_irqtype, m->mpc_irqflag & 3,
346                         (m->mpc_irqflag >> 2) & 3, m->mpc_srcbus,
347                         m->mpc_srcbusirq, m->mpc_dstapic, m->mpc_dstirq);
348         if (++mp_irq_entries == MAX_IRQ_SOURCES)
349                 panic("Max # of irq sources exceeded!!\n");
350 }
351
352 static void __init MP_lintsrc_info (struct mpc_config_lintsrc *m)
353 {
354         Dprintk("Lint: type %d, pol %d, trig %d, bus %d,"
355                 " IRQ %02x, APIC ID %x, APIC LINT %02x\n",
356                         m->mpc_irqtype, m->mpc_irqflag & 3,
357                         (m->mpc_irqflag >> 2) &3, m->mpc_srcbusid,
358                         m->mpc_srcbusirq, m->mpc_destapic, m->mpc_destapiclint);
359 }
360
361 #ifdef CONFIG_X86_NUMAQ
362 static void __init MP_translation_info (struct mpc_config_translation *m)
363 {
364         printk(KERN_INFO "Translation: record %d, type %d, quad %d, global %d, local %d\n", mpc_record, m->trans_type, m->trans_quad, m->trans_global, m->trans_local);
365
366         if (mpc_record >= MAX_MPC_ENTRY) 
367                 printk(KERN_ERR "MAX_MPC_ENTRY exceeded!\n");
368         else
369                 translation_table[mpc_record] = m; /* stash this for later */
370         if (m->trans_quad < MAX_NUMNODES && !node_online(m->trans_quad))
371                 node_set_online(m->trans_quad);
372 }
373
374 /*
375  * Read/parse the MPC oem tables
376  */
377
378 static void __init smp_read_mpc_oem(struct mp_config_oemtable *oemtable, \
379         unsigned short oemsize)
380 {
381         int count = sizeof (*oemtable); /* the header size */
382         unsigned char *oemptr = ((unsigned char *)oemtable)+count;
383         
384         mpc_record = 0;
385         printk(KERN_INFO "Found an OEM MPC table at %8p - parsing it ... \n", oemtable);
386         if (memcmp(oemtable->oem_signature,MPC_OEM_SIGNATURE,4))
387         {
388                 printk(KERN_WARNING "SMP mpc oemtable: bad signature [%c%c%c%c]!\n",
389                         oemtable->oem_signature[0],
390                         oemtable->oem_signature[1],
391                         oemtable->oem_signature[2],
392                         oemtable->oem_signature[3]);
393                 return;
394         }
395         if (mpf_checksum((unsigned char *)oemtable,oemtable->oem_length))
396         {
397                 printk(KERN_WARNING "SMP oem mptable: checksum error!\n");
398                 return;
399         }
400         while (count < oemtable->oem_length) {
401                 switch (*oemptr) {
402                         case MP_TRANSLATION:
403                         {
404                                 struct mpc_config_translation *m=
405                                         (struct mpc_config_translation *)oemptr;
406                                 MP_translation_info(m);
407                                 oemptr += sizeof(*m);
408                                 count += sizeof(*m);
409                                 ++mpc_record;
410                                 break;
411                         }
412                         default:
413                         {
414                                 printk(KERN_WARNING "Unrecognised OEM table entry type! - %d\n", (int) *oemptr);
415                                 return;
416                         }
417                 }
418        }
419 }
420
421 static inline void mps_oem_check(struct mp_config_table *mpc, char *oem,
422                 char *productid)
423 {
424         if (strncmp(oem, "IBM NUMA", 8))
425                 printk("Warning!  May not be a NUMA-Q system!\n");
426         if (mpc->mpc_oemptr)
427                 smp_read_mpc_oem((struct mp_config_oemtable *) mpc->mpc_oemptr,
428                                 mpc->mpc_oemsize);
429 }
430 #endif  /* CONFIG_X86_NUMAQ */
431
432 /*
433  * Read/parse the MPC
434  */
435
436 static int __init smp_read_mpc(struct mp_config_table *mpc)
437 {
438         char str[16];
439         char oem[10];
440         int count=sizeof(*mpc);
441         unsigned char *mpt=((unsigned char *)mpc)+count;
442
443         if (memcmp(mpc->mpc_signature,MPC_SIGNATURE,4)) {
444                 printk(KERN_ERR "SMP mptable: bad signature [0x%x]!\n",
445                         *(u32 *)mpc->mpc_signature);
446                 return 0;
447         }
448         if (mpf_checksum((unsigned char *)mpc,mpc->mpc_length)) {
449                 printk(KERN_ERR "SMP mptable: checksum error!\n");
450                 return 0;
451         }
452         if (mpc->mpc_spec!=0x01 && mpc->mpc_spec!=0x04) {
453                 printk(KERN_ERR "SMP mptable: bad table version (%d)!!\n",
454                         mpc->mpc_spec);
455                 return 0;
456         }
457         if (!mpc->mpc_lapic) {
458                 printk(KERN_ERR "SMP mptable: null local APIC address!\n");
459                 return 0;
460         }
461         memcpy(oem,mpc->mpc_oem,8);
462         oem[8]=0;
463         printk(KERN_INFO "OEM ID: %s ",oem);
464
465         memcpy(str,mpc->mpc_productid,12);
466         str[12]=0;
467         printk("Product ID: %s ",str);
468
469         mps_oem_check(mpc, oem, str);
470
471         printk("APIC at: 0x%X\n", mpc->mpc_lapic);
472
473         /*
474          * Save the local APIC address (it might be non-default) -- but only
475          * if we're not using ACPI.
476          */
477         if (!acpi_lapic)
478                 mp_lapic_addr = mpc->mpc_lapic;
479
480         /*
481          *      Now process the configuration blocks.
482          */
483 #ifdef CONFIG_X86_NUMAQ
484         mpc_record = 0;
485 #endif
486         while (count < mpc->mpc_length) {
487                 switch(*mpt) {
488                         case MP_PROCESSOR:
489                         {
490                                 struct mpc_config_processor *m=
491                                         (struct mpc_config_processor *)mpt;
492                                 /* ACPI may have already provided this data */
493                                 if (!acpi_lapic)
494                                         MP_processor_info(m);
495                                 mpt += sizeof(*m);
496                                 count += sizeof(*m);
497                                 break;
498                         }
499                         case MP_BUS:
500                         {
501                                 struct mpc_config_bus *m=
502                                         (struct mpc_config_bus *)mpt;
503                                 MP_bus_info(m);
504                                 mpt += sizeof(*m);
505                                 count += sizeof(*m);
506                                 break;
507                         }
508                         case MP_IOAPIC:
509                         {
510                                 struct mpc_config_ioapic *m=
511                                         (struct mpc_config_ioapic *)mpt;
512                                 MP_ioapic_info(m);
513                                 mpt+=sizeof(*m);
514                                 count+=sizeof(*m);
515                                 break;
516                         }
517                         case MP_INTSRC:
518                         {
519                                 struct mpc_config_intsrc *m=
520                                         (struct mpc_config_intsrc *)mpt;
521
522                                 MP_intsrc_info(m);
523                                 mpt+=sizeof(*m);
524                                 count+=sizeof(*m);
525                                 break;
526                         }
527                         case MP_LINTSRC:
528                         {
529                                 struct mpc_config_lintsrc *m=
530                                         (struct mpc_config_lintsrc *)mpt;
531                                 MP_lintsrc_info(m);
532                                 mpt+=sizeof(*m);
533                                 count+=sizeof(*m);
534                                 break;
535                         }
536                         default:
537                         {
538                                 count = mpc->mpc_length;
539                                 break;
540                         }
541                 }
542 #ifdef CONFIG_X86_NUMAQ
543                 ++mpc_record;
544 #endif
545         }
546         setup_apic_routing();
547         if (!num_processors)
548                 printk(KERN_ERR "SMP mptable: no processors registered!\n");
549         return num_processors;
550 }
551
552 static int __init ELCR_trigger(unsigned int irq)
553 {
554         unsigned int port;
555
556         port = 0x4d0 + (irq >> 3);
557         return (inb(port) >> (irq & 7)) & 1;
558 }
559
560 static void __init construct_default_ioirq_mptable(int mpc_default_type)
561 {
562         struct mpc_config_intsrc intsrc;
563         int i;
564         int ELCR_fallback = 0;
565
566         intsrc.mpc_type = MP_INTSRC;
567         intsrc.mpc_irqflag = 0;                 /* conforming */
568         intsrc.mpc_srcbus = 0;
569         intsrc.mpc_dstapic = mp_ioapics[0].mpc_apicid;
570
571         intsrc.mpc_irqtype = mp_INT;
572
573         /*
574          *  If true, we have an ISA/PCI system with no IRQ entries
575          *  in the MP table. To prevent the PCI interrupts from being set up
576          *  incorrectly, we try to use the ELCR. The sanity check to see if
577          *  there is good ELCR data is very simple - IRQ0, 1, 2 and 13 can
578          *  never be level sensitive, so we simply see if the ELCR agrees.
579          *  If it does, we assume it's valid.
580          */
581         if (mpc_default_type == 5) {
582                 printk(KERN_INFO "ISA/PCI bus type with no IRQ information... falling back to ELCR\n");
583
584                 if (ELCR_trigger(0) || ELCR_trigger(1) || ELCR_trigger(2) || ELCR_trigger(13))
585                         printk(KERN_WARNING "ELCR contains invalid data... not using ELCR\n");
586                 else {
587                         printk(KERN_INFO "Using ELCR to identify PCI interrupts\n");
588                         ELCR_fallback = 1;
589                 }
590         }
591
592         for (i = 0; i < 16; i++) {
593                 switch (mpc_default_type) {
594                 case 2:
595                         if (i == 0 || i == 13)
596                                 continue;       /* IRQ0 & IRQ13 not connected */
597                         /* fall through */
598                 default:
599                         if (i == 2)
600                                 continue;       /* IRQ2 is never connected */
601                 }
602
603                 if (ELCR_fallback) {
604                         /*
605                          *  If the ELCR indicates a level-sensitive interrupt, we
606                          *  copy that information over to the MP table in the
607                          *  irqflag field (level sensitive, active high polarity).
608                          */
609                         if (ELCR_trigger(i))
610                                 intsrc.mpc_irqflag = 13;
611                         else
612                                 intsrc.mpc_irqflag = 0;
613                 }
614
615                 intsrc.mpc_srcbusirq = i;
616                 intsrc.mpc_dstirq = i ? i : 2;          /* IRQ0 to INTIN2 */
617                 MP_intsrc_info(&intsrc);
618         }
619
620         intsrc.mpc_irqtype = mp_ExtINT;
621         intsrc.mpc_srcbusirq = 0;
622         intsrc.mpc_dstirq = 0;                          /* 8259A to INTIN0 */
623         MP_intsrc_info(&intsrc);
624 }
625
626 static inline void __init construct_default_ISA_mptable(int mpc_default_type)
627 {
628         struct mpc_config_processor processor;
629         struct mpc_config_bus bus;
630         struct mpc_config_ioapic ioapic;
631         struct mpc_config_lintsrc lintsrc;
632         int linttypes[2] = { mp_ExtINT, mp_NMI };
633         int i;
634
635         /*
636          * local APIC has default address
637          */
638         mp_lapic_addr = APIC_DEFAULT_PHYS_BASE;
639
640         /*
641          * 2 CPUs, numbered 0 & 1.
642          */
643         processor.mpc_type = MP_PROCESSOR;
644         /* Either an integrated APIC or a discrete 82489DX. */
645         processor.mpc_apicver = mpc_default_type > 4 ? 0x10 : 0x01;
646         processor.mpc_cpuflag = CPU_ENABLED;
647         processor.mpc_cpufeature = (boot_cpu_data.x86 << 8) |
648                                    (boot_cpu_data.x86_model << 4) |
649                                    boot_cpu_data.x86_mask;
650         processor.mpc_featureflag = boot_cpu_data.x86_capability[0];
651         processor.mpc_reserved[0] = 0;
652         processor.mpc_reserved[1] = 0;
653         for (i = 0; i < 2; i++) {
654                 processor.mpc_apicid = i;
655                 MP_processor_info(&processor);
656         }
657
658         bus.mpc_type = MP_BUS;
659         bus.mpc_busid = 0;
660         switch (mpc_default_type) {
661                 default:
662                         printk("???\n");
663                         printk(KERN_ERR "Unknown standard configuration %d\n",
664                                 mpc_default_type);
665                         /* fall through */
666                 case 1:
667                 case 5:
668                         memcpy(bus.mpc_bustype, "ISA   ", 6);
669                         break;
670                 case 2:
671                 case 6:
672                 case 3:
673                         memcpy(bus.mpc_bustype, "EISA  ", 6);
674                         break;
675                 case 4:
676                 case 7:
677                         memcpy(bus.mpc_bustype, "MCA   ", 6);
678         }
679         MP_bus_info(&bus);
680         if (mpc_default_type > 4) {
681                 bus.mpc_busid = 1;
682                 memcpy(bus.mpc_bustype, "PCI   ", 6);
683                 MP_bus_info(&bus);
684         }
685
686         ioapic.mpc_type = MP_IOAPIC;
687         ioapic.mpc_apicid = 2;
688         ioapic.mpc_apicver = mpc_default_type > 4 ? 0x10 : 0x01;
689         ioapic.mpc_flags = MPC_APIC_USABLE;
690         ioapic.mpc_apicaddr = 0xFEC00000;
691         MP_ioapic_info(&ioapic);
692
693         /*
694          * We set up most of the low 16 IO-APIC pins according to MPS rules.
695          */
696         construct_default_ioirq_mptable(mpc_default_type);
697
698         lintsrc.mpc_type = MP_LINTSRC;
699         lintsrc.mpc_irqflag = 0;                /* conforming */
700         lintsrc.mpc_srcbusid = 0;
701         lintsrc.mpc_srcbusirq = 0;
702         lintsrc.mpc_destapic = MP_APIC_ALL;
703         for (i = 0; i < 2; i++) {
704                 lintsrc.mpc_irqtype = linttypes[i];
705                 lintsrc.mpc_destapiclint = i;
706                 MP_lintsrc_info(&lintsrc);
707         }
708 }
709
710 static struct intel_mp_floating *mpf_found;
711
712 /*
713  * Scan the memory blocks for an SMP configuration block.
714  */
715 void __init get_smp_config (void)
716 {
717         struct intel_mp_floating *mpf = mpf_found;
718
719         /*
720          * ACPI supports both logical (e.g. Hyper-Threading) and physical 
721          * processors, where MPS only supports physical.
722          */
723         if (acpi_lapic && acpi_ioapic) {
724                 printk(KERN_INFO "Using ACPI (MADT) for SMP configuration information\n");
725                 return;
726         }
727         else if (acpi_lapic)
728                 printk(KERN_INFO "Using ACPI for processor (LAPIC) configuration information\n");
729
730         printk(KERN_INFO "Intel MultiProcessor Specification v1.%d\n", mpf->mpf_specification);
731         if (mpf->mpf_feature2 & (1<<7)) {
732                 printk(KERN_INFO "    IMCR and PIC compatibility mode.\n");
733                 pic_mode = 1;
734         } else {
735                 printk(KERN_INFO "    Virtual Wire compatibility mode.\n");
736                 pic_mode = 0;
737         }
738
739         /*
740          * Now see if we need to read further.
741          */
742         if (mpf->mpf_feature1 != 0) {
743
744                 printk(KERN_INFO "Default MP configuration #%d\n", mpf->mpf_feature1);
745                 construct_default_ISA_mptable(mpf->mpf_feature1);
746
747         } else if (mpf->mpf_physptr) {
748
749                 /*
750                  * Read the physical hardware table.  Anything here will
751                  * override the defaults.
752                  */
753                 if (!smp_read_mpc(phys_to_virt(mpf->mpf_physptr))) {
754                         smp_found_config = 0;
755                         printk(KERN_ERR "BIOS bug, MP table errors detected!...\n");
756                         printk(KERN_ERR "... disabling SMP support. (tell your hw vendor)\n");
757                         return;
758                 }
759                 /*
760                  * If there are no explicit MP IRQ entries, then we are
761                  * broken.  We set up most of the low 16 IO-APIC pins to
762                  * ISA defaults and hope it will work.
763                  */
764                 if (!mp_irq_entries) {
765                         struct mpc_config_bus bus;
766
767                         printk(KERN_ERR "BIOS bug, no explicit IRQ entries, using default mptable. (tell your hw vendor)\n");
768
769                         bus.mpc_type = MP_BUS;
770                         bus.mpc_busid = 0;
771                         memcpy(bus.mpc_bustype, "ISA   ", 6);
772                         MP_bus_info(&bus);
773
774                         construct_default_ioirq_mptable(0);
775                 }
776
777         } else
778                 BUG();
779
780         printk(KERN_INFO "Processors: %d\n", num_processors);
781         /*
782          * Only use the first configuration found.
783          */
784 }
785
786 static int __init smp_scan_config (unsigned long base, unsigned long length)
787 {
788         unsigned long *bp = phys_to_virt(base);
789         struct intel_mp_floating *mpf;
790
791         printk(KERN_INFO "Scan SMP from %p for %ld bytes.\n", bp,length);
792         if (sizeof(*mpf) != 16)
793                 printk("Error: MPF size\n");
794
795         while (length > 0) {
796                 mpf = (struct intel_mp_floating *)bp;
797                 if ((*bp == SMP_MAGIC_IDENT) &&
798                         (mpf->mpf_length == 1) &&
799                         !mpf_checksum((unsigned char *)bp, 16) &&
800                         ((mpf->mpf_specification == 1)
801                                 || (mpf->mpf_specification == 4)) ) {
802
803                         smp_found_config = 1;
804                         printk(KERN_INFO "found SMP MP-table at [%p] %08lx\n",
805                                 mpf, virt_to_phys(mpf));
806                         reserve_bootmem(virt_to_phys(mpf), PAGE_SIZE,
807                                         BOOTMEM_DEFAULT);
808                         if (mpf->mpf_physptr) {
809                                 /*
810                                  * We cannot access to MPC table to compute
811                                  * table size yet, as only few megabytes from
812                                  * the bottom is mapped now.
813                                  * PC-9800's MPC table places on the very last
814                                  * of physical memory; so that simply reserving
815                                  * PAGE_SIZE from mpg->mpf_physptr yields BUG()
816                                  * in reserve_bootmem.
817                                  */
818                                 unsigned long size = PAGE_SIZE;
819                                 unsigned long end = max_low_pfn * PAGE_SIZE;
820                                 if (mpf->mpf_physptr + size > end)
821                                         size = end - mpf->mpf_physptr;
822                                 reserve_bootmem(mpf->mpf_physptr, size,
823                                                 BOOTMEM_DEFAULT);
824                         }
825
826                         mpf_found = mpf;
827                         return 1;
828                 }
829                 bp += 4;
830                 length -= 16;
831         }
832         return 0;
833 }
834
835 void __init find_smp_config (void)
836 {
837         unsigned int address;
838
839         /*
840          * FIXME: Linux assumes you have 640K of base ram..
841          * this continues the error...
842          *
843          * 1) Scan the bottom 1K for a signature
844          * 2) Scan the top 1K of base RAM
845          * 3) Scan the 64K of bios
846          */
847         if (smp_scan_config(0x0,0x400) ||
848                 smp_scan_config(639*0x400,0x400) ||
849                         smp_scan_config(0xF0000,0x10000))
850                 return;
851         /*
852          * If it is an SMP machine we should know now, unless the
853          * configuration is in an EISA/MCA bus machine with an
854          * extended bios data area.
855          *
856          * there is a real-mode segmented pointer pointing to the
857          * 4K EBDA area at 0x40E, calculate and scan it here.
858          *
859          * NOTE! There are Linux loaders that will corrupt the EBDA
860          * area, and as such this kind of SMP config may be less
861          * trustworthy, simply because the SMP table may have been
862          * stomped on during early boot. These loaders are buggy and
863          * should be fixed.
864          *
865          * MP1.4 SPEC states to only scan first 1K of 4K EBDA.
866          */
867
868         address = get_bios_ebda();
869         if (address)
870                 smp_scan_config(address, 0x400);
871 }
872
873 /* --------------------------------------------------------------------------
874                             ACPI-based MP Configuration
875    -------------------------------------------------------------------------- */
876
877 #ifdef CONFIG_ACPI
878
879 void __init mp_register_lapic_address(u64 address)
880 {
881         mp_lapic_addr = (unsigned long) address;
882
883         set_fixmap_nocache(FIX_APIC_BASE, mp_lapic_addr);
884
885         if (boot_cpu_physical_apicid == -1U)
886                 boot_cpu_physical_apicid = GET_APIC_ID(apic_read(APIC_ID));
887
888         Dprintk("Boot CPU = %d\n", boot_cpu_physical_apicid);
889 }
890
891 void __cpuinit mp_register_lapic (u8 id, u8 enabled)
892 {
893         if (MAX_APICS - id <= 0) {
894                 printk(KERN_WARNING "Processor #%d invalid (max %d)\n",
895                         id, MAX_APICS);
896                 return;
897         }
898
899         if (!enabled) {
900                 ++disabled_cpus;
901                 return;
902         }
903
904         generic_processor_info(id, GET_APIC_VERSION(apic_read(APIC_LVR)));
905 }
906
907 #ifdef  CONFIG_X86_IO_APIC
908
909 #define MP_ISA_BUS              0
910 #define MP_MAX_IOAPIC_PIN       127
911
912 static struct mp_ioapic_routing {
913         int                     apic_id;
914         int                     gsi_base;
915         int                     gsi_end;
916         u32                     pin_programmed[4];
917 } mp_ioapic_routing[MAX_IO_APICS];
918
919 static int mp_find_ioapic (int gsi)
920 {
921         int i = 0;
922
923         /* Find the IOAPIC that manages this GSI. */
924         for (i = 0; i < nr_ioapics; i++) {
925                 if ((gsi >= mp_ioapic_routing[i].gsi_base)
926                         && (gsi <= mp_ioapic_routing[i].gsi_end))
927                         return i;
928         }
929
930         printk(KERN_ERR "ERROR: Unable to locate IOAPIC for GSI %d\n", gsi);
931
932         return -1;
933 }
934
935 static u8 uniq_ioapic_id(u8 id)
936 {
937         if ((boot_cpu_data.x86_vendor == X86_VENDOR_INTEL) &&
938             !APIC_XAPIC(apic_version[boot_cpu_physical_apicid]))
939                 return io_apic_get_unique_id(nr_ioapics, id);
940         else
941                 return id;
942 }
943
944 void __init mp_register_ioapic(u8 id, u32 address, u32 gsi_base)
945 {
946         int idx = 0;
947
948         if (bad_ioapic(address))
949                 return;
950
951         idx = nr_ioapics;
952
953         mp_ioapics[idx].mpc_type = MP_IOAPIC;
954         mp_ioapics[idx].mpc_flags = MPC_APIC_USABLE;
955         mp_ioapics[idx].mpc_apicaddr = address;
956
957         set_fixmap_nocache(FIX_IO_APIC_BASE_0 + idx, address);
958         mp_ioapics[idx].mpc_apicid = uniq_ioapic_id(id);
959         mp_ioapics[idx].mpc_apicver = io_apic_get_version(idx);
960         
961         /* 
962          * Build basic GSI lookup table to facilitate gsi->io_apic lookups
963          * and to prevent reprogramming of IOAPIC pins (PCI GSIs).
964          */
965         mp_ioapic_routing[idx].apic_id = mp_ioapics[idx].mpc_apicid;
966         mp_ioapic_routing[idx].gsi_base = gsi_base;
967         mp_ioapic_routing[idx].gsi_end = gsi_base +
968                 io_apic_get_redir_entries(idx);
969
970         printk("IOAPIC[%d]: apic_id %d, version %d, address 0x%x, "
971                "GSI %d-%d\n", idx, mp_ioapics[idx].mpc_apicid,
972                mp_ioapics[idx].mpc_apicver,
973                mp_ioapics[idx].mpc_apicaddr,
974                mp_ioapic_routing[idx].gsi_base,
975                mp_ioapic_routing[idx].gsi_end);
976
977         nr_ioapics++;
978 }
979
980 void __init
981 mp_override_legacy_irq(u8 bus_irq, u8 polarity, u8 trigger, u32 gsi)
982 {
983         struct mpc_config_intsrc intsrc;
984         int                     ioapic = -1;
985         int                     pin = -1;
986
987         /* 
988          * Convert 'gsi' to 'ioapic.pin'.
989          */
990         ioapic = mp_find_ioapic(gsi);
991         if (ioapic < 0)
992                 return;
993         pin = gsi - mp_ioapic_routing[ioapic].gsi_base;
994
995         /*
996          * TBD: This check is for faulty timer entries, where the override
997          *      erroneously sets the trigger to level, resulting in a HUGE 
998          *      increase of timer interrupts!
999          */
1000         if ((bus_irq == 0) && (trigger == 3))
1001                 trigger = 1;
1002
1003         intsrc.mpc_type = MP_INTSRC;
1004         intsrc.mpc_irqtype = mp_INT;
1005         intsrc.mpc_irqflag = (trigger << 2) | polarity;
1006         intsrc.mpc_srcbus = MP_ISA_BUS;
1007         intsrc.mpc_srcbusirq = bus_irq;                                /* IRQ */
1008         intsrc.mpc_dstapic = mp_ioapics[ioapic].mpc_apicid;        /* APIC ID */
1009         intsrc.mpc_dstirq = pin;                                    /* INTIN# */
1010
1011         Dprintk("Int: type %d, pol %d, trig %d, bus %d, irq %d, %d-%d\n",
1012                 intsrc.mpc_irqtype, intsrc.mpc_irqflag & 3, 
1013                 (intsrc.mpc_irqflag >> 2) & 3, intsrc.mpc_srcbus, 
1014                 intsrc.mpc_srcbusirq, intsrc.mpc_dstapic, intsrc.mpc_dstirq);
1015
1016         mp_irqs[mp_irq_entries] = intsrc;
1017         if (++mp_irq_entries == MAX_IRQ_SOURCES)
1018                 panic("Max # of irq sources exceeded!\n");
1019 }
1020
1021 int es7000_plat;
1022
1023 void __init mp_config_acpi_legacy_irqs (void)
1024 {
1025         struct mpc_config_intsrc intsrc;
1026         int i = 0;
1027         int ioapic = -1;
1028
1029 #if defined (CONFIG_MCA) || defined (CONFIG_EISA)
1030         /* 
1031          * Fabricate the legacy ISA bus (bus #31).
1032          */
1033         mp_bus_id_to_type[MP_ISA_BUS] = MP_BUS_ISA;
1034 #endif
1035         set_bit(MP_ISA_BUS, mp_bus_not_pci);
1036         Dprintk("Bus #%d is ISA\n", MP_ISA_BUS);
1037
1038         /*
1039          * Older generations of ES7000 have no legacy identity mappings
1040          */
1041         if (es7000_plat == 1)
1042                 return;
1043
1044         /* 
1045          * Locate the IOAPIC that manages the ISA IRQs (0-15). 
1046          */
1047         ioapic = mp_find_ioapic(0);
1048         if (ioapic < 0)
1049                 return;
1050
1051         intsrc.mpc_type = MP_INTSRC;
1052         intsrc.mpc_irqflag = 0;                                 /* Conforming */
1053         intsrc.mpc_srcbus = MP_ISA_BUS;
1054         intsrc.mpc_dstapic = mp_ioapics[ioapic].mpc_apicid;
1055
1056         /* 
1057          * Use the default configuration for the IRQs 0-15.  Unless
1058          * overridden by (MADT) interrupt source override entries.
1059          */
1060         for (i = 0; i < 16; i++) {
1061                 int idx;
1062
1063                 for (idx = 0; idx < mp_irq_entries; idx++) {
1064                         struct mpc_config_intsrc *irq = mp_irqs + idx;
1065
1066                         /* Do we already have a mapping for this ISA IRQ? */
1067                         if (irq->mpc_srcbus == MP_ISA_BUS && irq->mpc_srcbusirq == i)
1068                                 break;
1069
1070                         /* Do we already have a mapping for this IOAPIC pin */
1071                         if ((irq->mpc_dstapic == intsrc.mpc_dstapic) &&
1072                                 (irq->mpc_dstirq == i))
1073                                 break;
1074                 }
1075
1076                 if (idx != mp_irq_entries) {
1077                         printk(KERN_DEBUG "ACPI: IRQ%d used by override.\n", i);
1078                         continue;                       /* IRQ already used */
1079                 }
1080
1081                 intsrc.mpc_irqtype = mp_INT;
1082                 intsrc.mpc_srcbusirq = i;                  /* Identity mapped */
1083                 intsrc.mpc_dstirq = i;
1084
1085                 Dprintk("Int: type %d, pol %d, trig %d, bus %d, irq %d, "
1086                         "%d-%d\n", intsrc.mpc_irqtype, intsrc.mpc_irqflag & 3, 
1087                         (intsrc.mpc_irqflag >> 2) & 3, intsrc.mpc_srcbus, 
1088                         intsrc.mpc_srcbusirq, intsrc.mpc_dstapic, 
1089                         intsrc.mpc_dstirq);
1090
1091                 mp_irqs[mp_irq_entries] = intsrc;
1092                 if (++mp_irq_entries == MAX_IRQ_SOURCES)
1093                         panic("Max # of irq sources exceeded!\n");
1094         }
1095 }
1096
1097 #define MAX_GSI_NUM     4096
1098 #define IRQ_COMPRESSION_START   64
1099
1100 int mp_register_gsi(u32 gsi, int triggering, int polarity)
1101 {
1102         int ioapic = -1;
1103         int ioapic_pin = 0;
1104         int idx, bit = 0;
1105         static int pci_irq = IRQ_COMPRESSION_START;
1106         /*
1107          * Mapping between Global System Interrupts, which
1108          * represent all possible interrupts, and IRQs
1109          * assigned to actual devices.
1110          */
1111         static int              gsi_to_irq[MAX_GSI_NUM];
1112
1113         /* Don't set up the ACPI SCI because it's already set up */
1114         if (acpi_gbl_FADT.sci_interrupt == gsi)
1115                 return gsi;
1116
1117         ioapic = mp_find_ioapic(gsi);
1118         if (ioapic < 0) {
1119                 printk(KERN_WARNING "No IOAPIC for GSI %u\n", gsi);
1120                 return gsi;
1121         }
1122
1123         ioapic_pin = gsi - mp_ioapic_routing[ioapic].gsi_base;
1124
1125         if (ioapic_renumber_irq)
1126                 gsi = ioapic_renumber_irq(ioapic, gsi);
1127
1128         /* 
1129          * Avoid pin reprogramming.  PRTs typically include entries  
1130          * with redundant pin->gsi mappings (but unique PCI devices);
1131          * we only program the IOAPIC on the first.
1132          */
1133         bit = ioapic_pin % 32;
1134         idx = (ioapic_pin < 32) ? 0 : (ioapic_pin / 32);
1135         if (idx > 3) {
1136                 printk(KERN_ERR "Invalid reference to IOAPIC pin "
1137                         "%d-%d\n", mp_ioapic_routing[ioapic].apic_id, 
1138                         ioapic_pin);
1139                 return gsi;
1140         }
1141         if ((1<<bit) & mp_ioapic_routing[ioapic].pin_programmed[idx]) {
1142                 Dprintk(KERN_DEBUG "Pin %d-%d already programmed\n",
1143                         mp_ioapic_routing[ioapic].apic_id, ioapic_pin);
1144                 return (gsi < IRQ_COMPRESSION_START ? gsi : gsi_to_irq[gsi]);
1145         }
1146
1147         mp_ioapic_routing[ioapic].pin_programmed[idx] |= (1<<bit);
1148
1149         /*
1150          * For GSI >= 64, use IRQ compression
1151          */
1152         if ((gsi >= IRQ_COMPRESSION_START)
1153                 && (triggering == ACPI_LEVEL_SENSITIVE)) {
1154                 /*
1155                  * For PCI devices assign IRQs in order, avoiding gaps
1156                  * due to unused I/O APIC pins.
1157                  */
1158                 int irq = gsi;
1159                 if (gsi < MAX_GSI_NUM) {
1160                         /*
1161                          * Retain the VIA chipset work-around (gsi > 15), but
1162                          * avoid a problem where the 8254 timer (IRQ0) is setup
1163                          * via an override (so it's not on pin 0 of the ioapic),
1164                          * and at the same time, the pin 0 interrupt is a PCI
1165                          * type.  The gsi > 15 test could cause these two pins
1166                          * to be shared as IRQ0, and they are not shareable.
1167                          * So test for this condition, and if necessary, avoid
1168                          * the pin collision.
1169                          */
1170                         gsi = pci_irq++;
1171                         /*
1172                          * Don't assign IRQ used by ACPI SCI
1173                          */
1174                         if (gsi == acpi_gbl_FADT.sci_interrupt)
1175                                 gsi = pci_irq++;
1176                         gsi_to_irq[irq] = gsi;
1177                 } else {
1178                         printk(KERN_ERR "GSI %u is too high\n", gsi);
1179                         return gsi;
1180                 }
1181         }
1182
1183         io_apic_set_pci_routing(ioapic, ioapic_pin, gsi,
1184                     triggering == ACPI_EDGE_SENSITIVE ? 0 : 1,
1185                     polarity == ACPI_ACTIVE_HIGH ? 0 : 1);
1186         return gsi;
1187 }
1188
1189 #endif /* CONFIG_X86_IO_APIC */
1190 #endif /* CONFIG_ACPI */