]> www.pilppa.org Git - linux-2.6-omap-h63xx.git/blob - include/asm-powerpc/eeh.h
[PATCH] ARM: OMAP: IrDA: Update
[linux-2.6-omap-h63xx.git] / include / asm-powerpc / eeh.h
1 /*
2  * eeh.h
3  * Copyright (C) 2001  Dave Engebretsen & Todd Inglett IBM Corporation.
4  *
5  * This program is free software; you can redistribute it and/or modify
6  * it under the terms of the GNU General Public License as published by
7  * the Free Software Foundation; either version 2 of the License, or
8  * (at your option) any later version.
9  *
10  * This program is distributed in the hope that it will be useful,
11  * but WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13  * GNU General Public License for more details.
14  *
15  * You should have received a copy of the GNU General Public License
16  * along with this program; if not, write to the Free Software
17  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18  */
19
20 #ifndef _PPC64_EEH_H
21 #define _PPC64_EEH_H
22 #ifdef __KERNEL__
23
24 #include <linux/config.h>
25 #include <linux/init.h>
26 #include <linux/list.h>
27 #include <linux/string.h>
28
29 struct pci_dev;
30 struct device_node;
31
32 #ifdef CONFIG_EEH
33
34 extern int eeh_subsystem_enabled;
35
36 /* Values for eeh_mode bits in device_node */
37 #define EEH_MODE_SUPPORTED     (1<<0)
38 #define EEH_MODE_NOCHECK       (1<<1)
39 #define EEH_MODE_ISOLATED      (1<<2)
40 #define EEH_MODE_RECOVERING    (1<<3)
41 #define EEH_MODE_IRQ_DISABLED  (1<<4)
42
43 /* Max number of EEH freezes allowed before we consider the device
44  * to be permanently disabled. */
45 #define EEH_MAX_ALLOWED_FREEZES 5
46
47 void __init eeh_init(void);
48 unsigned long eeh_check_failure(const volatile void __iomem *token,
49                                 unsigned long val);
50 int eeh_dn_check_failure(struct device_node *dn, struct pci_dev *dev);
51 void __init pci_addr_cache_build(void);
52
53 /**
54  * eeh_add_device_early
55  * eeh_add_device_late
56  *
57  * Perform eeh initialization for devices added after boot.
58  * Call eeh_add_device_early before doing any i/o to the
59  * device (including config space i/o).  Call eeh_add_device_late
60  * to finish the eeh setup for this device.
61  */
62 void eeh_add_device_early(struct device_node *);
63 void eeh_add_device_tree_early(struct device_node *);
64 void eeh_add_device_late(struct pci_dev *);
65
66 /**
67  * eeh_remove_device - undo EEH setup for the indicated pci device
68  * @dev: pci device to be removed
69  *
70  * This routine should be called when a device is removed from
71  * a running system (e.g. by hotplug or dlpar).  It unregisters
72  * the PCI device from the EEH subsystem.  I/O errors affecting
73  * this device will no longer be detected after this call; thus,
74  * i/o errors affecting this slot may leave this device unusable.
75  */
76 void eeh_remove_device(struct pci_dev *);
77
78 /**
79  * eeh_remove_device_recursive - undo EEH for device & children.
80  * @dev: pci device to be removed
81  *
82  * As above, this removes the device; it also removes child
83  * pci devices as well.
84  */
85 void eeh_remove_bus_device(struct pci_dev *);
86
87 /**
88  * EEH_POSSIBLE_ERROR() -- test for possible MMIO failure.
89  *
90  * If this macro yields TRUE, the caller relays to eeh_check_failure()
91  * which does further tests out of line.
92  */
93 #define EEH_POSSIBLE_ERROR(val, type)   ((val) == (type)~0 && eeh_subsystem_enabled)
94
95 /*
96  * Reads from a device which has been isolated by EEH will return
97  * all 1s.  This macro gives an all-1s value of the given size (in
98  * bytes: 1, 2, or 4) for comparing with the result of a read.
99  */
100 #define EEH_IO_ERROR_VALUE(size)        (~0U >> ((4 - (size)) * 8))
101
102 #else /* !CONFIG_EEH */
103 static inline void eeh_init(void) { }
104
105 static inline unsigned long eeh_check_failure(const volatile void __iomem *token, unsigned long val)
106 {
107         return val;
108 }
109
110 static inline int eeh_dn_check_failure(struct device_node *dn, struct pci_dev *dev)
111 {
112         return 0;
113 }
114
115 static inline void pci_addr_cache_build(void) { }
116
117 static inline void eeh_add_device_early(struct device_node *dn) { }
118
119 static inline void eeh_add_device_late(struct pci_dev *dev) { }
120
121 static inline void eeh_remove_device(struct pci_dev *dev) { }
122
123 static inline void eeh_add_device_tree_early(struct device_node *dn) { }
124
125 static inline void eeh_remove_bus_device(struct pci_dev *dev) { }
126 #define EEH_POSSIBLE_ERROR(val, type) (0)
127 #define EEH_IO_ERROR_VALUE(size) (-1UL)
128 #endif /* CONFIG_EEH */
129
130 /*
131  * MMIO read/write operations with EEH support.
132  */
133 static inline u8 eeh_readb(const volatile void __iomem *addr)
134 {
135         u8 val = in_8(addr);
136         if (EEH_POSSIBLE_ERROR(val, u8))
137                 return eeh_check_failure(addr, val);
138         return val;
139 }
140 static inline void eeh_writeb(u8 val, volatile void __iomem *addr)
141 {
142         out_8(addr, val);
143 }
144
145 static inline u16 eeh_readw(const volatile void __iomem *addr)
146 {
147         u16 val = in_le16(addr);
148         if (EEH_POSSIBLE_ERROR(val, u16))
149                 return eeh_check_failure(addr, val);
150         return val;
151 }
152 static inline void eeh_writew(u16 val, volatile void __iomem *addr)
153 {
154         out_le16(addr, val);
155 }
156 static inline u16 eeh_raw_readw(const volatile void __iomem *addr)
157 {
158         u16 val = in_be16(addr);
159         if (EEH_POSSIBLE_ERROR(val, u16))
160                 return eeh_check_failure(addr, val);
161         return val;
162 }
163 static inline void eeh_raw_writew(u16 val, volatile void __iomem *addr) {
164         volatile u16 __iomem *vaddr = (volatile u16 __iomem *) addr;
165         out_be16(vaddr, val);
166 }
167
168 static inline u32 eeh_readl(const volatile void __iomem *addr)
169 {
170         u32 val = in_le32(addr);
171         if (EEH_POSSIBLE_ERROR(val, u32))
172                 return eeh_check_failure(addr, val);
173         return val;
174 }
175 static inline void eeh_writel(u32 val, volatile void __iomem *addr)
176 {
177         out_le32(addr, val);
178 }
179 static inline u32 eeh_raw_readl(const volatile void __iomem *addr)
180 {
181         u32 val = in_be32(addr);
182         if (EEH_POSSIBLE_ERROR(val, u32))
183                 return eeh_check_failure(addr, val);
184         return val;
185 }
186 static inline void eeh_raw_writel(u32 val, volatile void __iomem *addr)
187 {
188         out_be32(addr, val);
189 }
190
191 static inline u64 eeh_readq(const volatile void __iomem *addr)
192 {
193         u64 val = in_le64(addr);
194         if (EEH_POSSIBLE_ERROR(val, u64))
195                 return eeh_check_failure(addr, val);
196         return val;
197 }
198 static inline void eeh_writeq(u64 val, volatile void __iomem *addr)
199 {
200         out_le64(addr, val);
201 }
202 static inline u64 eeh_raw_readq(const volatile void __iomem *addr)
203 {
204         u64 val = in_be64(addr);
205         if (EEH_POSSIBLE_ERROR(val, u64))
206                 return eeh_check_failure(addr, val);
207         return val;
208 }
209 static inline void eeh_raw_writeq(u64 val, volatile void __iomem *addr)
210 {
211         out_be64(addr, val);
212 }
213
214 #define EEH_CHECK_ALIGN(v,a) \
215         ((((unsigned long)(v)) & ((a) - 1)) == 0)
216
217 static inline void eeh_memset_io(volatile void __iomem *addr, int c,
218                                  unsigned long n)
219 {
220         void *p = (void __force *)addr;
221         u32 lc = c;
222         lc |= lc << 8;
223         lc |= lc << 16;
224
225         while(n && !EEH_CHECK_ALIGN(p, 4)) {
226                 *((volatile u8 *)p) = c;
227                 p++;
228                 n--;
229         }
230         while(n >= 4) {
231                 *((volatile u32 *)p) = lc;
232                 p += 4;
233                 n -= 4;
234         }
235         while(n) {
236                 *((volatile u8 *)p) = c;
237                 p++;
238                 n--;
239         }
240         __asm__ __volatile__ ("sync" : : : "memory");
241 }
242 static inline void eeh_memcpy_fromio(void *dest, const volatile void __iomem *src,
243                                      unsigned long n)
244 {
245         void *vsrc = (void __force *) src;
246         void *destsave = dest;
247         unsigned long nsave = n;
248
249         while(n && (!EEH_CHECK_ALIGN(vsrc, 4) || !EEH_CHECK_ALIGN(dest, 4))) {
250                 *((u8 *)dest) = *((volatile u8 *)vsrc);
251                 __asm__ __volatile__ ("eieio" : : : "memory");
252                 vsrc++;
253                 dest++;
254                 n--;
255         }
256         while(n > 4) {
257                 *((u32 *)dest) = *((volatile u32 *)vsrc);
258                 __asm__ __volatile__ ("eieio" : : : "memory");
259                 vsrc += 4;
260                 dest += 4;
261                 n -= 4;
262         }
263         while(n) {
264                 *((u8 *)dest) = *((volatile u8 *)vsrc);
265                 __asm__ __volatile__ ("eieio" : : : "memory");
266                 vsrc++;
267                 dest++;
268                 n--;
269         }
270         __asm__ __volatile__ ("sync" : : : "memory");
271
272         /* Look for ffff's here at dest[n].  Assume that at least 4 bytes
273          * were copied. Check all four bytes.
274          */
275         if ((nsave >= 4) &&
276                 (EEH_POSSIBLE_ERROR((*((u32 *) destsave+nsave-4)), u32))) {
277                 eeh_check_failure(src, (*((u32 *) destsave+nsave-4)));
278         }
279 }
280
281 static inline void eeh_memcpy_toio(volatile void __iomem *dest, const void *src,
282                                    unsigned long n)
283 {
284         void *vdest = (void __force *) dest;
285
286         while(n && (!EEH_CHECK_ALIGN(vdest, 4) || !EEH_CHECK_ALIGN(src, 4))) {
287                 *((volatile u8 *)vdest) = *((u8 *)src);
288                 src++;
289                 vdest++;
290                 n--;
291         }
292         while(n > 4) {
293                 *((volatile u32 *)vdest) = *((volatile u32 *)src);
294                 src += 4;
295                 vdest += 4;
296                 n-=4;
297         }
298         while(n) {
299                 *((volatile u8 *)vdest) = *((u8 *)src);
300                 src++;
301                 vdest++;
302                 n--;
303         }
304         __asm__ __volatile__ ("sync" : : : "memory");
305 }
306
307 #undef EEH_CHECK_ALIGN
308
309 static inline u8 eeh_inb(unsigned long port)
310 {
311         u8 val;
312         if (!_IO_IS_VALID(port))
313                 return ~0;
314         val = in_8((u8 __iomem *)(port+pci_io_base));
315         if (EEH_POSSIBLE_ERROR(val, u8))
316                 return eeh_check_failure((void __iomem *)(port), val);
317         return val;
318 }
319
320 static inline void eeh_outb(u8 val, unsigned long port)
321 {
322         if (_IO_IS_VALID(port))
323                 out_8((u8 __iomem *)(port+pci_io_base), val);
324 }
325
326 static inline u16 eeh_inw(unsigned long port)
327 {
328         u16 val;
329         if (!_IO_IS_VALID(port))
330                 return ~0;
331         val = in_le16((u16 __iomem *)(port+pci_io_base));
332         if (EEH_POSSIBLE_ERROR(val, u16))
333                 return eeh_check_failure((void __iomem *)(port), val);
334         return val;
335 }
336
337 static inline void eeh_outw(u16 val, unsigned long port)
338 {
339         if (_IO_IS_VALID(port))
340                 out_le16((u16 __iomem *)(port+pci_io_base), val);
341 }
342
343 static inline u32 eeh_inl(unsigned long port)
344 {
345         u32 val;
346         if (!_IO_IS_VALID(port))
347                 return ~0;
348         val = in_le32((u32 __iomem *)(port+pci_io_base));
349         if (EEH_POSSIBLE_ERROR(val, u32))
350                 return eeh_check_failure((void __iomem *)(port), val);
351         return val;
352 }
353
354 static inline void eeh_outl(u32 val, unsigned long port)
355 {
356         if (_IO_IS_VALID(port))
357                 out_le32((u32 __iomem *)(port+pci_io_base), val);
358 }
359
360 /* in-string eeh macros */
361 static inline void eeh_insb(unsigned long port, void * buf, int ns)
362 {
363         _insb((u8 __iomem *)(port+pci_io_base), buf, ns);
364         if (EEH_POSSIBLE_ERROR((*(((u8*)buf)+ns-1)), u8))
365                 eeh_check_failure((void __iomem *)(port), *(u8*)buf);
366 }
367
368 static inline void eeh_insw_ns(unsigned long port, void * buf, int ns)
369 {
370         _insw_ns((u16 __iomem *)(port+pci_io_base), buf, ns);
371         if (EEH_POSSIBLE_ERROR((*(((u16*)buf)+ns-1)), u16))
372                 eeh_check_failure((void __iomem *)(port), *(u16*)buf);
373 }
374
375 static inline void eeh_insl_ns(unsigned long port, void * buf, int nl)
376 {
377         _insl_ns((u32 __iomem *)(port+pci_io_base), buf, nl);
378         if (EEH_POSSIBLE_ERROR((*(((u32*)buf)+nl-1)), u32))
379                 eeh_check_failure((void __iomem *)(port), *(u32*)buf);
380 }
381
382 #endif /* __KERNEL__ */
383 #endif /* _PPC64_EEH_H */