]> www.pilppa.org Git - linux-2.6-omap-h63xx.git/blob - drivers/mtd/nand/omap-hw.c
ARM: OMAP: Fix addressing bug in the OMAP16xx HW NAND driver
[linux-2.6-omap-h63xx.git] / drivers / mtd / nand / omap-hw.c
1 /*
2  *  drivers/mtd/nand/omap-hw.c
3  *
4  *  This is the MTD driver for OMAP1710 internal HW NAND controller.
5  *
6  *  Copyright (C) 2004-2006 Nokia Corporation
7  *
8  *  Author: Jarkko Lavinen <jarkko.lavinen@nokia.com> and
9  *          Juha Yrjölä <juha.yrjola@nokia.com>
10  *
11  * This program is free software; you can redistribute it and/or modify it
12  * under the terms of the GNU General Public License version 2 as published by
13  * the Free Software Foundation.
14  *
15  * This program is distributed in the hope that it will be useful, but WITHOUT
16  * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
17  * FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License for
18  * more details.
19  *
20  * You should have received a copy of the GNU General Public License along with
21  * this program; see the file COPYING. If not, write to the Free Software
22  * Foundation, 59 Temple Place - Suite 330, Boston, MA 02111-1307, USA.
23  *
24  */
25
26 #include <linux/slab.h>
27 #include <linux/init.h>
28 #include <linux/module.h>
29 #include <linux/delay.h>
30 #include <linux/delay.h>
31 #include <linux/errno.h>
32 #include <linux/sched.h>
33 #include <linux/types.h>
34 #include <linux/wait.h>
35 #include <linux/spinlock.h>
36 #include <linux/interrupt.h>
37 #include <linux/mtd/mtd.h>
38 #include <linux/mtd/nand.h>
39 #include <linux/mtd/partitions.h>
40 #include <linux/mtd/nand_ecc.h>
41 #include <linux/dma-mapping.h>
42 #include <linux/clk.h>
43
44 #include <asm/io.h>
45
46 #include <asm/arch/board.h>
47 #include <asm/arch/dma.h>
48
49 #define NAND_BASE               0xfffbcc00
50 #define NND_REVISION            0x00
51 #define NND_ACCESS              0x04
52 #define NND_ADDR_SRC            0x08
53 #define NND_CTRL                0x10
54 #define NND_MASK                0x14
55 #define NND_STATUS              0x18
56 #define NND_READY               0x1c
57 #define NND_COMMAND             0x20
58 #define NND_COMMAND_SEC         0x24
59 #define NND_ECC_SELECT          0x28
60 #define NND_ECC_START           0x2c
61 #define NND_ECC_9               0x4c
62 #define NND_RESET               0x50
63 #define NND_FIFO                0x54
64 #define NND_FIFOCTRL            0x58
65 #define NND_PSC_CLK             0x5c
66 #define NND_SYSTEST             0x60
67 #define NND_SYSCFG              0x64
68 #define NND_SYSSTATUS           0x68
69 #define NND_FIFOTEST1           0x6c
70 #define NND_FIFOTEST2           0x70
71 #define NND_FIFOTEST3           0x74
72 #define NND_FIFOTEST4           0x78
73 #define NND_PSC1_CLK            0x8c
74 #define NND_PSC2_CLK            0x90
75
76
77 #define NND_CMD_READ1_LOWER     0x00
78 #define NND_CMD_WRITE1_LOWER    0x00
79 #define NND_CMD_READ1_UPPER     0x01
80 #define NND_CMD_WRITE1_UPPER    0x01
81 #define NND_CMD_PROGRAM_END     0x10
82 #define NND_CMD_READ2_SPARE     0x50
83 #define NND_CMD_WRITE2_SPARE    0x50
84 #define NND_CMD_ERASE           0x60
85 #define NND_CMD_STATUS          0x70
86 #define NND_CMD_PROGRAM         0x80
87 #define NND_CMD_READ_ID         0x90
88 #define NND_CMD_ERASE_END       0xD0
89 #define NND_CMD_RESET           0xFF
90
91
92 #define NAND_Ecc_P1e            (1 << 0)
93 #define NAND_Ecc_P2e            (1 << 1)
94 #define NAND_Ecc_P4e            (1 << 2)
95 #define NAND_Ecc_P8e            (1 << 3)
96 #define NAND_Ecc_P16e           (1 << 4)
97 #define NAND_Ecc_P32e           (1 << 5)
98 #define NAND_Ecc_P64e           (1 << 6)
99 #define NAND_Ecc_P128e          (1 << 7)
100 #define NAND_Ecc_P256e          (1 << 8)
101 #define NAND_Ecc_P512e          (1 << 9)
102 #define NAND_Ecc_P1024e         (1 << 10)
103 #define NAND_Ecc_P2048e         (1 << 11)
104
105 #define NAND_Ecc_P1o            (1 << 16)
106 #define NAND_Ecc_P2o            (1 << 17)
107 #define NAND_Ecc_P4o            (1 << 18)
108 #define NAND_Ecc_P8o            (1 << 19)
109 #define NAND_Ecc_P16o           (1 << 20)
110 #define NAND_Ecc_P32o           (1 << 21)
111 #define NAND_Ecc_P64o           (1 << 22)
112 #define NAND_Ecc_P128o          (1 << 23)
113 #define NAND_Ecc_P256o          (1 << 24)
114 #define NAND_Ecc_P512o          (1 << 25)
115 #define NAND_Ecc_P1024o         (1 << 26)
116 #define NAND_Ecc_P2048o         (1 << 27)
117
118 #define TF(value)       (value ? 1 : 0)
119
120 #define P2048e(a)       (TF(a & NAND_Ecc_P2048e)        << 0 )
121 #define P2048o(a)       (TF(a & NAND_Ecc_P2048o)        << 1 )
122 #define P1e(a)          (TF(a & NAND_Ecc_P1e)           << 2 )
123 #define P1o(a)          (TF(a & NAND_Ecc_P1o)           << 3 )
124 #define P2e(a)          (TF(a & NAND_Ecc_P2e)           << 4 )
125 #define P2o(a)          (TF(a & NAND_Ecc_P2o)           << 5 )
126 #define P4e(a)          (TF(a & NAND_Ecc_P4e)           << 6 )
127 #define P4o(a)          (TF(a & NAND_Ecc_P4o)           << 7 )
128
129 #define P8e(a)          (TF(a & NAND_Ecc_P8e)           << 0 )
130 #define P8o(a)          (TF(a & NAND_Ecc_P8o)           << 1 )
131 #define P16e(a)         (TF(a & NAND_Ecc_P16e)          << 2 )
132 #define P16o(a)         (TF(a & NAND_Ecc_P16o)          << 3 )
133 #define P32e(a)         (TF(a & NAND_Ecc_P32e)          << 4 )
134 #define P32o(a)         (TF(a & NAND_Ecc_P32o)          << 5 )
135 #define P64e(a)         (TF(a & NAND_Ecc_P64e)          << 6 )
136 #define P64o(a)         (TF(a & NAND_Ecc_P64o)          << 7 )
137
138 #define P128e(a)        (TF(a & NAND_Ecc_P128e)         << 0 )
139 #define P128o(a)        (TF(a & NAND_Ecc_P128o)         << 1 )
140 #define P256e(a)        (TF(a & NAND_Ecc_P256e)         << 2 )
141 #define P256o(a)        (TF(a & NAND_Ecc_P256o)         << 3 )
142 #define P512e(a)        (TF(a & NAND_Ecc_P512e)         << 4 )
143 #define P512o(a)        (TF(a & NAND_Ecc_P512o)         << 5 )
144 #define P1024e(a)       (TF(a & NAND_Ecc_P1024e)        << 6 )
145 #define P1024o(a)       (TF(a & NAND_Ecc_P1024o)        << 7 )
146
147 #define P8e_s(a)        (TF(a & NAND_Ecc_P8e)           << 0 )
148 #define P8o_s(a)        (TF(a & NAND_Ecc_P8o)           << 1 )
149 #define P16e_s(a)       (TF(a & NAND_Ecc_P16e)          << 2 )
150 #define P16o_s(a)       (TF(a & NAND_Ecc_P16o)          << 3 )
151 #define P1e_s(a)        (TF(a & NAND_Ecc_P1e)           << 4 )
152 #define P1o_s(a)        (TF(a & NAND_Ecc_P1o)           << 5 )
153 #define P2e_s(a)        (TF(a & NAND_Ecc_P2e)           << 6 )
154 #define P2o_s(a)        (TF(a & NAND_Ecc_P2o)           << 7 )
155
156 #define P4e_s(a)        (TF(a & NAND_Ecc_P4e)           << 0 )
157 #define P4o_s(a)        (TF(a & NAND_Ecc_P4o)           << 1 )
158
159 extern struct nand_oobinfo jffs2_oobinfo;
160
161 /*
162  * MTD structure for OMAP board
163  */
164 static struct mtd_info *omap_mtd;
165 static struct clk *omap_nand_clk;
166 static int omap_nand_dma_ch;
167 static struct completion omap_nand_dma_comp;
168 static unsigned long omap_nand_base = io_p2v(NAND_BASE);
169
170 static inline u32 nand_read_reg(int idx)
171 {
172         return __raw_readl(omap_nand_base + idx);
173 }
174
175 static inline void nand_write_reg(int idx, u32 val)
176 {
177         __raw_writel(val, omap_nand_base + idx);
178 }
179
180 static inline u8 nand_read_reg8(int idx)
181 {
182         return __raw_readb(omap_nand_base + idx);
183 }
184
185 static inline void nand_write_reg8(int idx, u8 val)
186 {
187         __raw_writeb(val, omap_nand_base + idx);
188 }
189
190 static void omap_nand_select_chip(struct mtd_info *mtd, int chip)
191 {
192         u32 l;
193
194         switch(chip) {
195         case -1:
196                 l = nand_read_reg(NND_CTRL);
197                 l |= (1 << 8) | (1 << 10) | (1 << 12) | (1 << 14);
198                 nand_write_reg(NND_CTRL, l);
199                 break;
200         case 0:
201                 /* Also CS1, CS2, CS4 would be available */
202                 l = nand_read_reg(NND_CTRL);
203                 l &= ~(1 << 8);
204                 nand_write_reg(NND_CTRL, l);
205                 break;
206         default:
207                 BUG();
208         }
209 }
210
211 static void nand_dma_cb(int lch, u16 ch_status, void *data)
212 {
213         complete((struct completion *) data);
214 }
215
216 static void omap_nand_dma_transfer(struct mtd_info *mtd, void *addr,
217                                          unsigned int u32_count, int is_write)
218 {
219         const int block_size = 16;
220         unsigned int block_count, len;
221         int dma_ch;
222         unsigned long fifo_reg, timeout, jiffies_before, jiffies_spent;
223         static unsigned long max_jiffies = 0;
224
225         dma_ch = omap_nand_dma_ch;
226         block_count = u32_count * 4 / block_size;
227         nand_write_reg(NND_STATUS, 0x0f);
228         nand_write_reg(NND_FIFOCTRL, (block_size << 24) | block_count);
229         fifo_reg = NAND_BASE + NND_FIFO;
230         if (is_write) {
231                 omap_set_dma_dest_params(dma_ch, OMAP_DMA_PORT_TIPB,
232                                          OMAP_DMA_AMODE_CONSTANT, fifo_reg,
233                                          0, 0);
234                 omap_set_dma_src_params(dma_ch, OMAP_DMA_PORT_EMIFF,
235                                         OMAP_DMA_AMODE_POST_INC,
236                                         virt_to_phys(addr),
237                                         0, 0);
238 //              omap_set_dma_src_burst_mode(dma_ch, OMAP_DMA_DATA_BURST_4);
239                 /* Set POSTWRITE bit */
240                 nand_write_reg(NND_CTRL, nand_read_reg(NND_CTRL) | (1 << 16));
241         } else {
242                 omap_set_dma_src_params(dma_ch, OMAP_DMA_PORT_TIPB,
243                                         OMAP_DMA_AMODE_CONSTANT, fifo_reg,
244                                         0, 0);
245                 omap_set_dma_dest_params(dma_ch, OMAP_DMA_PORT_EMIFF,
246                                          OMAP_DMA_AMODE_POST_INC,
247                                          virt_to_phys(addr),
248                                          0, 0);
249 //              omap_set_dma_dest_burst_mode(dma_ch, OMAP_DMA_DATA_BURST_8);
250                 /* Set PREFETCH bit */
251                 nand_write_reg(NND_CTRL, nand_read_reg(NND_CTRL) | (1 << 17));
252         }
253         omap_set_dma_transfer_params(dma_ch, OMAP_DMA_DATA_TYPE_S32, block_size / 4,
254                                      block_count, OMAP_DMA_SYNC_FRAME,
255                                      0, 0);
256         init_completion(&omap_nand_dma_comp);
257
258         len = u32_count << 2;
259         consistent_sync(addr, len, DMA_TO_DEVICE);
260         omap_start_dma(dma_ch);
261         jiffies_before = jiffies;
262         timeout = wait_for_completion_timeout(&omap_nand_dma_comp,
263                                               msecs_to_jiffies(1000));
264         jiffies_spent = (unsigned long)((long)jiffies - (long)jiffies_before);
265         if (jiffies_spent > max_jiffies)
266                 max_jiffies = jiffies_spent;
267
268         if (timeout == 0) {
269                 printk(KERN_WARNING "omap-hw-nand: DMA timeout after %u ms, max. seen latency %u ms\n",
270                        jiffies_to_msecs(jiffies_spent),
271                        jiffies_to_msecs(max_jiffies));
272                 if (OMAP_DMA_CCR_REG(dma_ch) & (1 << 7)) {
273                         /* If the DMA transfer is still running, something
274                          * is really wrong. */
275                         printk(KERN_ERR "omap-hw-nand: DMA transfer still running. Not good.\n");
276                         printk(KERN_INFO "DMA ch %d: CCR %04x, CSR %04x, CCDEN_L %04x\n",
277                                dma_ch, omap_readw(OMAP_DMA_CCR_REG(dma_ch)), omap_readw(OMAP_DMA_CSR_REG(dma_ch)),
278                                omap_readw(OMAP_DMA_BASE + 0x40 * (dma_ch) + 0x34));
279                 }
280         }
281         if (!is_write)
282                 consistent_sync(addr, len, DMA_FROM_DEVICE);
283
284         nand_write_reg(NND_CTRL, nand_read_reg(NND_CTRL) & ~((1 << 16) | (1 << 17)));
285 }
286
287 static void fifo_read(u32 *out, unsigned int len)
288 {
289         const int block_size = 16;
290         unsigned long status_reg, fifo_reg;
291         int c;
292
293         status_reg = omap_nand_base + NND_STATUS;
294         fifo_reg = omap_nand_base + NND_FIFO;
295         len = len * 4 / block_size;
296         nand_write_reg(NND_FIFOCTRL, (block_size << 24) | len);
297         nand_write_reg(NND_STATUS, 0x0f);
298         nand_write_reg(NND_CTRL, nand_read_reg(NND_CTRL) | (1 << 17));
299         c = block_size / 4;
300         while (len--) {
301                 int i;
302
303                 while ((__raw_readl(status_reg) & (1 << 2)) == 0);
304                 __raw_writel(0x0f, status_reg);
305                 for (i = 0; i < c; i++) {
306                         u32 l = __raw_readl(fifo_reg);
307                         *out++ = l;
308                 }
309         }
310         nand_write_reg(NND_CTRL, nand_read_reg(NND_CTRL) & ~(1 << 17));
311         nand_write_reg(NND_STATUS, 0x0f);
312 }
313
314 static void omap_nand_read_buf(struct mtd_info *mtd, u_char *buf, int len)
315 {
316         unsigned long access_reg;
317
318         if (likely(((unsigned long) buf & 3) == 0 && (len & 3) == 0)) {
319                 int u32_count = len >> 2;
320                 u32 *dest = (u32 *) buf;
321                 /* If the transfer is big enough and the length divisible by
322                  * 16, we try to use DMA transfer, or FIFO copy in case of
323                  * DMA failure (e.g. all channels busy) */
324                 if (u32_count > 64 && (u32_count & 3) == 0) {
325                         if (omap_nand_dma_ch >= 0) {
326                                 omap_nand_dma_transfer(mtd, buf, u32_count, 0);
327                                 return;
328                         }
329                         /* In case of an error, fallback to FIFO copy */
330                         fifo_read((u32 *) buf, u32_count);
331                         return;
332                 }
333                 access_reg = omap_nand_base + NND_ACCESS;
334                 /* Small buffers we just read directly */
335                 while (u32_count--)
336                         *dest++ = __raw_readl(access_reg);
337         } else {
338                 /* If we're not word-aligned, we use byte copy */
339                 access_reg = omap_nand_base + NND_ACCESS;
340                 while (len--)
341                         *buf++ = __raw_readb(access_reg);
342         }
343 }
344
345 static void omap_nand_write_buf(struct mtd_info *mtd, const u_char *buf, int len)
346 {
347         if (likely(((unsigned long) buf & 3) == 0 && (len & 3) == 0)) {
348                 const u32 *src = (const u32 *) buf;
349
350                 len >>= 2;
351 #if 0
352                 /* If the transfer is big enough and length divisible by 16,
353                  * we try to use DMA transfer. */
354                 if (len > 256 / 4 && (len & 3) == 0) {
355                         if (omap_nand_dma_transfer(mtd, (void *) buf, len, 1) == 0)
356                                 return;
357                         /* In case of an error, fallback to CPU copy */
358                 }
359 #endif
360                 while (len--)
361                         nand_write_reg(NND_ACCESS, *src++);
362         } else {
363                 while (len--)
364                         nand_write_reg8(NND_ACCESS, *buf++);
365         }
366 }
367
368 static int omap_nand_verify_buf(struct mtd_info *mtd, const u_char *buf, int len)
369 {
370         if (likely(((unsigned long) buf & 3) == 0 && (len & 3) == 0)) {
371                 const u32 *dest = (const u32 *) buf;
372                 len >>= 2;
373                 while (len--)
374                         if (*dest++ != nand_read_reg(NND_ACCESS))
375                                 return -EFAULT;
376         } else {
377                 while (len--)
378                         if (*buf++ != nand_read_reg8(NND_ACCESS))
379                                 return -EFAULT;
380         }
381         return 0;
382 }
383
384 static u_char omap_nand_read_byte(struct mtd_info *mtd)
385 {
386         return nand_read_reg8(NND_ACCESS);
387 }
388
389 static void omap_nand_write_byte(struct mtd_info *mtd, u_char byte)
390 {
391         nand_write_reg8(NND_ACCESS, byte);
392 }
393
394 static int omap_nand_dev_ready(struct mtd_info *mtd)
395 {
396         u32 l;
397
398         l = nand_read_reg(NND_READY);
399         return l & 0x01;
400 }
401
402 static int nand_write_command(u8 cmd, u32 addr, int addr_valid)
403 {
404         if (addr_valid) {
405                 nand_write_reg(NND_ADDR_SRC, addr);
406                 nand_write_reg8(NND_COMMAND, cmd);
407         } else {
408                 nand_write_reg(NND_ADDR_SRC, 0);
409                 nand_write_reg8(NND_COMMAND_SEC, cmd);
410         }
411         while (!omap_nand_dev_ready(NULL));
412         return 0;
413 }
414
415 /*
416  * Send command to NAND device
417  */
418 static void omap_nand_command(struct mtd_info *mtd, unsigned command, int column, int page_addr)
419 {
420         struct nand_chip *this = mtd->priv;
421
422         /*
423          * Write out the command to the device.
424          */
425         if (command == NAND_CMD_SEQIN) {
426                 int readcmd;
427
428                 if (column >= mtd->oobblock) {
429                         /* OOB area */
430                         column -= mtd->oobblock;
431                         readcmd = NAND_CMD_READOOB;
432                 } else if (column < 256) {
433                         /* First 256 bytes --> READ0 */
434                         readcmd = NAND_CMD_READ0;
435                 } else {
436                         column -= 256;
437                         readcmd = NAND_CMD_READ1;
438                 }
439                 nand_write_command(readcmd, 0, 0);
440         }
441         switch (command) {
442         case NAND_CMD_RESET:
443         case NAND_CMD_PAGEPROG:
444         case NAND_CMD_STATUS:
445         case NAND_CMD_ERASE2:
446                 nand_write_command(command, 0, 0);
447                 break;
448         case NAND_CMD_ERASE1:
449                 nand_write_command(command, ((page_addr & 0xFFFFFF00) << 1) | (page_addr & 0XFF), 1);
450                 break;
451         default:
452                 nand_write_command(command, (page_addr << this->page_shift) | column, 1);
453         }
454 }
455
456 static void omap_nand_command_lp(struct mtd_info *mtd, unsigned command, int column, int page_addr)
457 {
458         struct nand_chip *this = mtd->priv;
459
460         if (command == NAND_CMD_READOOB) {
461                 column += mtd->oobblock;
462                 command = NAND_CMD_READ0;
463         }
464         switch (command) {
465         case NAND_CMD_RESET:
466         case NAND_CMD_PAGEPROG:
467         case NAND_CMD_STATUS:
468         case NAND_CMD_ERASE2:           
469                 nand_write_command(command, 0, 0);
470                 break;
471         case NAND_CMD_ERASE1:
472                 nand_write_command(command, page_addr << this->page_shift >> 11, 1);
473                 break;
474         default:
475                 nand_write_command(command, (page_addr << 16) | column, 1);
476         }
477         if (command == NAND_CMD_READ0)
478                 nand_write_command(NAND_CMD_READSTART, 0, 0);
479 }
480
481 /*
482  * Generate non-inverted ECC bytes.
483  *
484  * Using noninverted ECC can be considered ugly since writing a blank
485  * page ie. padding will clear the ECC bytes. This is no problem as long
486  * nobody is trying to write data on the seemingly unused page.
487  *
488  * Reading an erased page will produce an ECC mismatch between
489  * generated and read ECC bytes that has to be dealt with separately.
490  */
491 static int omap_nand_calculate_ecc(struct mtd_info *mtd, const u_char *dat, u_char *ecc_code)
492 {
493         u32 l;
494         int reg;
495         int n;
496         struct nand_chip *this = mtd->priv;
497
498         if (this->eccmode == NAND_ECC_HW12_2048)
499                 n = 4;
500         else
501                 n = 1;
502         reg = NND_ECC_START;
503         while (n--) {
504                 l = nand_read_reg(reg);
505                 *ecc_code++ = l;          // P128e, ..., P1e
506                 *ecc_code++ = l >> 16;    // P128o, ..., P1o
507                 // P2048o, P1024o, P512o, P256o, P2048e, P1024e, P512e, P256e
508                 *ecc_code++ = ((l >> 8) & 0x0f) | ((l >> 20) & 0xf0);
509                 reg += 4;
510         }
511         return 0;
512 }
513
514 /*
515  * This function will generate true ECC value, which can be used
516  * when correcting data read from NAND flash memory core
517  */
518 static void gen_true_ecc(u8 *ecc_buf)
519 {
520         u32 tmp = ecc_buf[0] | (ecc_buf[1] << 16) | ((ecc_buf[2] & 0xF0) << 20) | ((ecc_buf[2] & 0x0F) << 8);
521
522         ecc_buf[0] = ~(P64o(tmp) | P64e(tmp) | P32o(tmp) | P32e(tmp) | P16o(tmp) | P16e(tmp) | P8o(tmp) | P8e(tmp) );
523         ecc_buf[1] = ~(P1024o(tmp) | P1024e(tmp) | P512o(tmp) | P512e(tmp) | P256o(tmp) | P256e(tmp) | P128o(tmp) | P128e(tmp));
524         ecc_buf[2] = ~( P4o(tmp) | P4e(tmp) | P2o(tmp) | P2e(tmp) | P1o(tmp) | P1e(tmp) | P2048o(tmp) | P2048e(tmp));
525 }
526
527 /*
528  * This function compares two ECC's and indicates if there is an error.
529  * If the error can be corrected it will be corrected to the buffer
530  */
531 static int omap_nand_compare_ecc(u8 *ecc_data1,   /* read from NAND memory */
532                                  u8 *ecc_data2,   /* read from register */
533                                  u8 *page_data)
534 {
535         uint   i;
536         u8     tmp0_bit[8], tmp1_bit[8], tmp2_bit[8];
537         u8     comp0_bit[8], comp1_bit[8], comp2_bit[8];
538         u8     ecc_bit[24];
539         u8     ecc_sum = 0;
540         u8     find_bit = 0;
541         uint   find_byte = 0;
542         int    isEccFF;
543
544         isEccFF = ((*(u32 *)ecc_data1 & 0xFFFFFF) == 0xFFFFFF);
545
546         gen_true_ecc(ecc_data1);
547         gen_true_ecc(ecc_data2);
548
549         for (i = 0; i <= 2; i++) {
550                 *(ecc_data1 + i) = ~(*(ecc_data1 + i));
551                 *(ecc_data2 + i) = ~(*(ecc_data2 + i));
552         }
553
554         for (i = 0; i < 8; i++) {
555                 tmp0_bit[i]      = *ecc_data1 % 2;
556                 *ecc_data1       = *ecc_data1 / 2;
557         }
558
559         for (i = 0; i < 8; i++) {
560                 tmp1_bit[i]      = *(ecc_data1 + 1) % 2;
561                 *(ecc_data1 + 1) = *(ecc_data1 + 1) / 2;
562         }
563
564         for (i = 0; i < 8; i++) {
565                 tmp2_bit[i]      = *(ecc_data1 + 2) % 2;
566                 *(ecc_data1 + 2) = *(ecc_data1 + 2) / 2;
567         }
568
569         for (i = 0; i < 8; i++) {
570                 comp0_bit[i]     = *ecc_data2 % 2;
571                 *ecc_data2       = *ecc_data2 / 2;
572         }
573
574         for (i = 0; i < 8; i++) {
575                 comp1_bit[i]     = *(ecc_data2 + 1) % 2;
576                 *(ecc_data2 + 1) = *(ecc_data2 + 1) / 2;
577         }
578
579         for (i = 0; i < 8; i++) {
580                 comp2_bit[i]     = *(ecc_data2 + 2) % 2;
581                 *(ecc_data2 + 2) = *(ecc_data2 + 2) / 2;
582         }
583
584         for (i = 0; i< 6; i++ )
585                 ecc_bit[i] = tmp2_bit[i + 2] ^ comp2_bit[i + 2];
586
587         for (i = 0; i < 8; i++)
588                 ecc_bit[i + 6] = tmp0_bit[i] ^ comp0_bit[i];
589
590         for (i = 0; i < 8; i++)
591                 ecc_bit[i + 14] = tmp1_bit[i] ^ comp1_bit[i];
592
593         ecc_bit[22] = tmp2_bit[0] ^ comp2_bit[0];
594         ecc_bit[23] = tmp2_bit[1] ^ comp2_bit[1];
595
596         for (i = 0; i < 24; i++)
597                 ecc_sum += ecc_bit[i];
598
599         switch (ecc_sum) {
600         case 0:
601                 /* Not reached because this function is not called if
602                    ECC values are equal */
603                 return 0;
604
605         case 1:
606                 /* Uncorrectable error */
607                 DEBUG (MTD_DEBUG_LEVEL0, "ECC UNCORRECTED_ERROR 1\n");
608                 return -1;
609
610         case 12:
611                 /* Correctable error */
612                 find_byte = (ecc_bit[23] << 8) + 
613                             (ecc_bit[21] << 7) + 
614                             (ecc_bit[19] << 6) +
615                             (ecc_bit[17] << 5) +
616                             (ecc_bit[15] << 4) +
617                             (ecc_bit[13] << 3) +
618                             (ecc_bit[11] << 2) +
619                             (ecc_bit[9]  << 1) +
620                             ecc_bit[7];
621
622                 find_bit = (ecc_bit[5] << 2) + (ecc_bit[3] << 1) + ecc_bit[1];
623
624                 DEBUG (MTD_DEBUG_LEVEL0, "Correcting single bit ECC error at offset: %d, bit: %d\n", find_byte, find_bit);
625
626                 page_data[find_byte] ^= (1 << find_bit);
627
628                 return 0;
629         default:
630                 if (isEccFF) {
631                         if (ecc_data2[0] == 0 && ecc_data2[1] == 0 && ecc_data2[2] == 0)
632                                 return 0;
633                 } 
634                 DEBUG (MTD_DEBUG_LEVEL0, "UNCORRECTED_ERROR default\n");
635                 return -1;
636         }
637 }
638
639 static int omap_nand_correct_data(struct mtd_info *mtd, u_char *dat, u_char *read_ecc, u_char *calc_ecc)
640 {
641         struct nand_chip *this;
642         int block_count = 0, i, r;
643
644         this = mtd->priv;
645         if (this->eccmode == NAND_ECC_HW12_2048)
646                 block_count = 4;
647         else
648                 block_count = 1;
649         for (i = 0; i < block_count; i++) {
650                 if (memcmp(read_ecc, calc_ecc, 3) != 0) {
651                         r = omap_nand_compare_ecc(read_ecc, calc_ecc, dat);
652                         if (r < 0)
653                                 return r;
654                 }
655                 read_ecc += 3;
656                 calc_ecc += 3;
657                 dat += 512;
658         }
659         return 0;
660 }
661
662 static void omap_nand_enable_hwecc(struct mtd_info *mtd, int mode)
663 {
664         nand_write_reg(NND_RESET, 0x01);
665 }
666
667 #ifdef CONFIG_MTD_CMDLINE_PARTS
668
669 extern int mtdpart_setup(char *);
670
671 static int __init add_dynamic_parts(struct mtd_info *mtd)
672 {
673         static const char *part_parsers[] = { "cmdlinepart", NULL };
674         struct mtd_partition *parts;
675         const struct omap_flash_part_config *cfg;
676         char *part_str = NULL;
677         size_t part_str_len;
678         int c;
679
680         cfg = omap_get_var_config(OMAP_TAG_FLASH_PART, &part_str_len);
681         if (cfg != NULL) {
682                 part_str = kmalloc(part_str_len + 1, GFP_KERNEL);
683                 if (part_str == NULL)
684                         return -ENOMEM;
685                 memcpy(part_str, cfg->part_table, part_str_len);
686                 part_str[part_str_len] = '\0';
687                 mtdpart_setup(part_str);
688         }
689         c = parse_mtd_partitions(omap_mtd, part_parsers, &parts, 0);
690         if (part_str != NULL) {
691                 mtdpart_setup(NULL);
692                 kfree(part_str);
693         }
694         if (c <= 0)
695                 return -1;
696
697         add_mtd_partitions(mtd, parts, c);
698
699         return 0;
700 }
701
702 #else
703
704 static inline int add_dynamic_parts(struct mtd_info *mtd)
705 {
706         return -1;
707 }
708
709 #endif
710
711 static inline int calc_psc(int ns, int cycle_ps)
712 {
713         return (ns * 1000 + (cycle_ps - 1)) / cycle_ps;
714 }
715
716 static void set_psc_regs(int psc_ns, int psc1_ns, int psc2_ns)
717 {
718         int psc[3], i;
719         unsigned long rate, ps;
720
721         rate = clk_get_rate(omap_nand_clk);
722         ps = 1000000000 / (rate / 1000);
723         psc[0] = calc_psc(psc_ns, ps);
724         psc[1] = calc_psc(psc1_ns, ps);
725         psc[2] = calc_psc(psc2_ns, ps);
726         for (i = 0; i < 3; i++) {
727                 if (psc[i] < 2)
728                         psc[i] = 2;
729                 else if (psc[i] > 256)
730                         psc[i] = 256;
731         }
732         nand_write_reg(NND_PSC_CLK, psc[0] - 1);
733         nand_write_reg(NND_PSC1_CLK, psc[1] - 1);
734         nand_write_reg(NND_PSC2_CLK, psc[2] - 1);
735         printk(KERN_INFO "omap-hw-nand: using PSC values %d, %d, %d\n", psc[0], psc[1], psc[2]);
736 }
737
738 /*
739  * Main initialization routine
740  */
741 static int __init omap_nand_init(void)
742 {
743         struct nand_chip *this;
744         int err = 0;
745         u32 l;
746
747         omap_nand_clk = clk_get(NULL, "armper_ck");
748         BUG_ON(omap_nand_clk == NULL);
749         clk_enable(omap_nand_clk);
750
751         l = nand_read_reg(NND_REVISION);        
752         printk(KERN_INFO "omap-hw-nand: OMAP NAND Controller rev. %d.%d\n", l>>4, l & 0xf);
753
754         /* Reset the NAND Controller */
755         nand_write_reg(NND_SYSCFG, 0x02);
756         while ((nand_read_reg(NND_SYSSTATUS) & 0x01) == 0);
757
758         /* No Prefetch, no postwrite, write prot & enable pairs disabled,
759            addres counter set to send 4 byte addresses to flash,
760            A8 is set not to be sent to flash (erase addre needs formatting),
761            choose little endian, enable 512 byte ECC logic,        
762          */
763         nand_write_reg(NND_CTRL, 0xFF01);
764
765         /* Allocate memory for MTD device structure and private data */
766         omap_mtd = kmalloc(sizeof(struct mtd_info) + sizeof(struct nand_chip), GFP_KERNEL);
767         if (!omap_mtd) {
768                 printk(KERN_WARNING "omap-hw-nand: Unable to allocate OMAP NAND MTD device structure.\n");
769                 err = -ENOMEM;
770                 goto free_clock;
771         }
772 #if 1
773         err = omap_request_dma(OMAP_DMA_NAND, "NAND", nand_dma_cb,
774                                &omap_nand_dma_comp, &omap_nand_dma_ch);
775         if (err < 0) {
776                 printk(KERN_WARNING "omap-hw-nand: Unable to reserve DMA channel\n");
777                 omap_nand_dma_ch = -1;
778         }
779 #else
780         omap_nand_dma_ch = -1;
781 #endif
782         /* Get pointer to private data */
783         this = (struct nand_chip *) (&omap_mtd[1]);
784
785         /* Initialize structures */
786         memset((char *) omap_mtd, 0, sizeof(struct mtd_info));
787         memset((char *) this, 0, sizeof(struct nand_chip));
788
789         /* Link the private data with the MTD structure */
790         omap_mtd->priv = this;
791         omap_mtd->name = "omap-nand";
792
793         this->options = NAND_SKIP_BBTSCAN;
794
795         /* Used from chip select and nand_command() */
796         this->read_byte = omap_nand_read_byte;
797         this->write_byte = omap_nand_write_byte;
798
799         this->select_chip = omap_nand_select_chip;
800         this->dev_ready = omap_nand_dev_ready;
801         this->chip_delay = 0;
802         this->eccmode = NAND_ECC_HW3_512; 
803         this->cmdfunc = omap_nand_command;
804         this->write_buf = omap_nand_write_buf;
805         this->read_buf = omap_nand_read_buf;
806         this->verify_buf = omap_nand_verify_buf;
807         this->calculate_ecc = omap_nand_calculate_ecc;
808         this->correct_data = omap_nand_correct_data;
809         this->enable_hwecc = omap_nand_enable_hwecc;
810
811         nand_write_reg(NND_SYSCFG, 0x1); /* Enable auto idle */
812         nand_write_reg(NND_PSC_CLK, 10);
813         /* Scan to find existance of the device */
814         if (nand_scan(omap_mtd, 1)) {
815                 err = -ENXIO;
816                 goto out_mtd;
817         }
818
819         set_psc_regs(25, 15, 35);
820         if (this->page_shift == 11) {
821                 this->cmdfunc = omap_nand_command_lp;
822                 l = nand_read_reg(NND_CTRL);
823                 l |= 1 << 4; /* Set the A8 bit in CTRL reg */
824                 nand_write_reg(NND_CTRL, l);
825                 this->eccmode = NAND_ECC_HW12_2048;
826                 this->eccsteps = 1;
827                 this->eccsize = 2048;
828                 this->eccbytes = 12;
829                 omap_mtd->eccsize = 2048;
830                 nand_write_reg(NND_ECC_SELECT, 6);
831         }
832
833         /* We have to do bbt scanning ourselves */
834         if (this->scan_bbt (omap_mtd)) {
835                 err = -ENXIO;
836                 goto out_mtd;
837         }
838
839         err = add_dynamic_parts(omap_mtd);
840         if (err < 0) {
841                 printk(KERN_ERR "omap-hw-nand: no partitions defined\n");
842                 err = -ENODEV;
843                 nand_release(omap_mtd);
844                 goto out_mtd;
845         }
846         /* init completed */
847         return 0;
848 out_mtd:
849         if (omap_nand_dma_ch >= 0)
850                 omap_free_dma(omap_nand_dma_ch);
851         kfree(omap_mtd);
852 free_clock:
853         clk_put(omap_nand_clk);
854         return err;
855 }
856
857 module_init(omap_nand_init);
858
859 /*
860  * Clean up routine
861  */
862 static void __exit omap_nand_cleanup (void)
863 {
864         clk_disable(omap_nand_clk);
865         clk_put(omap_nand_clk);
866         nand_release(omap_mtd);
867         kfree(omap_mtd);
868 }
869
870 module_exit(omap_nand_cleanup);
871