]> www.pilppa.org Git - linux-2.6-omap-h63xx.git/blob - arch/sh/kernel/timers/timer-tmu.c
10b5a6f17cc0a197341458412ba4d5bc906295ac
[linux-2.6-omap-h63xx.git] / arch / sh / kernel / timers / timer-tmu.c
1 /*
2  * arch/sh/kernel/timers/timer-tmu.c - TMU Timer Support
3  *
4  *  Copyright (C) 2005 - 2007  Paul Mundt
5  *
6  * TMU handling code hacked out of arch/sh/kernel/time.c
7  *
8  *  Copyright (C) 1999  Tetsuya Okada & Niibe Yutaka
9  *  Copyright (C) 2000  Philipp Rumpf <prumpf@tux.org>
10  *  Copyright (C) 2002, 2003, 2004  Paul Mundt
11  *  Copyright (C) 2002  M. R. Brown  <mrbrown@linux-sh.org>
12  *
13  * This file is subject to the terms and conditions of the GNU General Public
14  * License.  See the file "COPYING" in the main directory of this archive
15  * for more details.
16  */
17 #include <linux/init.h>
18 #include <linux/kernel.h>
19 #include <linux/interrupt.h>
20 #include <linux/seqlock.h>
21 #include <linux/clockchips.h>
22 #include <asm/timer.h>
23 #include <asm/rtc.h>
24 #include <asm/io.h>
25 #include <asm/irq.h>
26 #include <asm/clock.h>
27
28 #define TMU_TOCR_INIT   0x00
29 #define TMU_TCR_INIT    0x0020
30
31 #define TMU0            (0)
32 #define TMU1            (1)
33
34 static inline void _tmu_start(int tmu_num)
35 {
36         ctrl_outb(ctrl_inb(TMU_012_TSTR) | (0x1<<tmu_num), TMU_012_TSTR);
37 }
38
39 static inline void _tmu_set_irq(int tmu_num, int enabled)
40 {
41         register unsigned long tmu_tcr = TMU0_TCR + (0xc*tmu_num);
42         ctrl_outw( (enabled ? ctrl_inw(tmu_tcr) | (1<<5) : ctrl_inw(tmu_tcr) & ~(1<<5)), tmu_tcr);
43 }
44
45 static inline void _tmu_stop(int tmu_num)
46 {
47         ctrl_outb(ctrl_inb(TMU_012_TSTR) & ~(0x1<<tmu_num), TMU_012_TSTR);
48 }
49
50 static inline void _tmu_clear_status(int tmu_num)
51 {
52         register unsigned long tmu_tcr = TMU0_TCR + (0xc*tmu_num);
53         /* Clear UNF bit */
54         ctrl_outw(ctrl_inw(tmu_tcr) & ~0x100, tmu_tcr);
55 }
56
57 static inline unsigned long _tmu_read(int tmu_num)
58 {
59         return ctrl_inl(TMU0_TCNT+0xC*tmu_num);
60 }
61
62 static int tmu_timer_start(void)
63 {
64         _tmu_start(TMU0);
65         _tmu_start(TMU1);
66         _tmu_set_irq(TMU0,1);
67         return 0;
68 }
69
70 static int tmu_timer_stop(void)
71 {
72         _tmu_stop(TMU0);
73         _tmu_stop(TMU1);
74         _tmu_clear_status(TMU0);
75         return 0;
76 }
77
78 /*
79  * also when the module_clk is scaled the TMU1
80  * will show the same frequency
81  */
82 static int tmus_are_scaled;
83
84 static cycle_t tmu_timer_read(void)
85 {
86         return ((cycle_t)(~_tmu_read(TMU1)))<<tmus_are_scaled;
87 }
88
89
90 static unsigned long tmu_latest_interval[3];
91 static void tmu_timer_set_interval(int tmu_num, unsigned long interval, unsigned int reload)
92 {
93         unsigned long tmu_tcnt = TMU0_TCNT + tmu_num*0xC;
94         unsigned long tmu_tcor = TMU0_TCOR + tmu_num*0xC;
95
96         _tmu_stop(tmu_num);
97
98         ctrl_outl(interval, tmu_tcnt);
99         tmu_latest_interval[tmu_num] = interval;
100
101         /*
102          * TCNT reloads from TCOR on underflow, clear it if we don't
103          * intend to auto-reload
104          */
105         ctrl_outl( reload ? interval : 0 , tmu_tcor);
106
107         _tmu_start(tmu_num);
108 }
109
110 static int tmu_set_next_event(unsigned long cycles,
111                               struct clock_event_device *evt)
112 {
113         tmu_timer_set_interval(TMU0,cycles, evt->mode == CLOCK_EVT_MODE_PERIODIC);
114         _tmu_set_irq(TMU0,1);
115         return 0;
116 }
117
118 static void tmu_set_mode(enum clock_event_mode mode,
119                          struct clock_event_device *evt)
120 {
121         switch (mode) {
122         case CLOCK_EVT_MODE_PERIODIC:
123                 ctrl_outl(tmu_latest_interval[TMU0], TMU0_TCOR);
124                 break;
125         case CLOCK_EVT_MODE_ONESHOT:
126                 ctrl_outl(0, TMU0_TCOR);
127                 break;
128         case CLOCK_EVT_MODE_UNUSED:
129         case CLOCK_EVT_MODE_SHUTDOWN:
130         case CLOCK_EVT_MODE_RESUME:
131                 break;
132         }
133 }
134
135 static struct clock_event_device tmu0_clockevent = {
136         .name           = "tmu0",
137         .shift          = 32,
138         .features       = CLOCK_EVT_FEAT_PERIODIC | CLOCK_EVT_FEAT_ONESHOT,
139         .set_mode       = tmu_set_mode,
140         .set_next_event = tmu_set_next_event,
141 };
142
143 static irqreturn_t tmu_timer_interrupt(int irq, void *dummy)
144 {
145         struct clock_event_device *evt = &tmu0_clockevent;
146         _tmu_clear_status(TMU0);
147         _tmu_set_irq(TMU0,tmu0_clockevent.mode != CLOCK_EVT_MODE_ONESHOT);
148
149         switch (tmu0_clockevent.mode) {
150         case CLOCK_EVT_MODE_ONESHOT:
151         case CLOCK_EVT_MODE_PERIODIC:
152                 evt->event_handler(evt);
153                 break;
154         default:
155                 break;
156         }
157
158         return IRQ_HANDLED;
159 }
160
161 static struct irqaction tmu0_irq = {
162         .name           = "periodic/oneshot timer",
163         .handler        = tmu_timer_interrupt,
164         .flags          = IRQF_DISABLED | IRQF_TIMER | IRQF_IRQPOLL,
165         .mask           = CPU_MASK_NONE,
166 };
167
168 static void __init tmu_clk_init(struct clk *clk)
169 {
170         u8 divisor  = TMU_TCR_INIT & 0x7;
171         int tmu_num = clk->name[3]-'0';
172         ctrl_outw(TMU_TCR_INIT, TMU0_TCR+(tmu_num*0xC));
173         clk->rate = clk_get_rate(clk->parent) / (4 << (divisor << 1));
174 }
175
176 static void tmu_clk_recalc(struct clk *clk)
177 {
178         int tmu_num = clk->name[3]-'0';
179         unsigned long prev_rate = clk_get_rate(clk);
180         unsigned long flags;
181         u8 divisor = ctrl_inw(TMU0_TCR+tmu_num*0xC) & 0x7;
182         clk->rate  = clk_get_rate(clk->parent) / (4 << (divisor << 1));
183
184         if(prev_rate==clk_get_rate(clk))
185                 return;
186
187         if(tmu_num)
188                 return; /* No more work on TMU1 */
189
190         local_irq_save(flags);
191         tmus_are_scaled = (prev_rate > clk->rate);
192
193         _tmu_stop(TMU0);
194
195         tmu0_clockevent.mult = div_sc(clk->rate, NSEC_PER_SEC,
196                                 tmu0_clockevent.shift);
197         tmu0_clockevent.max_delta_ns =
198                         clockevent_delta2ns(-1, &tmu0_clockevent);
199         tmu0_clockevent.min_delta_ns =
200                         clockevent_delta2ns(1, &tmu0_clockevent);
201
202         if (tmus_are_scaled)
203                 tmu_latest_interval[TMU0] >>= 1;
204         else
205                 tmu_latest_interval[TMU0] <<= 1;
206
207         tmu_timer_set_interval(TMU0,
208                 tmu_latest_interval[TMU0],
209                 tmu0_clockevent.mode == CLOCK_EVT_MODE_PERIODIC);
210
211         _tmu_start(TMU0);
212
213         local_irq_restore(flags);
214 }
215
216 static struct clk_ops tmu_clk_ops = {
217         .init           = tmu_clk_init,
218         .recalc         = tmu_clk_recalc,
219 };
220
221 static struct clk tmu0_clk = {
222         .name           = "tmu0_clk",
223         .ops            = &tmu_clk_ops,
224 };
225
226 static struct clk tmu1_clk = {
227         .name           = "tmu1_clk",
228         .ops            = &tmu_clk_ops,
229 };
230
231 static int tmu_timer_init(void)
232 {
233         unsigned long interval;
234         unsigned long frequency;
235
236         setup_irq(CONFIG_SH_TIMER_IRQ, &tmu0_irq);
237
238         tmu0_clk.parent = clk_get(NULL, "module_clk");
239         tmu1_clk.parent = clk_get(NULL, "module_clk");
240
241         tmu_timer_stop();
242
243 #if !defined(CONFIG_CPU_SUBTYPE_SH7720) && \
244     !defined(CONFIG_CPU_SUBTYPE_SH7721) && \
245     !defined(CONFIG_CPU_SUBTYPE_SH7760) && \
246     !defined(CONFIG_CPU_SUBTYPE_SH7785) && \
247     !defined(CONFIG_CPU_SUBTYPE_SH7786) && \
248     !defined(CONFIG_CPU_SUBTYPE_SHX3)
249         ctrl_outb(TMU_TOCR_INIT, TMU_TOCR);
250 #endif
251
252         clk_register(&tmu0_clk);
253         clk_register(&tmu1_clk);
254         clk_enable(&tmu0_clk);
255         clk_enable(&tmu1_clk);
256
257         frequency = clk_get_rate(&tmu0_clk);
258         interval = (frequency + HZ / 2) / HZ;
259
260         tmu_timer_set_interval(TMU0,interval, 1);
261         tmu_timer_set_interval(TMU1,~0,1);
262
263         _tmu_start(TMU1);
264
265         clocksource_sh.rating = 200;
266         clocksource_sh.mask = CLOCKSOURCE_MASK(32);
267         clocksource_sh.read = tmu_timer_read;
268         clocksource_sh.shift = 10;
269         clocksource_sh.mult = clocksource_hz2mult(clk_get_rate(&tmu1_clk),
270                                                   clocksource_sh.shift);
271         clocksource_sh.flags = CLOCK_SOURCE_IS_CONTINUOUS;
272         clocksource_register(&clocksource_sh);
273
274         tmu0_clockevent.mult = div_sc(frequency, NSEC_PER_SEC,
275                                       tmu0_clockevent.shift);
276         tmu0_clockevent.max_delta_ns =
277                         clockevent_delta2ns(-1, &tmu0_clockevent);
278         tmu0_clockevent.min_delta_ns =
279                         clockevent_delta2ns(1, &tmu0_clockevent);
280
281         tmu0_clockevent.cpumask = cpumask_of(0);
282         tmu0_clockevent.rating = 100;
283
284         clockevents_register_device(&tmu0_clockevent);
285
286         return 0;
287 }
288
289 static struct sys_timer_ops tmu_timer_ops = {
290         .init           = tmu_timer_init,
291         .start          = tmu_timer_start,
292         .stop           = tmu_timer_stop,
293 };
294
295 struct sys_timer tmu_timer = {
296         .name   = "tmu",
297         .ops    = &tmu_timer_ops,
298 };