a19bab18318aed95536203dc6eadc7f6f0ec8699
[safe/jmp/linux-2.6] / arch / arm / mach-davinci / clock.c
1 /*
2  * Clock and PLL control for DaVinci devices
3  *
4  * Copyright (C) 2006-2007 Texas Instruments.
5  * Copyright (C) 2008-2009 Deep Root Systems, LLC
6  *
7  * This program is free software; you can redistribute it and/or modify
8  * it under the terms of the GNU General Public License as published by
9  * the Free Software Foundation; either version 2 of the License, or
10  * (at your option) any later version.
11  */
12
13 #include <linux/module.h>
14 #include <linux/kernel.h>
15 #include <linux/init.h>
16 #include <linux/errno.h>
17 #include <linux/clk.h>
18 #include <linux/err.h>
19 #include <linux/mutex.h>
20 #include <linux/io.h>
21 #include <linux/delay.h>
22
23 #include <mach/hardware.h>
24
25 #include <mach/psc.h>
26 #include <mach/cputype.h>
27 #include "clock.h"
28
29 static LIST_HEAD(clocks);
30 static DEFINE_MUTEX(clocks_mutex);
31 static DEFINE_SPINLOCK(clockfw_lock);
32
33 static unsigned psc_domain(struct clk *clk)
34 {
35         return (clk->flags & PSC_DSP)
36                 ? DAVINCI_GPSC_DSPDOMAIN
37                 : DAVINCI_GPSC_ARMDOMAIN;
38 }
39
40 static void __clk_enable(struct clk *clk)
41 {
42         if (clk->parent)
43                 __clk_enable(clk->parent);
44         if (clk->usecount++ == 0 && (clk->flags & CLK_PSC))
45                 davinci_psc_config(psc_domain(clk), clk->gpsc, clk->lpsc, 1);
46 }
47
48 static void __clk_disable(struct clk *clk)
49 {
50         if (WARN_ON(clk->usecount == 0))
51                 return;
52         if (--clk->usecount == 0 && !(clk->flags & CLK_PLL))
53                 davinci_psc_config(psc_domain(clk), clk->gpsc, clk->lpsc, 0);
54         if (clk->parent)
55                 __clk_disable(clk->parent);
56 }
57
58 int clk_enable(struct clk *clk)
59 {
60         unsigned long flags;
61
62         if (clk == NULL || IS_ERR(clk))
63                 return -EINVAL;
64
65         spin_lock_irqsave(&clockfw_lock, flags);
66         __clk_enable(clk);
67         spin_unlock_irqrestore(&clockfw_lock, flags);
68
69         return 0;
70 }
71 EXPORT_SYMBOL(clk_enable);
72
73 void clk_disable(struct clk *clk)
74 {
75         unsigned long flags;
76
77         if (clk == NULL || IS_ERR(clk))
78                 return;
79
80         spin_lock_irqsave(&clockfw_lock, flags);
81         __clk_disable(clk);
82         spin_unlock_irqrestore(&clockfw_lock, flags);
83 }
84 EXPORT_SYMBOL(clk_disable);
85
86 unsigned long clk_get_rate(struct clk *clk)
87 {
88         if (clk == NULL || IS_ERR(clk))
89                 return -EINVAL;
90
91         return clk->rate;
92 }
93 EXPORT_SYMBOL(clk_get_rate);
94
95 long clk_round_rate(struct clk *clk, unsigned long rate)
96 {
97         if (clk == NULL || IS_ERR(clk))
98                 return -EINVAL;
99
100         if (clk->round_rate)
101                 return clk->round_rate(clk, rate);
102
103         return clk->rate;
104 }
105 EXPORT_SYMBOL(clk_round_rate);
106
107 /* Propagate rate to children */
108 static void propagate_rate(struct clk *root)
109 {
110         struct clk *clk;
111
112         list_for_each_entry(clk, &root->children, childnode) {
113                 if (clk->recalc)
114                         clk->rate = clk->recalc(clk);
115                 propagate_rate(clk);
116         }
117 }
118
119 int clk_set_rate(struct clk *clk, unsigned long rate)
120 {
121         unsigned long flags;
122         int ret = -EINVAL;
123
124         if (clk == NULL || IS_ERR(clk))
125                 return ret;
126
127         spin_lock_irqsave(&clockfw_lock, flags);
128         if (clk->set_rate)
129                 ret = clk->set_rate(clk, rate);
130         if (ret == 0) {
131                 if (clk->recalc)
132                         clk->rate = clk->recalc(clk);
133                 propagate_rate(clk);
134         }
135         spin_unlock_irqrestore(&clockfw_lock, flags);
136
137         return ret;
138 }
139 EXPORT_SYMBOL(clk_set_rate);
140
141 int clk_set_parent(struct clk *clk, struct clk *parent)
142 {
143         unsigned long flags;
144
145         if (clk == NULL || IS_ERR(clk))
146                 return -EINVAL;
147
148         /* Cannot change parent on enabled clock */
149         if (WARN_ON(clk->usecount))
150                 return -EINVAL;
151
152         mutex_lock(&clocks_mutex);
153         clk->parent = parent;
154         list_del_init(&clk->childnode);
155         list_add(&clk->childnode, &clk->parent->children);
156         mutex_unlock(&clocks_mutex);
157
158         spin_lock_irqsave(&clockfw_lock, flags);
159         if (clk->recalc)
160                 clk->rate = clk->recalc(clk);
161         propagate_rate(clk);
162         spin_unlock_irqrestore(&clockfw_lock, flags);
163
164         return 0;
165 }
166 EXPORT_SYMBOL(clk_set_parent);
167
168 int clk_register(struct clk *clk)
169 {
170         if (clk == NULL || IS_ERR(clk))
171                 return -EINVAL;
172
173         if (WARN(clk->parent && !clk->parent->rate,
174                         "CLK: %s parent %s has no rate!\n",
175                         clk->name, clk->parent->name))
176                 return -EINVAL;
177
178         INIT_LIST_HEAD(&clk->children);
179
180         mutex_lock(&clocks_mutex);
181         list_add_tail(&clk->node, &clocks);
182         if (clk->parent)
183                 list_add_tail(&clk->childnode, &clk->parent->children);
184         mutex_unlock(&clocks_mutex);
185
186         /* If rate is already set, use it */
187         if (clk->rate)
188                 return 0;
189
190         /* Else, see if there is a way to calculate it */
191         if (clk->recalc)
192                 clk->rate = clk->recalc(clk);
193
194         /* Otherwise, default to parent rate */
195         else if (clk->parent)
196                 clk->rate = clk->parent->rate;
197
198         return 0;
199 }
200 EXPORT_SYMBOL(clk_register);
201
202 void clk_unregister(struct clk *clk)
203 {
204         if (clk == NULL || IS_ERR(clk))
205                 return;
206
207         mutex_lock(&clocks_mutex);
208         list_del(&clk->node);
209         list_del(&clk->childnode);
210         mutex_unlock(&clocks_mutex);
211 }
212 EXPORT_SYMBOL(clk_unregister);
213
214 #ifdef CONFIG_DAVINCI_RESET_CLOCKS
215 /*
216  * Disable any unused clocks left on by the bootloader
217  */
218 static int __init clk_disable_unused(void)
219 {
220         struct clk *ck;
221
222         spin_lock_irq(&clockfw_lock);
223         list_for_each_entry(ck, &clocks, node) {
224                 if (ck->usecount > 0)
225                         continue;
226                 if (!(ck->flags & CLK_PSC))
227                         continue;
228
229                 /* ignore if in Disabled or SwRstDisable states */
230                 if (!davinci_psc_is_clk_active(ck->gpsc, ck->lpsc))
231                         continue;
232
233                 pr_info("Clocks: disable unused %s\n", ck->name);
234                 davinci_psc_config(psc_domain(ck), ck->gpsc, ck->lpsc, 0);
235         }
236         spin_unlock_irq(&clockfw_lock);
237
238         return 0;
239 }
240 late_initcall(clk_disable_unused);
241 #endif
242
243 static unsigned long clk_sysclk_recalc(struct clk *clk)
244 {
245         u32 v, plldiv;
246         struct pll_data *pll;
247         unsigned long rate = clk->rate;
248
249         /* If this is the PLL base clock, no more calculations needed */
250         if (clk->pll_data)
251                 return rate;
252
253         if (WARN_ON(!clk->parent))
254                 return rate;
255
256         rate = clk->parent->rate;
257
258         /* Otherwise, the parent must be a PLL */
259         if (WARN_ON(!clk->parent->pll_data))
260                 return rate;
261
262         pll = clk->parent->pll_data;
263
264         /* If pre-PLL, source clock is before the multiplier and divider(s) */
265         if (clk->flags & PRE_PLL)
266                 rate = pll->input_rate;
267
268         if (!clk->div_reg)
269                 return rate;
270
271         v = __raw_readl(pll->base + clk->div_reg);
272         if (v & PLLDIV_EN) {
273                 plldiv = (v & PLLDIV_RATIO_MASK) + 1;
274                 if (plldiv)
275                         rate /= plldiv;
276         }
277
278         return rate;
279 }
280
281 static unsigned long clk_leafclk_recalc(struct clk *clk)
282 {
283         if (WARN_ON(!clk->parent))
284                 return clk->rate;
285
286         return clk->parent->rate;
287 }
288
289 static unsigned long clk_pllclk_recalc(struct clk *clk)
290 {
291         u32 ctrl, mult = 1, prediv = 1, postdiv = 1;
292         u8 bypass;
293         struct pll_data *pll = clk->pll_data;
294         unsigned long rate = clk->rate;
295
296         pll->base = IO_ADDRESS(pll->phys_base);
297         ctrl = __raw_readl(pll->base + PLLCTL);
298         rate = pll->input_rate = clk->parent->rate;
299
300         if (ctrl & PLLCTL_PLLEN) {
301                 bypass = 0;
302                 mult = __raw_readl(pll->base + PLLM);
303                 if (cpu_is_davinci_dm365())
304                         mult = 2 * (mult & PLLM_PLLM_MASK);
305                 else
306                         mult = (mult & PLLM_PLLM_MASK) + 1;
307         } else
308                 bypass = 1;
309
310         if (pll->flags & PLL_HAS_PREDIV) {
311                 prediv = __raw_readl(pll->base + PREDIV);
312                 if (prediv & PLLDIV_EN)
313                         prediv = (prediv & PLLDIV_RATIO_MASK) + 1;
314                 else
315                         prediv = 1;
316         }
317
318         /* pre-divider is fixed, but (some?) chips won't report that */
319         if (cpu_is_davinci_dm355() && pll->num == 1)
320                 prediv = 8;
321
322         if (pll->flags & PLL_HAS_POSTDIV) {
323                 postdiv = __raw_readl(pll->base + POSTDIV);
324                 if (postdiv & PLLDIV_EN)
325                         postdiv = (postdiv & PLLDIV_RATIO_MASK) + 1;
326                 else
327                         postdiv = 1;
328         }
329
330         if (!bypass) {
331                 rate /= prediv;
332                 rate *= mult;
333                 rate /= postdiv;
334         }
335
336         pr_debug("PLL%d: input = %lu MHz [ ",
337                  pll->num, clk->parent->rate / 1000000);
338         if (bypass)
339                 pr_debug("bypass ");
340         if (prediv > 1)
341                 pr_debug("/ %d ", prediv);
342         if (mult > 1)
343                 pr_debug("* %d ", mult);
344         if (postdiv > 1)
345                 pr_debug("/ %d ", postdiv);
346         pr_debug("] --> %lu MHz output.\n", rate / 1000000);
347
348         return rate;
349 }
350
351 /**
352  * davinci_set_pllrate - set the output rate of a given PLL.
353  *
354  * Note: Currently tested to work with OMAP-L138 only.
355  *
356  * @pll: pll whose rate needs to be changed.
357  * @prediv: The pre divider value. Passing 0 disables the pre-divider.
358  * @pllm: The multiplier value. Passing 0 leads to multiply-by-one.
359  * @postdiv: The post divider value. Passing 0 disables the post-divider.
360  */
361 int davinci_set_pllrate(struct pll_data *pll, unsigned int prediv,
362                                         unsigned int mult, unsigned int postdiv)
363 {
364         u32 ctrl;
365         unsigned int locktime;
366
367         if (pll->base == NULL)
368                 return -EINVAL;
369
370         /*
371          *  PLL lock time required per OMAP-L138 datasheet is
372          * (2000 * prediv)/sqrt(pllm) OSCIN cycles. We approximate sqrt(pllm)
373          * as 4 and OSCIN cycle as 25 MHz.
374          */
375         if (prediv) {
376                 locktime = ((2000 * prediv) / 100);
377                 prediv = (prediv - 1) | PLLDIV_EN;
378         } else {
379                 locktime = PLL_LOCK_TIME;
380         }
381         if (postdiv)
382                 postdiv = (postdiv - 1) | PLLDIV_EN;
383         if (mult)
384                 mult = mult - 1;
385
386         ctrl = __raw_readl(pll->base + PLLCTL);
387
388         /* Switch the PLL to bypass mode */
389         ctrl &= ~(PLLCTL_PLLENSRC | PLLCTL_PLLEN);
390         __raw_writel(ctrl, pll->base + PLLCTL);
391
392         udelay(PLL_BYPASS_TIME);
393
394         /* Reset and enable PLL */
395         ctrl &= ~(PLLCTL_PLLRST | PLLCTL_PLLDIS);
396         __raw_writel(ctrl, pll->base + PLLCTL);
397
398         if (pll->flags & PLL_HAS_PREDIV)
399                 __raw_writel(prediv, pll->base + PREDIV);
400
401         __raw_writel(mult, pll->base + PLLM);
402
403         if (pll->flags & PLL_HAS_POSTDIV)
404                 __raw_writel(postdiv, pll->base + POSTDIV);
405
406         udelay(PLL_RESET_TIME);
407
408         /* Bring PLL out of reset */
409         ctrl |= PLLCTL_PLLRST;
410         __raw_writel(ctrl, pll->base + PLLCTL);
411
412         udelay(locktime);
413
414         /* Remove PLL from bypass mode */
415         ctrl |= PLLCTL_PLLEN;
416         __raw_writel(ctrl, pll->base + PLLCTL);
417
418         return 0;
419 }
420 EXPORT_SYMBOL(davinci_set_pllrate);
421
422 int __init davinci_clk_init(struct davinci_clk *clocks)
423   {
424         struct davinci_clk *c;
425         struct clk *clk;
426
427         for (c = clocks; c->lk.clk; c++) {
428                 clk = c->lk.clk;
429
430                 if (!clk->recalc) {
431
432                         /* Check if clock is a PLL */
433                         if (clk->pll_data)
434                                 clk->recalc = clk_pllclk_recalc;
435
436                         /* Else, if it is a PLL-derived clock */
437                         else if (clk->flags & CLK_PLL)
438                                 clk->recalc = clk_sysclk_recalc;
439
440                         /* Otherwise, it is a leaf clock (PSC clock) */
441                         else if (clk->parent)
442                                 clk->recalc = clk_leafclk_recalc;
443                 }
444
445                 if (clk->recalc)
446                         clk->rate = clk->recalc(clk);
447
448                 if (clk->lpsc)
449                         clk->flags |= CLK_PSC;
450
451                 clkdev_add(&c->lk);
452                 clk_register(clk);
453
454                 /* Turn on clocks that Linux doesn't otherwise manage */
455                 if (clk->flags & ALWAYS_ENABLED)
456                         clk_enable(clk);
457         }
458
459         return 0;
460 }
461
462 #ifdef CONFIG_DEBUG_FS
463
464 #include <linux/debugfs.h>
465 #include <linux/seq_file.h>
466
467 #define CLKNAME_MAX     10              /* longest clock name */
468 #define NEST_DELTA      2
469 #define NEST_MAX        4
470
471 static void
472 dump_clock(struct seq_file *s, unsigned nest, struct clk *parent)
473 {
474         char            *state;
475         char            buf[CLKNAME_MAX + NEST_DELTA * NEST_MAX];
476         struct clk      *clk;
477         unsigned        i;
478
479         if (parent->flags & CLK_PLL)
480                 state = "pll";
481         else if (parent->flags & CLK_PSC)
482                 state = "psc";
483         else
484                 state = "";
485
486         /* <nest spaces> name <pad to end> */
487         memset(buf, ' ', sizeof(buf) - 1);
488         buf[sizeof(buf) - 1] = 0;
489         i = strlen(parent->name);
490         memcpy(buf + nest, parent->name,
491                         min(i, (unsigned)(sizeof(buf) - 1 - nest)));
492
493         seq_printf(s, "%s users=%2d %-3s %9ld Hz\n",
494                    buf, parent->usecount, state, clk_get_rate(parent));
495         /* REVISIT show device associations too */
496
497         /* cost is now small, but not linear... */
498         list_for_each_entry(clk, &parent->children, childnode) {
499                 dump_clock(s, nest + NEST_DELTA, clk);
500         }
501 }
502
503 static int davinci_ck_show(struct seq_file *m, void *v)
504 {
505         struct clk *clk;
506
507         /*
508          * Show clock tree; We trust nonzero usecounts equate to PSC enables...
509          */
510         mutex_lock(&clocks_mutex);
511         list_for_each_entry(clk, &clocks, node)
512                 if (!clk->parent)
513                         dump_clock(m, 0, clk);
514         mutex_unlock(&clocks_mutex);
515
516         return 0;
517 }
518
519 static int davinci_ck_open(struct inode *inode, struct file *file)
520 {
521         return single_open(file, davinci_ck_show, NULL);
522 }
523
524 static const struct file_operations davinci_ck_operations = {
525         .open           = davinci_ck_open,
526         .read           = seq_read,
527         .llseek         = seq_lseek,
528         .release        = single_release,
529 };
530
531 static int __init davinci_clk_debugfs_init(void)
532 {
533         debugfs_create_file("davinci_clocks", S_IFREG | S_IRUGO, NULL, NULL,
534                                                 &davinci_ck_operations);
535         return 0;
536
537 }
538 device_initcall(davinci_clk_debugfs_init);
539 #endif /* CONFIG_DEBUG_FS */