]> www.pilppa.org Git - linux-2.6-omap-h63xx.git/blob - fs/proc/proc_misc.c
9fa20f157cf3d1bbcbacf9683fad97150264b66d
[linux-2.6-omap-h63xx.git] / fs / proc / proc_misc.c
1 /*
2  *  linux/fs/proc/proc_misc.c
3  *
4  *  linux/fs/proc/array.c
5  *  Copyright (C) 1992  by Linus Torvalds
6  *  based on ideas by Darren Senn
7  *
8  *  This used to be the part of array.c. See the rest of history and credits
9  *  there. I took this into a separate file and switched the thing to generic
10  *  proc_file_inode_operations, leaving in array.c only per-process stuff.
11  *  Inumbers allocation made dynamic (via create_proc_entry()).  AV, May 1999.
12  *
13  * Changes:
14  * Fulton Green      :  Encapsulated position metric calculations.
15  *                      <kernel@FultonGreen.com>
16  */
17
18 #include <linux/types.h>
19 #include <linux/errno.h>
20 #include <linux/time.h>
21 #include <linux/kernel.h>
22 #include <linux/kernel_stat.h>
23 #include <linux/fs.h>
24 #include <linux/tty.h>
25 #include <linux/string.h>
26 #include <linux/mman.h>
27 #include <linux/quicklist.h>
28 #include <linux/proc_fs.h>
29 #include <linux/ioport.h>
30 #include <linux/mm.h>
31 #include <linux/mmzone.h>
32 #include <linux/pagemap.h>
33 #include <linux/irq.h>
34 #include <linux/interrupt.h>
35 #include <linux/swap.h>
36 #include <linux/slab.h>
37 #include <linux/genhd.h>
38 #include <linux/smp.h>
39 #include <linux/signal.h>
40 #include <linux/module.h>
41 #include <linux/init.h>
42 #include <linux/seq_file.h>
43 #include <linux/times.h>
44 #include <linux/profile.h>
45 #include <linux/utsname.h>
46 #include <linux/blkdev.h>
47 #include <linux/hugetlb.h>
48 #include <linux/jiffies.h>
49 #include <linux/vmalloc.h>
50 #include <linux/crash_dump.h>
51 #include <linux/pid_namespace.h>
52 #include <linux/bootmem.h>
53 #include <asm/uaccess.h>
54 #include <asm/pgtable.h>
55 #include <asm/io.h>
56 #include <asm/tlb.h>
57 #include <asm/div64.h>
58 #include "internal.h"
59
60 /*
61  * Warning: stuff below (imported functions) assumes that its output will fit
62  * into one page. For some of those functions it may be wrong. Moreover, we
63  * have a way to deal with that gracefully. Right now I used straightforward
64  * wrappers, but this needs further analysis wrt potential overflows.
65  */
66 extern int get_exec_domain_list(char *);
67
68 static int proc_calc_metrics(char *page, char **start, off_t off,
69                                  int count, int *eof, int len)
70 {
71         if (len <= off+count) *eof = 1;
72         *start = page + off;
73         len -= off;
74         if (len>count) len = count;
75         if (len<0) len = 0;
76         return len;
77 }
78
79 static int fragmentation_open(struct inode *inode, struct file *file)
80 {
81         (void)inode;
82         return seq_open(file, &fragmentation_op);
83 }
84
85 static const struct file_operations fragmentation_file_operations = {
86         .open           = fragmentation_open,
87         .read           = seq_read,
88         .llseek         = seq_lseek,
89         .release        = seq_release,
90 };
91
92 static int pagetypeinfo_open(struct inode *inode, struct file *file)
93 {
94         return seq_open(file, &pagetypeinfo_op);
95 }
96
97 static const struct file_operations pagetypeinfo_file_ops = {
98         .open           = pagetypeinfo_open,
99         .read           = seq_read,
100         .llseek         = seq_lseek,
101         .release        = seq_release,
102 };
103
104 static int zoneinfo_open(struct inode *inode, struct file *file)
105 {
106         return seq_open(file, &zoneinfo_op);
107 }
108
109 static const struct file_operations proc_zoneinfo_file_operations = {
110         .open           = zoneinfo_open,
111         .read           = seq_read,
112         .llseek         = seq_lseek,
113         .release        = seq_release,
114 };
115
116 extern const struct seq_operations cpuinfo_op;
117 static int cpuinfo_open(struct inode *inode, struct file *file)
118 {
119         return seq_open(file, &cpuinfo_op);
120 }
121
122 static const struct file_operations proc_cpuinfo_operations = {
123         .open           = cpuinfo_open,
124         .read           = seq_read,
125         .llseek         = seq_lseek,
126         .release        = seq_release,
127 };
128
129 static int devinfo_show(struct seq_file *f, void *v)
130 {
131         int i = *(loff_t *) v;
132
133         if (i < CHRDEV_MAJOR_HASH_SIZE) {
134                 if (i == 0)
135                         seq_printf(f, "Character devices:\n");
136                 chrdev_show(f, i);
137         }
138 #ifdef CONFIG_BLOCK
139         else {
140                 i -= CHRDEV_MAJOR_HASH_SIZE;
141                 if (i == 0)
142                         seq_printf(f, "\nBlock devices:\n");
143                 blkdev_show(f, i);
144         }
145 #endif
146         return 0;
147 }
148
149 static void *devinfo_start(struct seq_file *f, loff_t *pos)
150 {
151         if (*pos < (BLKDEV_MAJOR_HASH_SIZE + CHRDEV_MAJOR_HASH_SIZE))
152                 return pos;
153         return NULL;
154 }
155
156 static void *devinfo_next(struct seq_file *f, void *v, loff_t *pos)
157 {
158         (*pos)++;
159         if (*pos >= (BLKDEV_MAJOR_HASH_SIZE + CHRDEV_MAJOR_HASH_SIZE))
160                 return NULL;
161         return pos;
162 }
163
164 static void devinfo_stop(struct seq_file *f, void *v)
165 {
166         /* Nothing to do */
167 }
168
169 static const struct seq_operations devinfo_ops = {
170         .start = devinfo_start,
171         .next  = devinfo_next,
172         .stop  = devinfo_stop,
173         .show  = devinfo_show
174 };
175
176 static int devinfo_open(struct inode *inode, struct file *filp)
177 {
178         return seq_open(filp, &devinfo_ops);
179 }
180
181 static const struct file_operations proc_devinfo_operations = {
182         .open           = devinfo_open,
183         .read           = seq_read,
184         .llseek         = seq_lseek,
185         .release        = seq_release,
186 };
187
188 static int vmstat_open(struct inode *inode, struct file *file)
189 {
190         return seq_open(file, &vmstat_op);
191 }
192 static const struct file_operations proc_vmstat_file_operations = {
193         .open           = vmstat_open,
194         .read           = seq_read,
195         .llseek         = seq_lseek,
196         .release        = seq_release,
197 };
198
199 #ifdef CONFIG_BLOCK
200 static int partitions_open(struct inode *inode, struct file *file)
201 {
202         return seq_open(file, &partitions_op);
203 }
204 static const struct file_operations proc_partitions_operations = {
205         .open           = partitions_open,
206         .read           = seq_read,
207         .llseek         = seq_lseek,
208         .release        = seq_release,
209 };
210
211 static int diskstats_open(struct inode *inode, struct file *file)
212 {
213         return seq_open(file, &diskstats_op);
214 }
215 static const struct file_operations proc_diskstats_operations = {
216         .open           = diskstats_open,
217         .read           = seq_read,
218         .llseek         = seq_lseek,
219         .release        = seq_release,
220 };
221 #endif
222
223 #ifdef CONFIG_MODULES
224 extern const struct seq_operations modules_op;
225 static int modules_open(struct inode *inode, struct file *file)
226 {
227         return seq_open(file, &modules_op);
228 }
229 static const struct file_operations proc_modules_operations = {
230         .open           = modules_open,
231         .read           = seq_read,
232         .llseek         = seq_lseek,
233         .release        = seq_release,
234 };
235 #endif
236
237 #ifdef CONFIG_SLABINFO
238 static int slabinfo_open(struct inode *inode, struct file *file)
239 {
240         return seq_open(file, &slabinfo_op);
241 }
242 static const struct file_operations proc_slabinfo_operations = {
243         .open           = slabinfo_open,
244         .read           = seq_read,
245         .write          = slabinfo_write,
246         .llseek         = seq_lseek,
247         .release        = seq_release,
248 };
249
250 #ifdef CONFIG_DEBUG_SLAB_LEAK
251 extern const struct seq_operations slabstats_op;
252 static int slabstats_open(struct inode *inode, struct file *file)
253 {
254         unsigned long *n = kzalloc(PAGE_SIZE, GFP_KERNEL);
255         int ret = -ENOMEM;
256         if (n) {
257                 ret = seq_open(file, &slabstats_op);
258                 if (!ret) {
259                         struct seq_file *m = file->private_data;
260                         *n = PAGE_SIZE / (2 * sizeof(unsigned long));
261                         m->private = n;
262                         n = NULL;
263                 }
264                 kfree(n);
265         }
266         return ret;
267 }
268
269 static const struct file_operations proc_slabstats_operations = {
270         .open           = slabstats_open,
271         .read           = seq_read,
272         .llseek         = seq_lseek,
273         .release        = seq_release_private,
274 };
275 #endif
276 #endif
277
278 #ifdef CONFIG_MMU
279 static int vmalloc_open(struct inode *inode, struct file *file)
280 {
281         unsigned int *ptr = NULL;
282         int ret;
283
284         if (NUMA_BUILD)
285                 ptr = kmalloc(nr_node_ids * sizeof(unsigned int), GFP_KERNEL);
286         ret = seq_open(file, &vmalloc_op);
287         if (!ret) {
288                 struct seq_file *m = file->private_data;
289                 m->private = ptr;
290         } else
291                 kfree(ptr);
292         return ret;
293 }
294
295 static const struct file_operations proc_vmalloc_operations = {
296         .open           = vmalloc_open,
297         .read           = seq_read,
298         .llseek         = seq_lseek,
299         .release        = seq_release_private,
300 };
301 #endif
302
303 #ifndef arch_irq_stat_cpu
304 #define arch_irq_stat_cpu(cpu) 0
305 #endif
306 #ifndef arch_irq_stat
307 #define arch_irq_stat() 0
308 #endif
309
310 static int show_stat(struct seq_file *p, void *v)
311 {
312         int i, j;
313         unsigned long jif;
314         cputime64_t user, nice, system, idle, iowait, irq, softirq, steal;
315         cputime64_t guest;
316         u64 sum = 0;
317         struct timespec boottime;
318         unsigned int per_irq_sum;
319
320         user = nice = system = idle = iowait =
321                 irq = softirq = steal = cputime64_zero;
322         guest = cputime64_zero;
323         getboottime(&boottime);
324         jif = boottime.tv_sec;
325
326         for_each_possible_cpu(i) {
327                 user = cputime64_add(user, kstat_cpu(i).cpustat.user);
328                 nice = cputime64_add(nice, kstat_cpu(i).cpustat.nice);
329                 system = cputime64_add(system, kstat_cpu(i).cpustat.system);
330                 idle = cputime64_add(idle, kstat_cpu(i).cpustat.idle);
331                 iowait = cputime64_add(iowait, kstat_cpu(i).cpustat.iowait);
332                 irq = cputime64_add(irq, kstat_cpu(i).cpustat.irq);
333                 softirq = cputime64_add(softirq, kstat_cpu(i).cpustat.softirq);
334                 steal = cputime64_add(steal, kstat_cpu(i).cpustat.steal);
335                 guest = cputime64_add(guest, kstat_cpu(i).cpustat.guest);
336
337                 for_each_irq_nr(j)
338                         sum += kstat_irqs_cpu(j, i);
339
340                 sum += arch_irq_stat_cpu(i);
341         }
342         sum += arch_irq_stat();
343
344         seq_printf(p, "cpu  %llu %llu %llu %llu %llu %llu %llu %llu %llu\n",
345                 (unsigned long long)cputime64_to_clock_t(user),
346                 (unsigned long long)cputime64_to_clock_t(nice),
347                 (unsigned long long)cputime64_to_clock_t(system),
348                 (unsigned long long)cputime64_to_clock_t(idle),
349                 (unsigned long long)cputime64_to_clock_t(iowait),
350                 (unsigned long long)cputime64_to_clock_t(irq),
351                 (unsigned long long)cputime64_to_clock_t(softirq),
352                 (unsigned long long)cputime64_to_clock_t(steal),
353                 (unsigned long long)cputime64_to_clock_t(guest));
354         for_each_online_cpu(i) {
355
356                 /* Copy values here to work around gcc-2.95.3, gcc-2.96 */
357                 user = kstat_cpu(i).cpustat.user;
358                 nice = kstat_cpu(i).cpustat.nice;
359                 system = kstat_cpu(i).cpustat.system;
360                 idle = kstat_cpu(i).cpustat.idle;
361                 iowait = kstat_cpu(i).cpustat.iowait;
362                 irq = kstat_cpu(i).cpustat.irq;
363                 softirq = kstat_cpu(i).cpustat.softirq;
364                 steal = kstat_cpu(i).cpustat.steal;
365                 guest = kstat_cpu(i).cpustat.guest;
366                 seq_printf(p,
367                         "cpu%d %llu %llu %llu %llu %llu %llu %llu %llu %llu\n",
368                         i,
369                         (unsigned long long)cputime64_to_clock_t(user),
370                         (unsigned long long)cputime64_to_clock_t(nice),
371                         (unsigned long long)cputime64_to_clock_t(system),
372                         (unsigned long long)cputime64_to_clock_t(idle),
373                         (unsigned long long)cputime64_to_clock_t(iowait),
374                         (unsigned long long)cputime64_to_clock_t(irq),
375                         (unsigned long long)cputime64_to_clock_t(softirq),
376                         (unsigned long long)cputime64_to_clock_t(steal),
377                         (unsigned long long)cputime64_to_clock_t(guest));
378         }
379         seq_printf(p, "intr %llu", (unsigned long long)sum);
380
381         /* sum again ? it could be updated? */
382         for_each_irq_nr(j) {
383                 per_irq_sum = 0;
384
385                 for_each_possible_cpu(i)
386                         per_irq_sum += kstat_irqs_cpu(j, i);
387
388                 seq_printf(p, " %u", per_irq_sum);
389         }
390
391         seq_printf(p,
392                 "\nctxt %llu\n"
393                 "btime %lu\n"
394                 "processes %lu\n"
395                 "procs_running %lu\n"
396                 "procs_blocked %lu\n",
397                 nr_context_switches(),
398                 (unsigned long)jif,
399                 total_forks,
400                 nr_running(),
401                 nr_iowait());
402
403         return 0;
404 }
405
406 static int stat_open(struct inode *inode, struct file *file)
407 {
408         unsigned size = 4096 * (1 + num_possible_cpus() / 32);
409         char *buf;
410         struct seq_file *m;
411         int res;
412
413         /* don't ask for more than the kmalloc() max size, currently 128 KB */
414         if (size > 128 * 1024)
415                 size = 128 * 1024;
416         buf = kmalloc(size, GFP_KERNEL);
417         if (!buf)
418                 return -ENOMEM;
419
420         res = single_open(file, show_stat, NULL);
421         if (!res) {
422                 m = file->private_data;
423                 m->buf = buf;
424                 m->size = size;
425         } else
426                 kfree(buf);
427         return res;
428 }
429 static const struct file_operations proc_stat_operations = {
430         .open           = stat_open,
431         .read           = seq_read,
432         .llseek         = seq_lseek,
433         .release        = single_release,
434 };
435
436 /*
437  * /proc/interrupts
438  */
439 static void *int_seq_start(struct seq_file *f, loff_t *pos)
440 {
441         return (*pos <= nr_irqs) ? pos : NULL;
442 }
443
444
445 static void *int_seq_next(struct seq_file *f, void *v, loff_t *pos)
446 {
447         (*pos)++;
448         return (*pos <= nr_irqs) ? pos : NULL;
449 }
450
451 static void int_seq_stop(struct seq_file *f, void *v)
452 {
453         /* Nothing to do */
454 }
455
456 static const struct seq_operations int_seq_ops = {
457         .start = int_seq_start,
458         .next  = int_seq_next,
459         .stop  = int_seq_stop,
460         .show  = show_interrupts
461 };
462
463 static int interrupts_open(struct inode *inode, struct file *filp)
464 {
465         return seq_open(filp, &int_seq_ops);
466 }
467
468 static const struct file_operations proc_interrupts_operations = {
469         .open           = interrupts_open,
470         .read           = seq_read,
471         .llseek         = seq_lseek,
472         .release        = seq_release,
473 };
474
475 static int cmdline_read_proc(char *page, char **start, off_t off,
476                                  int count, int *eof, void *data)
477 {
478         int len;
479
480         len = sprintf(page, "%s\n", saved_command_line);
481         return proc_calc_metrics(page, start, off, count, eof, len);
482 }
483
484 #ifdef CONFIG_FILE_LOCKING
485 static int locks_open(struct inode *inode, struct file *filp)
486 {
487         return seq_open(filp, &locks_seq_operations);
488 }
489
490 static const struct file_operations proc_locks_operations = {
491         .open           = locks_open,
492         .read           = seq_read,
493         .llseek         = seq_lseek,
494         .release        = seq_release,
495 };
496 #endif /* CONFIG_FILE_LOCKING */
497
498 static int execdomains_read_proc(char *page, char **start, off_t off,
499                                  int count, int *eof, void *data)
500 {
501         int len = get_exec_domain_list(page);
502         return proc_calc_metrics(page, start, off, count, eof, len);
503 }
504
505 #ifdef CONFIG_PROC_PAGE_MONITOR
506 #define KPMSIZE sizeof(u64)
507 #define KPMMASK (KPMSIZE - 1)
508 /* /proc/kpagecount - an array exposing page counts
509  *
510  * Each entry is a u64 representing the corresponding
511  * physical page count.
512  */
513 static ssize_t kpagecount_read(struct file *file, char __user *buf,
514                              size_t count, loff_t *ppos)
515 {
516         u64 __user *out = (u64 __user *)buf;
517         struct page *ppage;
518         unsigned long src = *ppos;
519         unsigned long pfn;
520         ssize_t ret = 0;
521         u64 pcount;
522
523         pfn = src / KPMSIZE;
524         count = min_t(size_t, count, (max_pfn * KPMSIZE) - src);
525         if (src & KPMMASK || count & KPMMASK)
526                 return -EINVAL;
527
528         while (count > 0) {
529                 ppage = NULL;
530                 if (pfn_valid(pfn))
531                         ppage = pfn_to_page(pfn);
532                 pfn++;
533                 if (!ppage)
534                         pcount = 0;
535                 else
536                         pcount = page_mapcount(ppage);
537
538                 if (put_user(pcount, out++)) {
539                         ret = -EFAULT;
540                         break;
541                 }
542
543                 count -= KPMSIZE;
544         }
545
546         *ppos += (char __user *)out - buf;
547         if (!ret)
548                 ret = (char __user *)out - buf;
549         return ret;
550 }
551
552 static struct file_operations proc_kpagecount_operations = {
553         .llseek = mem_lseek,
554         .read = kpagecount_read,
555 };
556
557 /* /proc/kpageflags - an array exposing page flags
558  *
559  * Each entry is a u64 representing the corresponding
560  * physical page flags.
561  */
562
563 /* These macros are used to decouple internal flags from exported ones */
564
565 #define KPF_LOCKED     0
566 #define KPF_ERROR      1
567 #define KPF_REFERENCED 2
568 #define KPF_UPTODATE   3
569 #define KPF_DIRTY      4
570 #define KPF_LRU        5
571 #define KPF_ACTIVE     6
572 #define KPF_SLAB       7
573 #define KPF_WRITEBACK  8
574 #define KPF_RECLAIM    9
575 #define KPF_BUDDY     10
576
577 #define kpf_copy_bit(flags, srcpos, dstpos) (((flags >> srcpos) & 1) << dstpos)
578
579 static ssize_t kpageflags_read(struct file *file, char __user *buf,
580                              size_t count, loff_t *ppos)
581 {
582         u64 __user *out = (u64 __user *)buf;
583         struct page *ppage;
584         unsigned long src = *ppos;
585         unsigned long pfn;
586         ssize_t ret = 0;
587         u64 kflags, uflags;
588
589         pfn = src / KPMSIZE;
590         count = min_t(unsigned long, count, (max_pfn * KPMSIZE) - src);
591         if (src & KPMMASK || count & KPMMASK)
592                 return -EINVAL;
593
594         while (count > 0) {
595                 ppage = NULL;
596                 if (pfn_valid(pfn))
597                         ppage = pfn_to_page(pfn);
598                 pfn++;
599                 if (!ppage)
600                         kflags = 0;
601                 else
602                         kflags = ppage->flags;
603
604                 uflags = kpf_copy_bit(KPF_LOCKED, PG_locked, kflags) |
605                         kpf_copy_bit(kflags, KPF_ERROR, PG_error) |
606                         kpf_copy_bit(kflags, KPF_REFERENCED, PG_referenced) |
607                         kpf_copy_bit(kflags, KPF_UPTODATE, PG_uptodate) |
608                         kpf_copy_bit(kflags, KPF_DIRTY, PG_dirty) |
609                         kpf_copy_bit(kflags, KPF_LRU, PG_lru) |
610                         kpf_copy_bit(kflags, KPF_ACTIVE, PG_active) |
611                         kpf_copy_bit(kflags, KPF_SLAB, PG_slab) |
612                         kpf_copy_bit(kflags, KPF_WRITEBACK, PG_writeback) |
613                         kpf_copy_bit(kflags, KPF_RECLAIM, PG_reclaim) |
614                         kpf_copy_bit(kflags, KPF_BUDDY, PG_buddy);
615
616                 if (put_user(uflags, out++)) {
617                         ret = -EFAULT;
618                         break;
619                 }
620
621                 count -= KPMSIZE;
622         }
623
624         *ppos += (char __user *)out - buf;
625         if (!ret)
626                 ret = (char __user *)out - buf;
627         return ret;
628 }
629
630 static struct file_operations proc_kpageflags_operations = {
631         .llseek = mem_lseek,
632         .read = kpageflags_read,
633 };
634 #endif /* CONFIG_PROC_PAGE_MONITOR */
635
636 struct proc_dir_entry *proc_root_kcore;
637
638 void __init proc_misc_init(void)
639 {
640         static struct {
641                 char *name;
642                 int (*read_proc)(char*,char**,off_t,int,int*,void*);
643         } *p, simple_ones[] = {
644                 {"cmdline",     cmdline_read_proc},
645                 {"execdomains", execdomains_read_proc},
646                 {NULL,}
647         };
648         for (p = simple_ones; p->name; p++)
649                 create_proc_read_entry(p->name, 0, NULL, p->read_proc, NULL);
650
651         proc_symlink("mounts", NULL, "self/mounts");
652
653         /* And now for trickier ones */
654 #ifdef CONFIG_PRINTK
655         proc_create("kmsg", S_IRUSR, NULL, &proc_kmsg_operations);
656 #endif
657 #ifdef CONFIG_FILE_LOCKING
658         proc_create("locks", 0, NULL, &proc_locks_operations);
659 #endif
660         proc_create("devices", 0, NULL, &proc_devinfo_operations);
661         proc_create("cpuinfo", 0, NULL, &proc_cpuinfo_operations);
662 #ifdef CONFIG_BLOCK
663         proc_create("partitions", 0, NULL, &proc_partitions_operations);
664 #endif
665         proc_create("stat", 0, NULL, &proc_stat_operations);
666         proc_create("interrupts", 0, NULL, &proc_interrupts_operations);
667 #ifdef CONFIG_SLABINFO
668         proc_create("slabinfo",S_IWUSR|S_IRUGO,NULL,&proc_slabinfo_operations);
669 #ifdef CONFIG_DEBUG_SLAB_LEAK
670         proc_create("slab_allocators", 0, NULL, &proc_slabstats_operations);
671 #endif
672 #endif
673 #ifdef CONFIG_MMU
674         proc_create("vmallocinfo", S_IRUSR, NULL, &proc_vmalloc_operations);
675 #endif
676         proc_create("buddyinfo", S_IRUGO, NULL, &fragmentation_file_operations);
677         proc_create("pagetypeinfo", S_IRUGO, NULL, &pagetypeinfo_file_ops);
678         proc_create("vmstat", S_IRUGO, NULL, &proc_vmstat_file_operations);
679         proc_create("zoneinfo", S_IRUGO, NULL, &proc_zoneinfo_file_operations);
680 #ifdef CONFIG_BLOCK
681         proc_create("diskstats", 0, NULL, &proc_diskstats_operations);
682 #endif
683 #ifdef CONFIG_MODULES
684         proc_create("modules", 0, NULL, &proc_modules_operations);
685 #endif
686 #ifdef CONFIG_SCHEDSTATS
687         proc_create("schedstat", 0, NULL, &proc_schedstat_operations);
688 #endif
689 #ifdef CONFIG_PROC_KCORE
690         proc_root_kcore = proc_create("kcore", S_IRUSR, NULL, &proc_kcore_operations);
691         if (proc_root_kcore)
692                 proc_root_kcore->size =
693                                 (size_t)high_memory - PAGE_OFFSET + PAGE_SIZE;
694 #endif
695 #ifdef CONFIG_PROC_PAGE_MONITOR
696         proc_create("kpagecount", S_IRUSR, NULL, &proc_kpagecount_operations);
697         proc_create("kpageflags", S_IRUSR, NULL, &proc_kpageflags_operations);
698 #endif
699 #ifdef CONFIG_PROC_VMCORE
700         proc_vmcore = proc_create("vmcore", S_IRUSR, NULL, &proc_vmcore_operations);
701 #endif
702 }