]> www.pilppa.org Git - linux-2.6-omap-h63xx.git/commitdiff
Merge branch 'tracing/ftrace' into tracing/urgent
authorIngo Molnar <mingo@elte.hu>
Wed, 22 Oct 2008 07:08:14 +0000 (09:08 +0200)
committerIngo Molnar <mingo@elte.hu>
Wed, 22 Oct 2008 07:08:14 +0000 (09:08 +0200)
40 files changed:
Makefile
arch/arm/Kconfig
arch/arm/boot/compressed/Makefile
arch/arm/include/asm/ftrace.h
arch/arm/kernel/armksyms.c
arch/arm/kernel/entry-common.S
arch/powerpc/Kconfig
arch/powerpc/Makefile
arch/powerpc/include/asm/ftrace.h
arch/powerpc/kernel/Makefile
arch/powerpc/kernel/entry_32.S
arch/powerpc/kernel/entry_64.S
arch/powerpc/kernel/ppc_ksyms.c
arch/powerpc/platforms/powermac/Makefile
arch/sparc64/Kconfig
arch/sparc64/Kconfig.debug
arch/sparc64/lib/mcount.S
arch/x86/Kconfig
arch/x86/kernel/Makefile
arch/x86/kernel/entry_32.S
arch/x86/kernel/entry_64.S
arch/x86/kernel/ftrace.c
arch/x86/kernel/i386_ksyms_32.c
arch/x86/kernel/x8664_ksyms_64.c
arch/x86/xen/Makefile
include/asm-x86/ftrace.h
include/linux/ftrace.h
kernel/Makefile
kernel/sysctl.c
kernel/trace/Kconfig
kernel/trace/Makefile
kernel/trace/ftrace.c
kernel/trace/trace.c
kernel/trace/trace.h
kernel/trace/trace_functions.c
kernel/trace/trace_irqsoff.c
kernel/trace/trace_sched_wakeup.c
kernel/trace/trace_selftest.c
kernel/trace/trace_stack.c
lib/Makefile

index 16e3fbb968a8966bc58570ca117349631e81f2d7..b7eb70b13cad3a57075a6c594f15128d82b8aac2 100644 (file)
--- a/Makefile
+++ b/Makefile
@@ -536,7 +536,7 @@ KBUILD_CFLAGS       += -g
 KBUILD_AFLAGS  += -gdwarf-2
 endif
 
-ifdef CONFIG_FTRACE
+ifdef CONFIG_FUNCTION_TRACER
 KBUILD_CFLAGS  += -pg
 endif
 
index df39d20f7425ad9c41679a566ae212f924a222ff..600733426ae04e33042646f41a3579965288ce2f 100644 (file)
@@ -16,8 +16,8 @@ config ARM
        select HAVE_ARCH_KGDB
        select HAVE_KPROBES if (!XIP_KERNEL)
        select HAVE_KRETPROBES if (HAVE_KPROBES)
-       select HAVE_FTRACE if (!XIP_KERNEL)
-       select HAVE_DYNAMIC_FTRACE if (HAVE_FTRACE)
+       select HAVE_FUNCTION_TRACER if (!XIP_KERNEL)
+       select HAVE_DYNAMIC_FTRACE if (HAVE_FUNCTION_TRACER)
        select HAVE_GENERIC_DMA_COHERENT
        help
          The ARM series is a line of low-power-consumption RISC chip designs
index 7a03f200788255924f225c807b967fdb09d01eae..c47f2a3f8f8f32b3e9a168111c8d7bacb6182fb5 100644 (file)
@@ -70,7 +70,7 @@ SEDFLAGS      = s/TEXT_START/$(ZTEXTADDR)/;s/BSS_START/$(ZBSSADDR)/
 targets       := vmlinux vmlinux.lds piggy.gz piggy.o font.o font.c \
                 head.o misc.o $(OBJS)
 
-ifeq ($(CONFIG_FTRACE),y)
+ifeq ($(CONFIG_FUNCTION_TRACER),y)
 ORIG_CFLAGS := $(KBUILD_CFLAGS)
 KBUILD_CFLAGS = $(subst -pg, , $(ORIG_CFLAGS))
 endif
index 584ef9a8e5a5d275e3cd35891828996645ddd97d..39c8bc1a006afbfbca896948ae86c4268e7ed52e 100644 (file)
@@ -1,7 +1,7 @@
 #ifndef _ASM_ARM_FTRACE
 #define _ASM_ARM_FTRACE
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #define MCOUNT_ADDR            ((long)(mcount))
 #define MCOUNT_INSN_SIZE       4 /* sizeof mcount call */
 
index 2357b1cf1cf9381c0e368ddd92725b749ae7f355..c74f766ffc124406e56ab76918db8bdf4c1e30ec 100644 (file)
@@ -183,6 +183,6 @@ EXPORT_SYMBOL(_find_next_bit_be);
 
 EXPORT_SYMBOL(copy_page);
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 EXPORT_SYMBOL(mcount);
 #endif
index 3aa14dcc5babd0a1cec85996fa9bc271e4eae51a..06269ea375c52f392f3d45eb94254cc3be7e2bb3 100644 (file)
@@ -101,7 +101,7 @@ ENDPROC(ret_from_fork)
 #undef CALL
 #define CALL(x) .long x
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #ifdef CONFIG_DYNAMIC_FTRACE
 ENTRY(mcount)
        stmdb sp!, {r0-r3, lr}
@@ -149,7 +149,7 @@ trace:
 ftrace_stub:
        mov pc, lr
 
-#endif /* CONFIG_FTRACE */
+#endif /* CONFIG_FUNCTION_TRACER */
 
 /*=============================================================================
  * SWI handler
index 9391199d9e7731d166b45130fa322e27936b1da0..441ce06174ff3013f2999e3d88d841616141344a 100644 (file)
@@ -112,7 +112,7 @@ config PPC
        bool
        default y
        select HAVE_DYNAMIC_FTRACE
-       select HAVE_FTRACE
+       select HAVE_FUNCTION_TRACER
        select ARCH_WANT_OPTIONAL_GPIOLIB
        select HAVE_IDE
        select HAVE_IOREMAP_PROT
index 24dd1a37f8fb93268b120ac844bd62880eb2a7de..1f06670699404aafb55cb990b148bd4ba4a14f41 100644 (file)
@@ -122,7 +122,7 @@ KBUILD_CFLAGS               += -mcpu=powerpc
 endif
 
 # Work around a gcc code-gen bug with -fno-omit-frame-pointer.
-ifeq ($(CONFIG_FTRACE),y)
+ifeq ($(CONFIG_FUNCTION_TRACER),y)
 KBUILD_CFLAGS          += -mno-sched-epilog
 endif
 
index de921326cca8bf9572941a650c1bd2d8b63f128c..b298f7a631e6cd9620094c72da4c82832afcdb43 100644 (file)
@@ -1,7 +1,7 @@
 #ifndef _ASM_POWERPC_FTRACE
 #define _ASM_POWERPC_FTRACE
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #define MCOUNT_ADDR            ((long)(_mcount))
 #define MCOUNT_INSN_SIZE       4 /* sizeof mcount call */
 
index fdb58253fa5b15727580cdc2119eef4512596411..92673b43858d067d6ccfab7a1cc083018d4a5c4f 100644 (file)
@@ -12,7 +12,7 @@ CFLAGS_prom_init.o      += -fPIC
 CFLAGS_btext.o         += -fPIC
 endif
 
-ifdef CONFIG_FTRACE
+ifdef CONFIG_FUNCTION_TRACER
 # Do not trace early boot code
 CFLAGS_REMOVE_cputable.o = -pg -mno-sched-epilog
 CFLAGS_REMOVE_prom_init.o = -pg -mno-sched-epilog
index 1cbbf70336415d37c5d14a1f1bd76f8fd1158a30..7ecc0d1855c3342d341a8b00ea9cdbd9f51d1b42 100644 (file)
@@ -1158,7 +1158,7 @@ machine_check_in_rtas:
 
 #endif /* CONFIG_PPC_RTAS */
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #ifdef CONFIG_DYNAMIC_FTRACE
 _GLOBAL(mcount)
 _GLOBAL(_mcount)
index fd8b4bae9b04e2926277f7dc9945358f8eeed7a8..e6d52845854f8e1ea67d60f48332ff8206c9fa7e 100644 (file)
@@ -884,7 +884,7 @@ _GLOBAL(enter_prom)
        mtlr    r0
         blr
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #ifdef CONFIG_DYNAMIC_FTRACE
 _GLOBAL(mcount)
 _GLOBAL(_mcount)
index 8edc2359c4193f564752dfee6643512266efcc25..260089dccfb0524aa30fd8a126af60cbd80f41ac 100644 (file)
@@ -68,7 +68,7 @@ EXPORT_SYMBOL(single_step_exception);
 EXPORT_SYMBOL(sys_sigreturn);
 #endif
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 EXPORT_SYMBOL(_mcount);
 #endif
 
index be60d64be7ad92a11046bbf0fbbcd12b79e1a43b..50f16939255160d11888b847daf3ff5d5cc76463 100644 (file)
@@ -1,6 +1,6 @@
 CFLAGS_bootx_init.o            += -fPIC
 
-ifdef CONFIG_FTRACE
+ifdef CONFIG_FUNCTION_TRACER
 # Do not trace early boot code
 CFLAGS_REMOVE_bootx_init.o = -pg -mno-sched-epilog
 endif
index 035b15af90d8a668583001ef9610ab761d7b9478..824f6122e1a51f4e8b5c1d9e2028cb46f353fbf8 100644 (file)
@@ -12,7 +12,7 @@ config SPARC64
        bool
        default y
        select HAVE_DYNAMIC_FTRACE
-       select HAVE_FTRACE
+       select HAVE_FUNCTION_TRACER
        select HAVE_IDE
        select HAVE_LMB
        select HAVE_ARCH_KGDB
index d6d32d178fc8af2533939225caf2b7e6d8fef2b8..c40515c06690f8311db5e8443cfb3cb7acfeac8f 100644 (file)
@@ -33,7 +33,7 @@ config DEBUG_PAGEALLOC
 
 config MCOUNT
        bool
-       depends on STACK_DEBUG || FTRACE
+       depends on STACK_DEBUG || FUNCTION_TRACER
        default y
 
 config FRAME_POINTER
index fad90ddb3a28f1aae9a6a44e849b7393bbf87ac3..7ce9c65f3592a7f949bffc47ecf558ffbfcc3c3e 100644 (file)
@@ -93,7 +93,7 @@ mcount:
         nop
 1:
 #endif
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #ifdef CONFIG_DYNAMIC_FTRACE
        mov             %o7, %o0
        .globl          mcount_call
@@ -119,7 +119,7 @@ mcount_call:
        .size           _mcount,.-_mcount
        .size           mcount,.-mcount
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
        .globl          ftrace_stub
        .type           ftrace_stub,#function
 ftrace_stub:
index 5b9b12321ad132ed1987ae7e5a9bdf278cc4be7a..100325c8605e47499c5ffa7daab573719869136d 100644 (file)
@@ -28,7 +28,7 @@ config X86
        select HAVE_KRETPROBES
        select HAVE_FTRACE_MCOUNT_RECORD
        select HAVE_DYNAMIC_FTRACE
-       select HAVE_FTRACE
+       select HAVE_FUNCTION_TRACER
        select HAVE_KVM if ((X86_32 && !X86_VOYAGER && !X86_VISWS && !X86_NUMAQ) || X86_64)
        select HAVE_ARCH_KGDB if !X86_VOYAGER
        select HAVE_ARCH_TRACEHOOK
index d7e5a58ee22f376c13caab451ac1dcf6d4e33b08..f1283fe60723de6ec0cf5be772803d1c9a941b30 100644 (file)
@@ -6,7 +6,7 @@ extra-y                := head_$(BITS).o head$(BITS).o head.o init_task.o vmlinu
 
 CPPFLAGS_vmlinux.lds += -U$(UTS_MACHINE)
 
-ifdef CONFIG_FTRACE
+ifdef CONFIG_FUNCTION_TRACER
 # Do not profile debug and lowlevel utilities
 CFLAGS_REMOVE_tsc.o = -pg
 CFLAGS_REMOVE_rtc.o = -pg
index c356423a6026fd62123a13d6229bfa4d9a224df3..008cc17521c3051a8db0aae31a9bb55ade698b91 100644 (file)
@@ -1149,7 +1149,7 @@ ENDPROC(xen_failsafe_callback)
 
 #endif /* CONFIG_XEN */
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #ifdef CONFIG_DYNAMIC_FTRACE
 
 ENTRY(mcount)
@@ -1204,7 +1204,7 @@ trace:
        jmp ftrace_stub
 END(mcount)
 #endif /* CONFIG_DYNAMIC_FTRACE */
-#endif /* CONFIG_FTRACE */
+#endif /* CONFIG_FUNCTION_TRACER */
 
 .section .rodata,"a"
 #include "syscall_table_32.S"
index 09e7145484c5ba971f72af1f7411c286f41ee5ef..b86f332c96a66596f0fe076d7c0eda78ea05dbe5 100644 (file)
@@ -61,7 +61,7 @@
 
        .code64
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #ifdef CONFIG_DYNAMIC_FTRACE
 ENTRY(mcount)
        retq
@@ -138,7 +138,7 @@ trace:
        jmp ftrace_stub
 END(mcount)
 #endif /* CONFIG_DYNAMIC_FTRACE */
-#endif /* CONFIG_FTRACE */
+#endif /* CONFIG_FUNCTION_TRACER */
 
 #ifndef CONFIG_PREEMPT
 #define retint_kernel retint_restore_args
index d073d981a730306f970aabdf5f7174453c24d226..8821ceabf51df44239de2583f0e95bfe40c1d5f9 100644 (file)
@@ -62,6 +62,7 @@ ftrace_modify_code(unsigned long ip, unsigned char *old_code,
                   unsigned char *new_code)
 {
        unsigned char replaced[MCOUNT_INSN_SIZE];
+       int ret;
 
        /*
         * Note: Due to modules and __init, code can
@@ -77,8 +78,9 @@ ftrace_modify_code(unsigned long ip, unsigned char *old_code,
        if (memcmp(replaced, old_code, MCOUNT_INSN_SIZE) != 0)
                return 2;
 
-       WARN_ON_ONCE(__copy_to_user_inatomic((char __user *)ip, new_code,
-                                   MCOUNT_INSN_SIZE));
+       ret = __copy_to_user_inatomic((char __user *)ip, new_code,
+                                       MCOUNT_INSN_SIZE);
+       WARN_ON_ONCE(ret);
 
        sync_core();
 
index dd7ebee446afaab244041868b67d89833b8d00c5..43cec6bdda637aa48aef7f590aa48b9df1300396 100644 (file)
@@ -5,7 +5,7 @@
 #include <asm/desc.h>
 #include <asm/ftrace.h>
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 /* mcount is defined in assembly */
 EXPORT_SYMBOL(mcount);
 #endif
index b545f371b5f542243de7c9962ce551fb10647f3a..695e426aa3540ef8d762e0d0c71779b2c5c6c036 100644 (file)
@@ -12,7 +12,7 @@
 #include <asm/desc.h>
 #include <asm/ftrace.h>
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 /* mcount is defined in assembly */
 EXPORT_SYMBOL(mcount);
 #endif
index 313947940a1af66b309d91e5b8a0d687b9136b98..6dcefba7836ff477decab964acb003dc7a35fe98 100644 (file)
@@ -1,4 +1,4 @@
-ifdef CONFIG_FTRACE
+ifdef CONFIG_FUNCTION_TRACER
 # Do not profile debug and lowlevel utilities
 CFLAGS_REMOVE_spinlock.o = -pg
 CFLAGS_REMOVE_time.o = -pg
index 1bb6f9bbe1ab99319d4df113086e46ec17e9c7e7..233bb9b869c0605665b48a51b7b46f5f7ffc40a6 100644 (file)
@@ -1,7 +1,7 @@
 #ifndef ASM_X86__FTRACE_H
 #define ASM_X86__FTRACE_H
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 #define MCOUNT_ADDR            ((long)(mcount))
 #define MCOUNT_INSN_SIZE       5 /* sizeof mcount call */
 
@@ -19,6 +19,6 @@ static inline unsigned long ftrace_call_adjust(unsigned long addr)
 }
 #endif
 
-#endif /* CONFIG_FTRACE */
+#endif /* CONFIG_FUNCTION_TRACER */
 
 #endif /* ASM_X86__FTRACE_H */
index a3d46151be195cec1d701b7058ec98662860e65b..0e952958915137dbe1c232756edae0cdb0409659 100644 (file)
@@ -8,7 +8,7 @@
 #include <linux/types.h>
 #include <linux/kallsyms.h>
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 
 extern int ftrace_enabled;
 extern int
@@ -36,12 +36,12 @@ void clear_ftrace_function(void);
 
 extern void ftrace_stub(unsigned long a0, unsigned long a1);
 
-#else /* !CONFIG_FTRACE */
+#else /* !CONFIG_FUNCTION_TRACER */
 # define register_ftrace_function(ops) do { } while (0)
 # define unregister_ftrace_function(ops) do { } while (0)
 # define clear_ftrace_function(ops) do { } while (0)
 static inline void ftrace_kill_atomic(void) { }
-#endif /* CONFIG_FTRACE */
+#endif /* CONFIG_FUNCTION_TRACER */
 
 #ifdef CONFIG_DYNAMIC_FTRACE
 # define FTRACE_HASHBITS       10
@@ -101,7 +101,7 @@ void ftrace_kill_atomic(void);
 
 static inline void tracer_disable(void)
 {
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
        ftrace_enabled = 0;
 #endif
 }
@@ -113,7 +113,7 @@ static inline void tracer_disable(void)
  */
 static inline int __ftrace_enabled_save(void)
 {
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
        int saved_ftrace_enabled = ftrace_enabled;
        ftrace_enabled = 0;
        return saved_ftrace_enabled;
@@ -124,7 +124,7 @@ static inline int __ftrace_enabled_save(void)
 
 static inline void __ftrace_enabled_restore(int enabled)
 {
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
        ftrace_enabled = enabled;
 #endif
 }
index 305f11dbef216cd9cb5efba14483492b59a26354..9a3ec66a9d841c961e51bfac872462d051098a18 100644 (file)
@@ -13,7 +13,7 @@ obj-y     = sched.o fork.o exec_domain.o panic.o printk.o \
 
 CFLAGS_REMOVE_sched.o = -mno-spe
 
-ifdef CONFIG_FTRACE
+ifdef CONFIG_FUNCTION_TRACER
 # Do not trace debug files and internal ftrace files
 CFLAGS_REMOVE_lockdep.o = -pg
 CFLAGS_REMOVE_lockdep_proc.o = -pg
@@ -88,7 +88,7 @@ obj-$(CONFIG_MARKERS) += marker.o
 obj-$(CONFIG_TRACEPOINTS) += tracepoint.o
 obj-$(CONFIG_LATENCYTOP) += latencytop.o
 obj-$(CONFIG_HAVE_GENERIC_DMA_COHERENT) += dma-coherent.o
-obj-$(CONFIG_FTRACE) += trace/
+obj-$(CONFIG_FUNCTION_TRACER) += trace/
 obj-$(CONFIG_TRACING) += trace/
 obj-$(CONFIG_SMP) += sched_cpupri.o
 
index b3cc73931d1f6411c6e99faf205124987d4a887e..edb1075f80d23120219f16ba899b5078b706462c 100644 (file)
@@ -464,7 +464,7 @@ static struct ctl_table kern_table[] = {
                .mode           = 0644,
                .proc_handler   = &proc_dointvec,
        },
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
        {
                .ctl_name       = CTL_UNNUMBERED,
                .procname       = "ftrace_enabled",
index 1cb3e1f616af5fcd36a6efceebb8892ef26f4324..3533c583df47ddb55257d56e6e42203b5dfdf0c8 100644 (file)
@@ -1,11 +1,12 @@
 #
-# Architectures that offer an FTRACE implementation should select HAVE_FTRACE:
+# Architectures that offer an FUNCTION_TRACER implementation should
+#  select HAVE_FUNCTION_TRACER:
 #
 
 config NOP_TRACER
        bool
 
-config HAVE_FTRACE
+config HAVE_FUNCTION_TRACER
        bool
        select NOP_TRACER
 
@@ -28,9 +29,9 @@ config TRACING
        select STACKTRACE
        select TRACEPOINTS
 
-config FTRACE
+config FUNCTION_TRACER
        bool "Kernel Function Tracer"
-       depends on HAVE_FTRACE
+       depends on HAVE_FUNCTION_TRACER
        depends on DEBUG_KERNEL
        select FRAME_POINTER
        select TRACING
@@ -49,7 +50,6 @@ config IRQSOFF_TRACER
        default n
        depends on TRACE_IRQFLAGS_SUPPORT
        depends on GENERIC_TIME
-       depends on HAVE_FTRACE
        depends on DEBUG_KERNEL
        select TRACE_IRQFLAGS
        select TRACING
@@ -73,7 +73,6 @@ config PREEMPT_TRACER
        default n
        depends on GENERIC_TIME
        depends on PREEMPT
-       depends on HAVE_FTRACE
        depends on DEBUG_KERNEL
        select TRACING
        select TRACER_MAX_TRACE
@@ -101,7 +100,6 @@ config SYSPROF_TRACER
 
 config SCHED_TRACER
        bool "Scheduling Latency Tracer"
-       depends on HAVE_FTRACE
        depends on DEBUG_KERNEL
        select TRACING
        select CONTEXT_SWITCH_TRACER
@@ -112,7 +110,6 @@ config SCHED_TRACER
 
 config CONTEXT_SWITCH_TRACER
        bool "Trace process context switches"
-       depends on HAVE_FTRACE
        depends on DEBUG_KERNEL
        select TRACING
        select MARKERS
@@ -122,7 +119,6 @@ config CONTEXT_SWITCH_TRACER
 
 config BOOT_TRACER
        bool "Trace boot initcalls"
-       depends on HAVE_FTRACE
        depends on DEBUG_KERNEL
        select TRACING
        help
@@ -141,9 +137,9 @@ config BOOT_TRACER
 
 config STACK_TRACER
        bool "Trace max stack"
-       depends on HAVE_FTRACE
+       depends on HAVE_FUNCTION_TRACER
        depends on DEBUG_KERNEL
-       select FTRACE
+       select FUNCTION_TRACER
        select STACKTRACE
        help
          This special tracer records the maximum stack footprint of the
@@ -160,7 +156,7 @@ config STACK_TRACER
 
 config DYNAMIC_FTRACE
        bool "enable/disable ftrace tracepoints dynamically"
-       depends on FTRACE
+       depends on FUNCTION_TRACER
        depends on HAVE_DYNAMIC_FTRACE
        depends on DEBUG_KERNEL
        default y
@@ -170,7 +166,7 @@ config DYNAMIC_FTRACE
         with a No-Op instruction) as they are called. A table is
         created to dynamically enable them again.
 
-        This way a CONFIG_FTRACE kernel is slightly larger, but otherwise
+        This way a CONFIG_FUNCTION_TRACER kernel is slightly larger, but otherwise
         has native performance as long as no tracing is active.
 
         The changes to the code are done by a kernel thread that
index a85dfba88ba0402d5614d015c5faed60fe4abc55..c8228b1a49e924386d3b8af6c02186938edf3571 100644 (file)
@@ -1,7 +1,7 @@
 
 # Do not instrument the tracer itself:
 
-ifdef CONFIG_FTRACE
+ifdef CONFIG_FUNCTION_TRACER
 ORIG_CFLAGS := $(KBUILD_CFLAGS)
 KBUILD_CFLAGS = $(subst -pg,,$(ORIG_CFLAGS))
 
@@ -10,13 +10,13 @@ CFLAGS_trace_selftest_dynamic.o = -pg
 obj-y += trace_selftest_dynamic.o
 endif
 
-obj-$(CONFIG_FTRACE) += libftrace.o
+obj-$(CONFIG_FUNCTION_TRACER) += libftrace.o
 obj-$(CONFIG_RING_BUFFER) += ring_buffer.o
 
 obj-$(CONFIG_TRACING) += trace.o
 obj-$(CONFIG_CONTEXT_SWITCH_TRACER) += trace_sched_switch.o
 obj-$(CONFIG_SYSPROF_TRACER) += trace_sysprof.o
-obj-$(CONFIG_FTRACE) += trace_functions.o
+obj-$(CONFIG_FUNCTION_TRACER) += trace_functions.o
 obj-$(CONFIG_IRQSOFF_TRACER) += trace_irqsoff.o
 obj-$(CONFIG_PREEMPT_TRACER) += trace_irqsoff.o
 obj-$(CONFIG_SCHED_TRACER) += trace_sched_wakeup.o
index 4dda4f60a2a9262770e3195b894e48b8178296a3..1f54a94189fe8f53a5382f7a931e41bd39e57520 100644 (file)
@@ -164,10 +164,14 @@ static DEFINE_SPINLOCK(ftrace_hash_lock);
 #define ftrace_hash_lock(flags)          spin_lock_irqsave(&ftrace_hash_lock, flags)
 #define ftrace_hash_unlock(flags) \
                        spin_unlock_irqrestore(&ftrace_hash_lock, flags)
+static void ftrace_release_hash(unsigned long start, unsigned long end);
 #else
 /* This is protected via the ftrace_lock with MCOUNT_RECORD. */
 #define ftrace_hash_lock(flags)   do { (void)(flags); } while (0)
 #define ftrace_hash_unlock(flags) do { } while(0)
+static inline void ftrace_release_hash(unsigned long start, unsigned long end)
+{
+}
 #endif
 
 /*
@@ -347,6 +351,7 @@ void ftrace_release(void *start, unsigned long size)
        }
        spin_unlock(&ftrace_lock);
 
+       ftrace_release_hash(s, e);
 }
 
 static struct dyn_ftrace *ftrace_alloc_dyn_node(unsigned long ip)
@@ -1659,6 +1664,44 @@ void __init ftrace_init(void)
        ftrace_disabled = 1;
 }
 #else /* CONFIG_FTRACE_MCOUNT_RECORD */
+
+static void ftrace_release_hash(unsigned long start, unsigned long end)
+{
+       struct dyn_ftrace *rec;
+       struct hlist_node *t, *n;
+       struct hlist_head *head, temp_list;
+       unsigned long flags;
+       int i, cpu;
+
+       preempt_disable_notrace();
+
+       /* disable incase we call something that calls mcount */
+       cpu = raw_smp_processor_id();
+       per_cpu(ftrace_shutdown_disable_cpu, cpu)++;
+
+       ftrace_hash_lock(flags);
+
+       for (i = 0; i < FTRACE_HASHSIZE; i++) {
+               INIT_HLIST_HEAD(&temp_list);
+               head = &ftrace_hash[i];
+
+               /* all CPUS are stopped, we are safe to modify code */
+               hlist_for_each_entry_safe(rec, t, n, head, node) {
+                       if (rec->flags & FTRACE_FL_FREE)
+                               continue;
+
+                       if ((rec->ip >= start) && (rec->ip < end))
+                               ftrace_free_rec(rec);
+               }
+       }
+
+       ftrace_hash_unlock(flags);
+
+       per_cpu(ftrace_shutdown_disable_cpu, cpu)--;
+       preempt_enable_notrace();
+
+}
+
 static int ftraced(void *ignore)
 {
        unsigned long usecs;
index d345d649d073a39d6e572b88047e726754e8da1f..aeb2f2505bc5606bdfe66a1403a409f0d7de5a06 100644 (file)
@@ -851,7 +851,7 @@ ftrace_special(unsigned long arg1, unsigned long arg2, unsigned long arg3)
        preempt_enable_notrace();
 }
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 static void
 function_trace_call(unsigned long ip, unsigned long parent_ip)
 {
index f1f99572cde7dee758217125925e2690a45b38d1..6889ca48f1f1fab8d57f3afb3ab7c9d9cb884c4f 100644 (file)
@@ -335,7 +335,7 @@ void update_max_tr_single(struct trace_array *tr,
 
 extern cycle_t ftrace_now(int cpu);
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 void tracing_start_function_trace(void);
 void tracing_stop_function_trace(void);
 #else
index e90eb0c2c56ca78d917f4e353dd099fd51c29172..0f85a64003d3980d1002d1877712808703f25cb9 100644 (file)
@@ -64,7 +64,7 @@ static void function_trace_ctrl_update(struct trace_array *tr)
 
 static struct tracer function_trace __read_mostly =
 {
-       .name        = "ftrace",
+       .name        = "function",
        .init        = function_trace_init,
        .reset       = function_trace_reset,
        .ctrl_update = function_trace_ctrl_update,
index a7db7f040ae03bc3b3556b3f77e47f032be62c1d..9c74071c10e0b5c8534039c50bd3845f04a036fe 100644 (file)
@@ -63,7 +63,7 @@ irq_trace(void)
  */
 static __cacheline_aligned_in_smp      unsigned long max_sequence;
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 /*
  * irqsoff uses its own tracer function to keep the overhead down:
  */
@@ -104,7 +104,7 @@ static struct ftrace_ops trace_ops __read_mostly =
 {
        .func = irqsoff_tracer_call,
 };
-#endif /* CONFIG_FTRACE */
+#endif /* CONFIG_FUNCTION_TRACER */
 
 /*
  * Should this new latency be reported/recorded?
index fe4a252c236384bb1ac5eff3ac441522d90ce0d4..3ae93f16b565de131887da94ee10835c183b2d6a 100644 (file)
@@ -31,7 +31,7 @@ static raw_spinlock_t wakeup_lock =
 
 static void __wakeup_reset(struct trace_array *tr);
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 /*
  * irqsoff uses its own tracer function to keep the overhead down:
  */
@@ -96,7 +96,7 @@ static struct ftrace_ops trace_ops __read_mostly =
 {
        .func = wakeup_tracer_call,
 };
-#endif /* CONFIG_FTRACE */
+#endif /* CONFIG_FUNCTION_TRACER */
 
 /*
  * Should this new latency be reported/recorded?
index 09cf230d7ecae8ecd25d5f24dee21c4e2fd7b41d..95815d26a041dd472596a7ce99625fb4f409be82 100644 (file)
@@ -70,7 +70,7 @@ static int trace_test_buffer(struct trace_array *tr, unsigned long *count)
        return ret;
 }
 
-#ifdef CONFIG_FTRACE
+#ifdef CONFIG_FUNCTION_TRACER
 
 #ifdef CONFIG_DYNAMIC_FTRACE
 
@@ -226,7 +226,7 @@ trace_selftest_startup_function(struct tracer *trace, struct trace_array *tr)
 
        return ret;
 }
-#endif /* CONFIG_FTRACE */
+#endif /* CONFIG_FUNCTION_TRACER */
 
 #ifdef CONFIG_IRQSOFF_TRACER
 int
index 74c5d9a3afae790d436c5dd3135488c535ac0981..be682b62fe586285c77c36d7e7c6d6beb929541f 100644 (file)
@@ -44,6 +44,10 @@ static inline void check_stack(void)
        if (this_size <= max_stack_size)
                return;
 
+       /* we do not handle interrupt stacks yet */
+       if (!object_is_on_stack(&this_size))
+               return;
+
        raw_local_irq_save(flags);
        __raw_spin_lock(&max_stack_lock);
 
index 16feaab057b2d5fdda220ae350a09f765c7f24be..7cb65d85aeb0fd41142facc52c01c365ca2cc729 100644 (file)
@@ -2,7 +2,7 @@
 # Makefile for some libs needed in the kernel.
 #
 
-ifdef CONFIG_FTRACE
+ifdef CONFIG_FUNCTION_TRACER
 ORIG_CFLAGS := $(KBUILD_CFLAGS)
 KBUILD_CFLAGS = $(subst -pg,,$(ORIG_CFLAGS))
 endif