(tp->snd_cwnd >> 2)));
 }
 
-static inline void tcp_sync_left_out(struct tcp_sock *tp)
-{
-       BUG_ON(tp->rx_opt.sack_ok && (tcp_left_out(tp) > tp->packets_out));
-}
+/* Use define here intentionally to get BUG_ON location shown at the caller */
+#define tcp_verify_left_out(tp) \
+       BUG_ON(tp->rx_opt.sack_ok && (tcp_left_out(tp) > tp->packets_out))
 
 extern void tcp_enter_cwr(struct sock *sk, const int set_ssthresh);
 extern __u32 tcp_init_cwnd(struct tcp_sock *tp, struct dst_entry *dst);
 
        struct tcp_sock *tp = tcp_sk(sk);
        tp->sacked_out++;
        tcp_check_reno_reordering(sk, 0);
-       tcp_sync_left_out(tp);
+       tcp_verify_left_out(tp);
 }
 
 /* Account for ACK, ACKing some data in Reno Recovery phase. */
                        tp->sacked_out -= acked-1;
        }
        tcp_check_reno_reordering(sk, acked);
-       tcp_sync_left_out(tp);
+       tcp_verify_left_out(tp);
 }
 
 static inline void tcp_reset_reno_sack(struct tcp_sock *tp)
                TCP_SKB_CB(skb)->sacked &= ~TCPCB_SACKED_RETRANS;
                tp->retrans_out -= tcp_skb_pcount(skb);
        }
-       tcp_sync_left_out(tp);
+       tcp_verify_left_out(tp);
 
        /* Earlier loss recovery underway (see RFC4138; Appendix B).
         * The last condition is necessary at least in tp->frto_counter case.
                        tp->lost_out += tcp_skb_pcount(skb);
                }
        }
-       tcp_sync_left_out(tp);
+       tcp_verify_left_out(tp);
 
        tp->snd_cwnd = tcp_packets_in_flight(tp) + allowed_segments;
        tp->snd_cwnd_cnt = 0;
                        tp->fackets_out = cnt;
                }
        }
-       tcp_sync_left_out(tp);
+       tcp_verify_left_out(tp);
 
        tp->reordering = min_t(unsigned int, tp->reordering,
                                             sysctl_tcp_reordering);
                        tcp_verify_retransmit_hint(tp, skb);
                }
        }
-       tcp_sync_left_out(tp);
+       tcp_verify_left_out(tp);
 }
 
 /* Account newly detected lost packet(s) */
 
                tp->scoreboard_skb_hint = skb;
 
-               tcp_sync_left_out(tp);
+               tcp_verify_left_out(tp);
        }
 }
 
                NET_INC_STATS_BH(LINUX_MIB_TCPLOSS);
        }
 
-       /* D. Synchronize left_out to current state. */
-       tcp_sync_left_out(tp);
+       /* D. Check consistency of the current state. */
+       tcp_verify_left_out(tp);
 
        /* E. Check state exit conditions. State can be terminated
         *    when high_seq is ACKed. */
 {
        struct tcp_sock *tp = tcp_sk(sk);
 
-       tcp_sync_left_out(tp);
+       tcp_verify_left_out(tp);
 
        /* Duplicate the behavior from Loss state (fastretrans_alert) */
        if (flag&FLAG_DATA_ACKED)
 
                        /* Adjust Reno SACK estimate. */
                        if (!tp->rx_opt.sack_ok) {
                                tcp_dec_pcount_approx_int(&tp->sacked_out, diff);
-                               tcp_sync_left_out(tp);
+                               tcp_verify_left_out(tp);
                        }
 
                        tcp_dec_pcount_approx_int(&tp->fackets_out, diff);
        if (!lost)
                return;
 
-       tcp_sync_left_out(tp);
+       tcp_verify_left_out(tp);
 
        /* Don't muck with the congestion window here.
         * Reason is that we do not increase amount of _data_