Lines Matching refs:sock_net

212 	dev = dev_get_by_index_rcu(sock_net(sk), skb->skb_iif);
445 min(sndmem, READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_wmem[2])));
480 int window = tcp_win_from_space(sk, READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_rmem[2])) >> 1;
553 int tcp_app_win = READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_app_win);
593 struct net *net = sock_net(sk);
757 if (READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_moderate_rcvbuf) &&
773 READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_rmem[2]));
949 rate *= READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_pacing_ss_ratio);
951 rate *= READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_pacing_ca_ratio);
1090 READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_max_reordering));
1095 NET_INC_STATS(sock_net(sk),
1135 NET_ADD_STATS(sock_net(sk), LINUX_MIB_TCPLOSTRETRANSMIT,
1295 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPDSACKRECV);
1302 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPDSACKOFORECV);
1309 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPDSACKIGNOREDDUBIOUS);
1313 NET_ADD_STATS(sock_net(sk), LINUX_MIB_TCPDSACKRECVSEGS, dup_segs);
1516 NET_INC_STATS(sock_net(sk), LINUX_MIB_SACKSHIFTED);
1543 NET_INC_STATS(sock_net(sk), LINUX_MIB_SACKMERGED);
1714 NET_INC_STATS(sock_net(sk), LINUX_MIB_SACKSHIFTFALLBACK);
1906 NET_INC_STATS(sock_net(sk), mib_idx);
2069 READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_max_reordering));
2071 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRENOREORDER);
2138 return READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_recovery) &
2155 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPSACKRENEGING);
2181 struct net *net = sock_net(sk);
2591 NET_INC_STATS(sock_net(sk), mib_idx);
2612 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPDSACKUNDO);
2627 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPLOSSUNDO);
2629 NET_INC_STATS(sock_net(sk),
2759 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPMTUPFAIL);
2782 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPMTUPSUCCESS);
2852 NET_INC_STATS(sock_net(sk), mib_idx);
2962 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPPARTIALUNDO);
3124 u32 wlen = READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_min_rtt_wlen) * HZ;
3528 READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_reordering))
3712 struct net *net = sock_net(sk);
3788 NET_INC_STATS(sock_net(sk),
3829 const struct net *net = sock_net(sk);
3921 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPHPACKS);
3928 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPPUREACKS);
4572 if (tcp_is_sack(tp) && READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_dsack)) {
4580 NET_INC_STATS(sock_net(sk), mib_idx);
4614 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPDUPLICATEDATAREHASH);
4627 NET_INC_STATS(sock_net(sk), LINUX_MIB_DELAYEDACKLOST);
4630 if (tcp_is_sack(tp) && READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_dsack)) {
4686 NET_ADD_STATS(sock_net(sk), LINUX_MIB_TCPACKCOMPRESSED,
4817 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRCVCOALESCE);
4937 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPOFODROP);
4948 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPOFOQUEUE);
5000 NET_INC_STATS(sock_net(sk),
5020 NET_INC_STATS(sock_net(sk),
5050 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPOFOMERGE);
5116 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRCVQDROP);
5189 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPZEROWINDOWDROP);
5204 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRCVQDROP);
5242 NET_INC_STATS(sock_net(sk), LINUX_MIB_DELAYEDACKLOST);
5269 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPZEROWINDOWDROP);
5298 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPRCVCOLLAPSED);
5527 NET_INC_STATS(sock_net(sk), LINUX_MIB_OFOPRUNED);
5550 NET_INC_STATS(sock_net(sk), LINUX_MIB_PRUNECALLED);
5582 NET_INC_STATS(sock_net(sk), LINUX_MIB_RCVPRUNED);
5689 READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_backlog_ack_defer)) {
5704 tp->compressed_ack >= READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_comp_sack_nr))
5726 READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_comp_sack_delay_ns),
5730 READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_comp_sack_slack_ns),
5758 if (ptr && !READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_stdurg))
5871 if (tcp_fast_parse_options(sock_net(sk), skb, th, tp) &&
5877 NET_INC_STATS(sock_net(sk), LINUX_MIB_PAWSESTABREJECTED);
5878 if (!tcp_oow_rate_limited(sock_net(sk), skb,
5900 if (!tcp_oow_rate_limited(sock_net(sk), skb,
5961 TCP_INC_STATS(sock_net(sk), TCP_MIB_INERRS);
5962 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPSYNCHALLENGE);
6097 TCP_INC_STATS(sock_net(sk), TCP_MIB_INERRS);
6121 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPHPHITS);
6186 TCP_INC_STATS(sock_net(sk), TCP_MIB_CSUMERRORS);
6187 TCP_INC_STATS(sock_net(sk), TCP_MIB_INERRS);
6267 tcp_parse_options(sock_net(sk), synack, &opt, 0, NULL);
6299 NET_INC_STATS(sock_net(sk),
6305 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPFASTOPENACTIVE);
6351 tcp_parse_options(sock_net(sk), skb, &tp->rx_opt, 0, &foc);
6378 NET_INC_STATS(sock_net(sk),
6798 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPABORTONDATA);
6807 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPABORTONDATA);
6871 NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPABORTONDATA);
6938 const struct net *net = sock_net(listen_sk);
7000 write_pnet(&ireq->ireq_net, sock_net(sk_listener));
7016 struct net *net = sock_net(sk);
7026 __NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPREQQFULLDOCOOKIES);
7029 __NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPREQQFULLDROP);
7088 if (READ_ONCE(sock_net(sk)->ipv4.sysctl_tcp_syncookies) != 2 &&
7096 NET_INC_STATS(sock_net(sk), LINUX_MIB_LISTENOVERFLOWS);
7115 struct net *net = sock_net(sk);
7147 NET_INC_STATS(sock_net(sk), LINUX_MIB_LISTENOVERFLOWS);
7166 tcp_parse_options(sock_net(sk), skb, &tmp_opt, 0,