Lines Matching refs:pkt_dev

489 static void pktgen_clear_counters(struct pktgen_dev *pkt_dev);
490 static void fill_imix_distribution(struct pktgen_dev *pkt_dev);
562 const struct pktgen_dev *pkt_dev = seq->private; in pktgen_if_show() local
569 (unsigned long long)pkt_dev->count, pkt_dev->min_pkt_size, in pktgen_if_show()
570 pkt_dev->max_pkt_size); in pktgen_if_show()
572 if (pkt_dev->n_imix_entries > 0) { in pktgen_if_show()
574 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in pktgen_if_show()
576 pkt_dev->imix_entries[i].size, in pktgen_if_show()
577 pkt_dev->imix_entries[i].weight); in pktgen_if_show()
584 pkt_dev->nfrags, (unsigned long long) pkt_dev->delay, in pktgen_if_show()
585 pkt_dev->clone_skb, pkt_dev->odevname); in pktgen_if_show()
587 seq_printf(seq, " flows: %u flowlen: %u\n", pkt_dev->cflows, in pktgen_if_show()
588 pkt_dev->lflow); in pktgen_if_show()
592 pkt_dev->queue_map_min, in pktgen_if_show()
593 pkt_dev->queue_map_max); in pktgen_if_show()
595 if (pkt_dev->skb_priority) in pktgen_if_show()
597 pkt_dev->skb_priority); in pktgen_if_show()
599 if (pkt_dev->flags & F_IPV6) { in pktgen_if_show()
603 &pkt_dev->in6_saddr, in pktgen_if_show()
604 &pkt_dev->min_in6_saddr, &pkt_dev->max_in6_saddr, in pktgen_if_show()
605 &pkt_dev->in6_daddr, in pktgen_if_show()
606 &pkt_dev->min_in6_daddr, &pkt_dev->max_in6_daddr); in pktgen_if_show()
610 pkt_dev->dst_min, pkt_dev->dst_max); in pktgen_if_show()
613 pkt_dev->src_min, pkt_dev->src_max); in pktgen_if_show()
619 is_zero_ether_addr(pkt_dev->src_mac) ? in pktgen_if_show()
620 pkt_dev->odev->dev_addr : pkt_dev->src_mac); in pktgen_if_show()
623 seq_printf(seq, "%pM\n", pkt_dev->dst_mac); in pktgen_if_show()
628 pkt_dev->udp_src_min, pkt_dev->udp_src_max, in pktgen_if_show()
629 pkt_dev->udp_dst_min, pkt_dev->udp_dst_max); in pktgen_if_show()
633 pkt_dev->src_mac_count, pkt_dev->dst_mac_count); in pktgen_if_show()
635 if (pkt_dev->nr_labels) { in pktgen_if_show()
637 for (i = 0; i < pkt_dev->nr_labels; i++) in pktgen_if_show()
638 seq_printf(seq, "%08x%s", ntohl(pkt_dev->labels[i]), in pktgen_if_show()
639 i == pkt_dev->nr_labels-1 ? "\n" : ", "); in pktgen_if_show()
642 if (pkt_dev->vlan_id != 0xffff) in pktgen_if_show()
644 pkt_dev->vlan_id, pkt_dev->vlan_p, in pktgen_if_show()
645 pkt_dev->vlan_cfi); in pktgen_if_show()
647 if (pkt_dev->svlan_id != 0xffff) in pktgen_if_show()
649 pkt_dev->svlan_id, pkt_dev->svlan_p, in pktgen_if_show()
650 pkt_dev->svlan_cfi); in pktgen_if_show()
652 if (pkt_dev->tos) in pktgen_if_show()
653 seq_printf(seq, " tos: 0x%02x\n", pkt_dev->tos); in pktgen_if_show()
655 if (pkt_dev->traffic_class) in pktgen_if_show()
656 seq_printf(seq, " traffic_class: 0x%02x\n", pkt_dev->traffic_class); in pktgen_if_show()
658 if (pkt_dev->burst > 1) in pktgen_if_show()
659 seq_printf(seq, " burst: %d\n", pkt_dev->burst); in pktgen_if_show()
661 if (pkt_dev->node >= 0) in pktgen_if_show()
662 seq_printf(seq, " node: %d\n", pkt_dev->node); in pktgen_if_show()
664 if (pkt_dev->xmit_mode == M_NETIF_RECEIVE) in pktgen_if_show()
666 else if (pkt_dev->xmit_mode == M_QUEUE_XMIT) in pktgen_if_show()
673 if (!pkt_dev->cflows) in pktgen_if_show()
676 if (pkt_dev->flags & (1 << i)) in pktgen_if_show()
682 if (i == F_IPSEC && pkt_dev->spi) in pktgen_if_show()
683 seq_printf(seq, "spi:%u", pkt_dev->spi); in pktgen_if_show()
690 stopped = pkt_dev->running ? ktime_get() : pkt_dev->stopped_at; in pktgen_if_show()
691 idle = pkt_dev->idle_acc; in pktgen_if_show()
696 (unsigned long long)pkt_dev->sofar, in pktgen_if_show()
697 (unsigned long long)pkt_dev->errors); in pktgen_if_show()
699 if (pkt_dev->n_imix_entries > 0) { in pktgen_if_show()
703 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in pktgen_if_show()
705 pkt_dev->imix_entries[i].size, in pktgen_if_show()
706 pkt_dev->imix_entries[i].count_so_far); in pktgen_if_show()
713 (unsigned long long) ktime_to_us(pkt_dev->started_at), in pktgen_if_show()
719 pkt_dev->seq_num, pkt_dev->cur_dst_mac_offset, in pktgen_if_show()
720 pkt_dev->cur_src_mac_offset); in pktgen_if_show()
722 if (pkt_dev->flags & F_IPV6) { in pktgen_if_show()
724 &pkt_dev->cur_in6_saddr, in pktgen_if_show()
725 &pkt_dev->cur_in6_daddr); in pktgen_if_show()
728 &pkt_dev->cur_saddr, &pkt_dev->cur_daddr); in pktgen_if_show()
731 pkt_dev->cur_udp_dst, pkt_dev->cur_udp_src); in pktgen_if_show()
733 seq_printf(seq, " cur_queue_map: %u\n", pkt_dev->cur_queue_map); in pktgen_if_show()
735 seq_printf(seq, " flows: %u\n", pkt_dev->nflows); in pktgen_if_show()
737 if (pkt_dev->result[0]) in pktgen_if_show()
738 seq_printf(seq, "Result: %s\n", pkt_dev->result); in pktgen_if_show()
840 struct pktgen_dev *pkt_dev) in get_imix_entries() argument
847 pkt_dev->n_imix_entries = 0; in get_imix_entries()
873 pkt_dev->imix_entries[pkt_dev->n_imix_entries].size = size; in get_imix_entries()
874 pkt_dev->imix_entries[pkt_dev->n_imix_entries].weight = weight; in get_imix_entries()
881 pkt_dev->n_imix_entries++; in get_imix_entries()
883 if (pkt_dev->n_imix_entries > MAX_IMIX_ENTRIES) in get_imix_entries()
890 static ssize_t get_labels(const char __user *buffer, struct pktgen_dev *pkt_dev) in get_labels() argument
897 pkt_dev->nr_labels = 0; in get_labels()
903 pkt_dev->labels[n] = htonl(tmp); in get_labels()
904 if (pkt_dev->labels[n] & MPLS_STACK_BOTTOM) in get_labels()
905 pkt_dev->flags |= F_MPLS_RND; in get_labels()
915 pkt_dev->nr_labels = n; in get_labels()
953 struct pktgen_dev *pkt_dev = seq->private; in pktgen_if_write() local
961 pg_result = &(pkt_dev->result[0]); in pktgen_if_write()
1013 if (value != pkt_dev->min_pkt_size) { in pktgen_if_write()
1014 pkt_dev->min_pkt_size = value; in pktgen_if_write()
1015 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1018 pkt_dev->min_pkt_size); in pktgen_if_write()
1030 if (value != pkt_dev->max_pkt_size) { in pktgen_if_write()
1031 pkt_dev->max_pkt_size = value; in pktgen_if_write()
1032 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1035 pkt_dev->max_pkt_size); in pktgen_if_write()
1049 if (value != pkt_dev->min_pkt_size) { in pktgen_if_write()
1050 pkt_dev->min_pkt_size = value; in pktgen_if_write()
1051 pkt_dev->max_pkt_size = value; in pktgen_if_write()
1052 pkt_dev->cur_pkt_size = value; in pktgen_if_write()
1054 sprintf(pg_result, "OK: pkt_size=%d", pkt_dev->min_pkt_size); in pktgen_if_write()
1059 if (pkt_dev->clone_skb > 0) in pktgen_if_write()
1062 len = get_imix_entries(&user_buffer[i], pkt_dev); in pktgen_if_write()
1066 fill_imix_distribution(pkt_dev); in pktgen_if_write()
1089 pkt_dev->nfrags = value; in pktgen_if_write()
1090 sprintf(pg_result, "OK: frags=%d", pkt_dev->nfrags); in pktgen_if_write()
1100 pkt_dev->delay = ULLONG_MAX; in pktgen_if_write()
1102 pkt_dev->delay = (u64)value; in pktgen_if_write()
1105 (unsigned long long) pkt_dev->delay); in pktgen_if_write()
1116 pkt_dev->delay = pkt_dev->min_pkt_size*8*NSEC_PER_USEC/value; in pktgen_if_write()
1118 pr_info("Delay set at: %llu ns\n", pkt_dev->delay); in pktgen_if_write()
1131 pkt_dev->delay = NSEC_PER_SEC/value; in pktgen_if_write()
1133 pr_info("Delay set at: %llu ns\n", pkt_dev->delay); in pktgen_if_write()
1144 if (value != pkt_dev->udp_src_min) { in pktgen_if_write()
1145 pkt_dev->udp_src_min = value; in pktgen_if_write()
1146 pkt_dev->cur_udp_src = value; in pktgen_if_write()
1148 sprintf(pg_result, "OK: udp_src_min=%u", pkt_dev->udp_src_min); in pktgen_if_write()
1157 if (value != pkt_dev->udp_dst_min) { in pktgen_if_write()
1158 pkt_dev->udp_dst_min = value; in pktgen_if_write()
1159 pkt_dev->cur_udp_dst = value; in pktgen_if_write()
1161 sprintf(pg_result, "OK: udp_dst_min=%u", pkt_dev->udp_dst_min); in pktgen_if_write()
1170 if (value != pkt_dev->udp_src_max) { in pktgen_if_write()
1171 pkt_dev->udp_src_max = value; in pktgen_if_write()
1172 pkt_dev->cur_udp_src = value; in pktgen_if_write()
1174 sprintf(pg_result, "OK: udp_src_max=%u", pkt_dev->udp_src_max); in pktgen_if_write()
1183 if (value != pkt_dev->udp_dst_max) { in pktgen_if_write()
1184 pkt_dev->udp_dst_max = value; in pktgen_if_write()
1185 pkt_dev->cur_udp_dst = value; in pktgen_if_write()
1187 sprintf(pg_result, "OK: udp_dst_max=%u", pkt_dev->udp_dst_max); in pktgen_if_write()
1198 ((pkt_dev->xmit_mode == M_NETIF_RECEIVE) || in pktgen_if_write()
1199 !(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))) in pktgen_if_write()
1201 if (value > 0 && pkt_dev->n_imix_entries > 0) in pktgen_if_write()
1205 pkt_dev->clone_skb = value; in pktgen_if_write()
1207 sprintf(pg_result, "OK: clone_skb=%d", pkt_dev->clone_skb); in pktgen_if_write()
1216 pkt_dev->count = value; in pktgen_if_write()
1218 (unsigned long long)pkt_dev->count); in pktgen_if_write()
1227 if (pkt_dev->src_mac_count != value) { in pktgen_if_write()
1228 pkt_dev->src_mac_count = value; in pktgen_if_write()
1229 pkt_dev->cur_src_mac_offset = 0; in pktgen_if_write()
1232 pkt_dev->src_mac_count); in pktgen_if_write()
1241 if (pkt_dev->dst_mac_count != value) { in pktgen_if_write()
1242 pkt_dev->dst_mac_count = value; in pktgen_if_write()
1243 pkt_dev->cur_dst_mac_offset = 0; in pktgen_if_write()
1246 pkt_dev->dst_mac_count); in pktgen_if_write()
1256 ((pkt_dev->xmit_mode == M_QUEUE_XMIT) || in pktgen_if_write()
1257 ((pkt_dev->xmit_mode == M_START_XMIT) && in pktgen_if_write()
1258 (!(pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING))))) in pktgen_if_write()
1260 pkt_dev->burst = value < 1 ? 1 : value; in pktgen_if_write()
1261 sprintf(pg_result, "OK: burst=%u", pkt_dev->burst); in pktgen_if_write()
1272 pkt_dev->node = value; in pktgen_if_write()
1273 sprintf(pg_result, "OK: node=%d", pkt_dev->node); in pktgen_if_write()
1274 if (pkt_dev->page) { in pktgen_if_write()
1275 put_page(pkt_dev->page); in pktgen_if_write()
1276 pkt_dev->page = NULL; in pktgen_if_write()
1296 pkt_dev->xmit_mode = M_START_XMIT; in pktgen_if_write()
1299 if (pkt_dev->clone_skb > 0) in pktgen_if_write()
1302 pkt_dev->xmit_mode = M_NETIF_RECEIVE; in pktgen_if_write()
1307 pkt_dev->last_ok = 1; in pktgen_if_write()
1309 pkt_dev->xmit_mode = M_QUEUE_XMIT; in pktgen_if_write()
1310 pkt_dev->last_ok = 1; in pktgen_if_write()
1338 pkt_dev->flags &= ~flag; in pktgen_if_write()
1340 pkt_dev->flags |= flag; in pktgen_if_write()
1356 sprintf(pg_result, "OK: flags=0x%x", pkt_dev->flags); in pktgen_if_write()
1360 len = strn_len(&user_buffer[i], sizeof(pkt_dev->dst_min) - 1); in pktgen_if_write()
1367 if (strcmp(buf, pkt_dev->dst_min) != 0) { in pktgen_if_write()
1368 memset(pkt_dev->dst_min, 0, sizeof(pkt_dev->dst_min)); in pktgen_if_write()
1369 strcpy(pkt_dev->dst_min, buf); in pktgen_if_write()
1370 pkt_dev->daddr_min = in_aton(pkt_dev->dst_min); in pktgen_if_write()
1371 pkt_dev->cur_daddr = pkt_dev->daddr_min; in pktgen_if_write()
1374 pr_debug("dst_min set to: %s\n", pkt_dev->dst_min); in pktgen_if_write()
1376 sprintf(pg_result, "OK: dst_min=%s", pkt_dev->dst_min); in pktgen_if_write()
1380 len = strn_len(&user_buffer[i], sizeof(pkt_dev->dst_max) - 1); in pktgen_if_write()
1387 if (strcmp(buf, pkt_dev->dst_max) != 0) { in pktgen_if_write()
1388 memset(pkt_dev->dst_max, 0, sizeof(pkt_dev->dst_max)); in pktgen_if_write()
1389 strcpy(pkt_dev->dst_max, buf); in pktgen_if_write()
1390 pkt_dev->daddr_max = in_aton(pkt_dev->dst_max); in pktgen_if_write()
1391 pkt_dev->cur_daddr = pkt_dev->daddr_max; in pktgen_if_write()
1394 pr_debug("dst_max set to: %s\n", pkt_dev->dst_max); in pktgen_if_write()
1396 sprintf(pg_result, "OK: dst_max=%s", pkt_dev->dst_max); in pktgen_if_write()
1404 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1410 in6_pton(buf, -1, pkt_dev->in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1411 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->in6_daddr); in pktgen_if_write()
1413 pkt_dev->cur_in6_daddr = pkt_dev->in6_daddr; in pktgen_if_write()
1427 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1433 in6_pton(buf, -1, pkt_dev->min_in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1434 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->min_in6_daddr); in pktgen_if_write()
1436 pkt_dev->cur_in6_daddr = pkt_dev->min_in6_daddr; in pktgen_if_write()
1449 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1455 in6_pton(buf, -1, pkt_dev->max_in6_daddr.s6_addr, -1, NULL); in pktgen_if_write()
1456 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->max_in6_daddr); in pktgen_if_write()
1470 pkt_dev->flags |= F_IPV6; in pktgen_if_write()
1476 in6_pton(buf, -1, pkt_dev->in6_saddr.s6_addr, -1, NULL); in pktgen_if_write()
1477 snprintf(buf, sizeof(buf), "%pI6c", &pkt_dev->in6_saddr); in pktgen_if_write()
1479 pkt_dev->cur_in6_saddr = pkt_dev->in6_saddr; in pktgen_if_write()
1489 len = strn_len(&user_buffer[i], sizeof(pkt_dev->src_min) - 1); in pktgen_if_write()
1496 if (strcmp(buf, pkt_dev->src_min) != 0) { in pktgen_if_write()
1497 memset(pkt_dev->src_min, 0, sizeof(pkt_dev->src_min)); in pktgen_if_write()
1498 strcpy(pkt_dev->src_min, buf); in pktgen_if_write()
1499 pkt_dev->saddr_min = in_aton(pkt_dev->src_min); in pktgen_if_write()
1500 pkt_dev->cur_saddr = pkt_dev->saddr_min; in pktgen_if_write()
1503 pr_debug("src_min set to: %s\n", pkt_dev->src_min); in pktgen_if_write()
1505 sprintf(pg_result, "OK: src_min=%s", pkt_dev->src_min); in pktgen_if_write()
1509 len = strn_len(&user_buffer[i], sizeof(pkt_dev->src_max) - 1); in pktgen_if_write()
1516 if (strcmp(buf, pkt_dev->src_max) != 0) { in pktgen_if_write()
1517 memset(pkt_dev->src_max, 0, sizeof(pkt_dev->src_max)); in pktgen_if_write()
1518 strcpy(pkt_dev->src_max, buf); in pktgen_if_write()
1519 pkt_dev->saddr_max = in_aton(pkt_dev->src_max); in pktgen_if_write()
1520 pkt_dev->cur_saddr = pkt_dev->saddr_max; in pktgen_if_write()
1523 pr_debug("src_max set to: %s\n", pkt_dev->src_max); in pktgen_if_write()
1525 sprintf(pg_result, "OK: src_max=%s", pkt_dev->src_max); in pktgen_if_write()
1537 if (!mac_pton(valstr, pkt_dev->dst_mac)) in pktgen_if_write()
1540 ether_addr_copy(&pkt_dev->hh[0], pkt_dev->dst_mac); in pktgen_if_write()
1542 sprintf(pg_result, "OK: dstmac %pM", pkt_dev->dst_mac); in pktgen_if_write()
1554 if (!mac_pton(valstr, pkt_dev->src_mac)) in pktgen_if_write()
1557 ether_addr_copy(&pkt_dev->hh[6], pkt_dev->src_mac); in pktgen_if_write()
1559 sprintf(pg_result, "OK: srcmac %pM", pkt_dev->src_mac); in pktgen_if_write()
1564 pktgen_clear_counters(pkt_dev); in pktgen_if_write()
1578 pkt_dev->cflows = value; in pktgen_if_write()
1579 sprintf(pg_result, "OK: flows=%u", pkt_dev->cflows); in pktgen_if_write()
1589 pkt_dev->spi = value; in pktgen_if_write()
1590 sprintf(pg_result, "OK: spi=%u", pkt_dev->spi); in pktgen_if_write()
1600 pkt_dev->lflow = value; in pktgen_if_write()
1601 sprintf(pg_result, "OK: flowlen=%u", pkt_dev->lflow); in pktgen_if_write()
1611 pkt_dev->queue_map_min = value; in pktgen_if_write()
1612 sprintf(pg_result, "OK: queue_map_min=%u", pkt_dev->queue_map_min); in pktgen_if_write()
1622 pkt_dev->queue_map_max = value; in pktgen_if_write()
1623 sprintf(pg_result, "OK: queue_map_max=%u", pkt_dev->queue_map_max); in pktgen_if_write()
1630 len = get_labels(&user_buffer[i], pkt_dev); in pktgen_if_write()
1635 for (n = 0; n < pkt_dev->nr_labels; n++) in pktgen_if_write()
1637 "%08x%s", ntohl(pkt_dev->labels[n]), in pktgen_if_write()
1638 n == pkt_dev->nr_labels-1 ? "" : ","); in pktgen_if_write()
1640 if (pkt_dev->nr_labels && pkt_dev->vlan_id != 0xffff) { in pktgen_if_write()
1641 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1642 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1657 pkt_dev->vlan_id = value; /* turn on VLAN */ in pktgen_if_write()
1662 if (debug && pkt_dev->nr_labels) in pktgen_if_write()
1665 pkt_dev->nr_labels = 0; /* turn off MPLS */ in pktgen_if_write()
1666 sprintf(pg_result, "OK: vlan_id=%u", pkt_dev->vlan_id); in pktgen_if_write()
1668 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1669 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1683 if ((value <= 7) && (pkt_dev->vlan_id != 0xffff)) { in pktgen_if_write()
1684 pkt_dev->vlan_p = value; in pktgen_if_write()
1685 sprintf(pg_result, "OK: vlan_p=%u", pkt_dev->vlan_p); in pktgen_if_write()
1698 if ((value <= 1) && (pkt_dev->vlan_id != 0xffff)) { in pktgen_if_write()
1699 pkt_dev->vlan_cfi = value; in pktgen_if_write()
1700 sprintf(pg_result, "OK: vlan_cfi=%u", pkt_dev->vlan_cfi); in pktgen_if_write()
1713 if ((value <= 4095) && ((pkt_dev->vlan_id != 0xffff))) { in pktgen_if_write()
1714 pkt_dev->svlan_id = value; /* turn on SVLAN */ in pktgen_if_write()
1719 if (debug && pkt_dev->nr_labels) in pktgen_if_write()
1722 pkt_dev->nr_labels = 0; /* turn off MPLS */ in pktgen_if_write()
1723 sprintf(pg_result, "OK: svlan_id=%u", pkt_dev->svlan_id); in pktgen_if_write()
1725 pkt_dev->vlan_id = 0xffff; /* turn off VLAN/SVLAN */ in pktgen_if_write()
1726 pkt_dev->svlan_id = 0xffff; in pktgen_if_write()
1740 if ((value <= 7) && (pkt_dev->svlan_id != 0xffff)) { in pktgen_if_write()
1741 pkt_dev->svlan_p = value; in pktgen_if_write()
1742 sprintf(pg_result, "OK: svlan_p=%u", pkt_dev->svlan_p); in pktgen_if_write()
1755 if ((value <= 1) && (pkt_dev->svlan_id != 0xffff)) { in pktgen_if_write()
1756 pkt_dev->svlan_cfi = value; in pktgen_if_write()
1757 sprintf(pg_result, "OK: svlan_cfi=%u", pkt_dev->svlan_cfi); in pktgen_if_write()
1772 pkt_dev->tos = tmp_value; in pktgen_if_write()
1773 sprintf(pg_result, "OK: tos=0x%02x", pkt_dev->tos); in pktgen_if_write()
1788 pkt_dev->traffic_class = tmp_value; in pktgen_if_write()
1789 sprintf(pg_result, "OK: traffic_class=0x%02x", pkt_dev->traffic_class); in pktgen_if_write()
1802 pkt_dev->skb_priority = value; in pktgen_if_write()
1804 pkt_dev->skb_priority); in pktgen_if_write()
1808 sprintf(pkt_dev->result, "No such parameter \"%s\"", name); in pktgen_if_write()
1828 const struct pktgen_dev *pkt_dev; in pktgen_thread_show() local
1835 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in pktgen_thread_show()
1836 if (pkt_dev->running) in pktgen_thread_show()
1837 seq_printf(seq, "%s ", pkt_dev->odevname); in pktgen_thread_show()
1841 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in pktgen_thread_show()
1842 if (!pkt_dev->running) in pktgen_thread_show()
1843 seq_printf(seq, "%s ", pkt_dev->odevname); in pktgen_thread_show()
1967 struct pktgen_dev *pkt_dev = NULL; in __pktgen_NN_threads() local
1971 pkt_dev = pktgen_find_dev(t, ifname, exact); in __pktgen_NN_threads()
1972 if (pkt_dev) { in __pktgen_NN_threads()
1974 pkt_dev->removal_mark = 1; in __pktgen_NN_threads()
1980 return pkt_dev; in __pktgen_NN_threads()
1988 struct pktgen_dev *pkt_dev = NULL; in pktgen_mark_device() local
1997 pkt_dev = __pktgen_NN_threads(pn, ifname, REMOVE); in pktgen_mark_device()
1998 if (pkt_dev == NULL) in pktgen_mark_device()
2025 struct pktgen_dev *pkt_dev; in pktgen_change_name() local
2028 list_for_each_entry(pkt_dev, &t->if_list, list) { in pktgen_change_name()
2029 if (pkt_dev->odev != dev) in pktgen_change_name()
2032 proc_remove(pkt_dev->entry); in pktgen_change_name()
2034 pkt_dev->entry = proc_create_data(dev->name, 0600, in pktgen_change_name()
2037 pkt_dev); in pktgen_change_name()
2038 if (!pkt_dev->entry) in pktgen_change_name()
2075 struct pktgen_dev *pkt_dev, in pktgen_dev_get_by_name() argument
2096 struct pktgen_dev *pkt_dev, const char *ifname) in pktgen_setup_dev() argument
2102 if (pkt_dev->odev) { in pktgen_setup_dev()
2103 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_setup_dev()
2104 pkt_dev->odev = NULL; in pktgen_setup_dev()
2107 odev = pktgen_dev_get_by_name(pn, pkt_dev, ifname); in pktgen_setup_dev()
2120 pkt_dev->odev = odev; in pktgen_setup_dev()
2121 netdev_tracker_alloc(odev, &pkt_dev->dev_tracker, GFP_KERNEL); in pktgen_setup_dev()
2132 static void pktgen_setup_inject(struct pktgen_dev *pkt_dev) in pktgen_setup_inject() argument
2136 if (!pkt_dev->odev) { in pktgen_setup_inject()
2138 sprintf(pkt_dev->result, in pktgen_setup_inject()
2144 ntxq = pkt_dev->odev->real_num_tx_queues; in pktgen_setup_inject()
2146 if (ntxq <= pkt_dev->queue_map_min) { in pktgen_setup_inject()
2148 pkt_dev->queue_map_min, (ntxq ?: 1) - 1, ntxq, in pktgen_setup_inject()
2149 pkt_dev->odevname); in pktgen_setup_inject()
2150 pkt_dev->queue_map_min = (ntxq ?: 1) - 1; in pktgen_setup_inject()
2152 if (pkt_dev->queue_map_max >= ntxq) { in pktgen_setup_inject()
2154 pkt_dev->queue_map_max, (ntxq ?: 1) - 1, ntxq, in pktgen_setup_inject()
2155 pkt_dev->odevname); in pktgen_setup_inject()
2156 pkt_dev->queue_map_max = (ntxq ?: 1) - 1; in pktgen_setup_inject()
2161 if (is_zero_ether_addr(pkt_dev->src_mac)) in pktgen_setup_inject()
2162 ether_addr_copy(&(pkt_dev->hh[6]), pkt_dev->odev->dev_addr); in pktgen_setup_inject()
2165 ether_addr_copy(&(pkt_dev->hh[0]), pkt_dev->dst_mac); in pktgen_setup_inject()
2167 if (pkt_dev->flags & F_IPV6) { in pktgen_setup_inject()
2171 if (pkt_dev->min_pkt_size == 0) { in pktgen_setup_inject()
2172 pkt_dev->min_pkt_size = 14 + sizeof(struct ipv6hdr) in pktgen_setup_inject()
2175 + pkt_dev->pkt_overhead; in pktgen_setup_inject()
2179 if (pkt_dev->cur_in6_saddr.s6_addr[i]) { in pktgen_setup_inject()
2193 idev = __in6_dev_get(pkt_dev->odev); in pktgen_setup_inject()
2201 pkt_dev->cur_in6_saddr = ifp->addr; in pktgen_setup_inject()
2213 if (pkt_dev->min_pkt_size == 0) { in pktgen_setup_inject()
2214 pkt_dev->min_pkt_size = 14 + sizeof(struct iphdr) in pktgen_setup_inject()
2217 + pkt_dev->pkt_overhead; in pktgen_setup_inject()
2220 pkt_dev->saddr_min = 0; in pktgen_setup_inject()
2221 pkt_dev->saddr_max = 0; in pktgen_setup_inject()
2222 if (strlen(pkt_dev->src_min) == 0) { in pktgen_setup_inject()
2227 in_dev = __in_dev_get_rcu(pkt_dev->odev); in pktgen_setup_inject()
2233 pkt_dev->saddr_min = ifa->ifa_address; in pktgen_setup_inject()
2234 pkt_dev->saddr_max = pkt_dev->saddr_min; in pktgen_setup_inject()
2239 pkt_dev->saddr_min = in_aton(pkt_dev->src_min); in pktgen_setup_inject()
2240 pkt_dev->saddr_max = in_aton(pkt_dev->src_max); in pktgen_setup_inject()
2243 pkt_dev->daddr_min = in_aton(pkt_dev->dst_min); in pktgen_setup_inject()
2244 pkt_dev->daddr_max = in_aton(pkt_dev->dst_max); in pktgen_setup_inject()
2247 pkt_dev->cur_pkt_size = pkt_dev->min_pkt_size; in pktgen_setup_inject()
2248 if (pkt_dev->min_pkt_size > pkt_dev->max_pkt_size) in pktgen_setup_inject()
2249 pkt_dev->max_pkt_size = pkt_dev->min_pkt_size; in pktgen_setup_inject()
2251 pkt_dev->cur_dst_mac_offset = 0; in pktgen_setup_inject()
2252 pkt_dev->cur_src_mac_offset = 0; in pktgen_setup_inject()
2253 pkt_dev->cur_saddr = pkt_dev->saddr_min; in pktgen_setup_inject()
2254 pkt_dev->cur_daddr = pkt_dev->daddr_min; in pktgen_setup_inject()
2255 pkt_dev->cur_udp_dst = pkt_dev->udp_dst_min; in pktgen_setup_inject()
2256 pkt_dev->cur_udp_src = pkt_dev->udp_src_min; in pktgen_setup_inject()
2257 pkt_dev->nflows = 0; in pktgen_setup_inject()
2261 static void spin(struct pktgen_dev *pkt_dev, ktime_t spin_until) in spin() argument
2289 } while (t.task && pkt_dev->running && !signal_pending(current)); in spin()
2294 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(end_time, start_time)); in spin()
2296 pkt_dev->next_tx = ktime_add_ns(spin_until, pkt_dev->delay); in spin()
2300 static inline void set_pkt_overhead(struct pktgen_dev *pkt_dev) in set_pkt_overhead() argument
2302 pkt_dev->pkt_overhead = 0; in set_pkt_overhead()
2303 pkt_dev->pkt_overhead += pkt_dev->nr_labels*sizeof(u32); in set_pkt_overhead()
2304 pkt_dev->pkt_overhead += VLAN_TAG_SIZE(pkt_dev); in set_pkt_overhead()
2305 pkt_dev->pkt_overhead += SVLAN_TAG_SIZE(pkt_dev); in set_pkt_overhead()
2308 static inline int f_seen(const struct pktgen_dev *pkt_dev, int flow) in f_seen() argument
2310 return !!(pkt_dev->flows[flow].flags & F_INIT); in f_seen()
2313 static inline int f_pick(struct pktgen_dev *pkt_dev) in f_pick() argument
2315 int flow = pkt_dev->curfl; in f_pick()
2317 if (pkt_dev->flags & F_FLOW_SEQ) { in f_pick()
2318 if (pkt_dev->flows[flow].count >= pkt_dev->lflow) { in f_pick()
2320 pkt_dev->flows[flow].count = 0; in f_pick()
2321 pkt_dev->flows[flow].flags = 0; in f_pick()
2322 pkt_dev->curfl += 1; in f_pick()
2323 if (pkt_dev->curfl >= pkt_dev->cflows) in f_pick()
2324 pkt_dev->curfl = 0; /*reset */ in f_pick()
2327 flow = prandom_u32_max(pkt_dev->cflows); in f_pick()
2328 pkt_dev->curfl = flow; in f_pick()
2330 if (pkt_dev->flows[flow].count > pkt_dev->lflow) { in f_pick()
2331 pkt_dev->flows[flow].count = 0; in f_pick()
2332 pkt_dev->flows[flow].flags = 0; in f_pick()
2336 return pkt_dev->curfl; in f_pick()
2345 static void get_ipsec_sa(struct pktgen_dev *pkt_dev, int flow) in get_ipsec_sa() argument
2347 struct xfrm_state *x = pkt_dev->flows[flow].x; in get_ipsec_sa()
2348 struct pktgen_net *pn = net_generic(dev_net(pkt_dev->odev), pg_net_id); in get_ipsec_sa()
2351 if (pkt_dev->spi) { in get_ipsec_sa()
2355 x = xfrm_state_lookup_byspi(pn->net, htonl(pkt_dev->spi), AF_INET); in get_ipsec_sa()
2359 (xfrm_address_t *)&pkt_dev->cur_daddr, in get_ipsec_sa()
2360 (xfrm_address_t *)&pkt_dev->cur_saddr, in get_ipsec_sa()
2362 pkt_dev->ipsmode, in get_ipsec_sa()
2363 pkt_dev->ipsproto, 0); in get_ipsec_sa()
2366 pkt_dev->flows[flow].x = x; in get_ipsec_sa()
2367 set_pkt_overhead(pkt_dev); in get_ipsec_sa()
2368 pkt_dev->pkt_overhead += x->props.header_len; in get_ipsec_sa()
2374 static void set_cur_queue_map(struct pktgen_dev *pkt_dev) in set_cur_queue_map() argument
2377 if (pkt_dev->flags & F_QUEUE_MAP_CPU) in set_cur_queue_map()
2378 pkt_dev->cur_queue_map = smp_processor_id(); in set_cur_queue_map()
2380 else if (pkt_dev->queue_map_min <= pkt_dev->queue_map_max) { in set_cur_queue_map()
2382 if (pkt_dev->flags & F_QUEUE_MAP_RND) { in set_cur_queue_map()
2383 t = prandom_u32_max(pkt_dev->queue_map_max - in set_cur_queue_map()
2384 pkt_dev->queue_map_min + 1) + in set_cur_queue_map()
2385 pkt_dev->queue_map_min; in set_cur_queue_map()
2387 t = pkt_dev->cur_queue_map + 1; in set_cur_queue_map()
2388 if (t > pkt_dev->queue_map_max) in set_cur_queue_map()
2389 t = pkt_dev->queue_map_min; in set_cur_queue_map()
2391 pkt_dev->cur_queue_map = t; in set_cur_queue_map()
2393 pkt_dev->cur_queue_map = pkt_dev->cur_queue_map % pkt_dev->odev->real_num_tx_queues; in set_cur_queue_map()
2399 static void mod_cur_headers(struct pktgen_dev *pkt_dev) in mod_cur_headers() argument
2405 if (pkt_dev->cflows) in mod_cur_headers()
2406 flow = f_pick(pkt_dev); in mod_cur_headers()
2409 if (pkt_dev->src_mac_count > 1) { in mod_cur_headers()
2413 if (pkt_dev->flags & F_MACSRC_RND) in mod_cur_headers()
2414 mc = prandom_u32_max(pkt_dev->src_mac_count); in mod_cur_headers()
2416 mc = pkt_dev->cur_src_mac_offset++; in mod_cur_headers()
2417 if (pkt_dev->cur_src_mac_offset >= in mod_cur_headers()
2418 pkt_dev->src_mac_count) in mod_cur_headers()
2419 pkt_dev->cur_src_mac_offset = 0; in mod_cur_headers()
2422 tmp = pkt_dev->src_mac[5] + (mc & 0xFF); in mod_cur_headers()
2423 pkt_dev->hh[11] = tmp; in mod_cur_headers()
2424 tmp = (pkt_dev->src_mac[4] + ((mc >> 8) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2425 pkt_dev->hh[10] = tmp; in mod_cur_headers()
2426 tmp = (pkt_dev->src_mac[3] + ((mc >> 16) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2427 pkt_dev->hh[9] = tmp; in mod_cur_headers()
2428 tmp = (pkt_dev->src_mac[2] + ((mc >> 24) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2429 pkt_dev->hh[8] = tmp; in mod_cur_headers()
2430 tmp = (pkt_dev->src_mac[1] + (tmp >> 8)); in mod_cur_headers()
2431 pkt_dev->hh[7] = tmp; in mod_cur_headers()
2435 if (pkt_dev->dst_mac_count > 1) { in mod_cur_headers()
2439 if (pkt_dev->flags & F_MACDST_RND) in mod_cur_headers()
2440 mc = prandom_u32_max(pkt_dev->dst_mac_count); in mod_cur_headers()
2443 mc = pkt_dev->cur_dst_mac_offset++; in mod_cur_headers()
2444 if (pkt_dev->cur_dst_mac_offset >= in mod_cur_headers()
2445 pkt_dev->dst_mac_count) { in mod_cur_headers()
2446 pkt_dev->cur_dst_mac_offset = 0; in mod_cur_headers()
2450 tmp = pkt_dev->dst_mac[5] + (mc & 0xFF); in mod_cur_headers()
2451 pkt_dev->hh[5] = tmp; in mod_cur_headers()
2452 tmp = (pkt_dev->dst_mac[4] + ((mc >> 8) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2453 pkt_dev->hh[4] = tmp; in mod_cur_headers()
2454 tmp = (pkt_dev->dst_mac[3] + ((mc >> 16) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2455 pkt_dev->hh[3] = tmp; in mod_cur_headers()
2456 tmp = (pkt_dev->dst_mac[2] + ((mc >> 24) & 0xFF) + (tmp >> 8)); in mod_cur_headers()
2457 pkt_dev->hh[2] = tmp; in mod_cur_headers()
2458 tmp = (pkt_dev->dst_mac[1] + (tmp >> 8)); in mod_cur_headers()
2459 pkt_dev->hh[1] = tmp; in mod_cur_headers()
2462 if (pkt_dev->flags & F_MPLS_RND) { in mod_cur_headers()
2464 for (i = 0; i < pkt_dev->nr_labels; i++) in mod_cur_headers()
2465 if (pkt_dev->labels[i] & MPLS_STACK_BOTTOM) in mod_cur_headers()
2466 pkt_dev->labels[i] = MPLS_STACK_BOTTOM | in mod_cur_headers()
2471 if ((pkt_dev->flags & F_VID_RND) && (pkt_dev->vlan_id != 0xffff)) { in mod_cur_headers()
2472 pkt_dev->vlan_id = prandom_u32_max(4096); in mod_cur_headers()
2475 if ((pkt_dev->flags & F_SVID_RND) && (pkt_dev->svlan_id != 0xffff)) { in mod_cur_headers()
2476 pkt_dev->svlan_id = prandom_u32_max(4096); in mod_cur_headers()
2479 if (pkt_dev->udp_src_min < pkt_dev->udp_src_max) { in mod_cur_headers()
2480 if (pkt_dev->flags & F_UDPSRC_RND) in mod_cur_headers()
2481 pkt_dev->cur_udp_src = prandom_u32_max( in mod_cur_headers()
2482 pkt_dev->udp_src_max - pkt_dev->udp_src_min) + in mod_cur_headers()
2483 pkt_dev->udp_src_min; in mod_cur_headers()
2486 pkt_dev->cur_udp_src++; in mod_cur_headers()
2487 if (pkt_dev->cur_udp_src >= pkt_dev->udp_src_max) in mod_cur_headers()
2488 pkt_dev->cur_udp_src = pkt_dev->udp_src_min; in mod_cur_headers()
2492 if (pkt_dev->udp_dst_min < pkt_dev->udp_dst_max) { in mod_cur_headers()
2493 if (pkt_dev->flags & F_UDPDST_RND) { in mod_cur_headers()
2494 pkt_dev->cur_udp_dst = prandom_u32_max( in mod_cur_headers()
2495 pkt_dev->udp_dst_max - pkt_dev->udp_dst_min) + in mod_cur_headers()
2496 pkt_dev->udp_dst_min; in mod_cur_headers()
2498 pkt_dev->cur_udp_dst++; in mod_cur_headers()
2499 if (pkt_dev->cur_udp_dst >= pkt_dev->udp_dst_max) in mod_cur_headers()
2500 pkt_dev->cur_udp_dst = pkt_dev->udp_dst_min; in mod_cur_headers()
2504 if (!(pkt_dev->flags & F_IPV6)) { in mod_cur_headers()
2506 imn = ntohl(pkt_dev->saddr_min); in mod_cur_headers()
2507 imx = ntohl(pkt_dev->saddr_max); in mod_cur_headers()
2510 if (pkt_dev->flags & F_IPSRC_RND) in mod_cur_headers()
2513 t = ntohl(pkt_dev->cur_saddr); in mod_cur_headers()
2519 pkt_dev->cur_saddr = htonl(t); in mod_cur_headers()
2522 if (pkt_dev->cflows && f_seen(pkt_dev, flow)) { in mod_cur_headers()
2523 pkt_dev->cur_daddr = pkt_dev->flows[flow].cur_daddr; in mod_cur_headers()
2525 imn = ntohl(pkt_dev->daddr_min); in mod_cur_headers()
2526 imx = ntohl(pkt_dev->daddr_max); in mod_cur_headers()
2530 if (pkt_dev->flags & F_IPDST_RND) { in mod_cur_headers()
2541 pkt_dev->cur_daddr = s; in mod_cur_headers()
2543 t = ntohl(pkt_dev->cur_daddr); in mod_cur_headers()
2548 pkt_dev->cur_daddr = htonl(t); in mod_cur_headers()
2551 if (pkt_dev->cflows) { in mod_cur_headers()
2552 pkt_dev->flows[flow].flags |= F_INIT; in mod_cur_headers()
2553 pkt_dev->flows[flow].cur_daddr = in mod_cur_headers()
2554 pkt_dev->cur_daddr; in mod_cur_headers()
2556 if (pkt_dev->flags & F_IPSEC) in mod_cur_headers()
2557 get_ipsec_sa(pkt_dev, flow); in mod_cur_headers()
2559 pkt_dev->nflows++; in mod_cur_headers()
2564 if (!ipv6_addr_any(&pkt_dev->min_in6_daddr)) { in mod_cur_headers()
2570 pkt_dev->cur_in6_daddr.s6_addr32[i] = in mod_cur_headers()
2572 pkt_dev->min_in6_daddr.s6_addr32[i]) & in mod_cur_headers()
2573 pkt_dev->max_in6_daddr.s6_addr32[i]); in mod_cur_headers()
2578 if (pkt_dev->min_pkt_size < pkt_dev->max_pkt_size) { in mod_cur_headers()
2580 if (pkt_dev->flags & F_TXSIZE_RND) { in mod_cur_headers()
2581 t = prandom_u32_max(pkt_dev->max_pkt_size - in mod_cur_headers()
2582 pkt_dev->min_pkt_size) + in mod_cur_headers()
2583 pkt_dev->min_pkt_size; in mod_cur_headers()
2585 t = pkt_dev->cur_pkt_size + 1; in mod_cur_headers()
2586 if (t > pkt_dev->max_pkt_size) in mod_cur_headers()
2587 t = pkt_dev->min_pkt_size; in mod_cur_headers()
2589 pkt_dev->cur_pkt_size = t; in mod_cur_headers()
2590 } else if (pkt_dev->n_imix_entries > 0) { in mod_cur_headers()
2593 __u8 entry_index = pkt_dev->imix_distribution[t]; in mod_cur_headers()
2595 entry = &pkt_dev->imix_entries[entry_index]; in mod_cur_headers()
2597 pkt_dev->cur_pkt_size = entry->size; in mod_cur_headers()
2600 set_cur_queue_map(pkt_dev); in mod_cur_headers()
2602 pkt_dev->flows[flow].count++; in mod_cur_headers()
2605 static void fill_imix_distribution(struct pktgen_dev *pkt_dev) in fill_imix_distribution() argument
2613 for (i = 0; i < pkt_dev->n_imix_entries; i++) in fill_imix_distribution()
2614 total_weight += pkt_dev->imix_entries[i].weight; in fill_imix_distribution()
2617 for (i = 0; i < pkt_dev->n_imix_entries - 1; i++) { in fill_imix_distribution()
2618 cumulative_prob += div64_u64(pkt_dev->imix_entries[i].weight * in fill_imix_distribution()
2623 cumulative_probabilites[pkt_dev->n_imix_entries - 1] = 100; in fill_imix_distribution()
2628 pkt_dev->imix_distribution[i] = j; in fill_imix_distribution()
2638 static int pktgen_output_ipsec(struct sk_buff *skb, struct pktgen_dev *pkt_dev) in pktgen_output_ipsec() argument
2640 struct xfrm_state *x = pkt_dev->flows[pkt_dev->curfl].x; in pktgen_output_ipsec()
2642 struct net *net = dev_net(pkt_dev->odev); in pktgen_output_ipsec()
2648 if ((x->props.mode != XFRM_MODE_TRANSPORT) && (pkt_dev->spi == 0)) in pktgen_output_ipsec()
2654 if ((x->props.mode == XFRM_MODE_TUNNEL) && (pkt_dev->spi != 0)) in pktgen_output_ipsec()
2655 skb->_skb_refdst = (unsigned long)&pkt_dev->xdst.u.dst | SKB_DST_NOREF; in pktgen_output_ipsec()
2677 static void free_SAs(struct pktgen_dev *pkt_dev) in free_SAs() argument
2679 if (pkt_dev->cflows) { in free_SAs()
2682 for (i = 0; i < pkt_dev->cflows; i++) { in free_SAs()
2683 struct xfrm_state *x = pkt_dev->flows[i].x; in free_SAs()
2686 pkt_dev->flows[i].x = NULL; in free_SAs()
2692 static int process_ipsec(struct pktgen_dev *pkt_dev, in process_ipsec() argument
2695 if (pkt_dev->flags & F_IPSEC) { in process_ipsec()
2696 struct xfrm_state *x = pkt_dev->flows[pkt_dev->curfl].x; in process_ipsec()
2715 ret = pktgen_output_ipsec(skb, pkt_dev); in process_ipsec()
2722 memcpy(eth, pkt_dev->hh, 2 * ETH_ALEN); in process_ipsec()
2738 static void mpls_push(__be32 *mpls, struct pktgen_dev *pkt_dev) in mpls_push() argument
2741 for (i = 0; i < pkt_dev->nr_labels; i++) in mpls_push()
2742 *mpls++ = pkt_dev->labels[i] & ~MPLS_STACK_BOTTOM; in mpls_push()
2754 static void pktgen_finalize_skb(struct pktgen_dev *pkt_dev, struct sk_buff *skb, in pktgen_finalize_skb() argument
2763 if (pkt_dev->nfrags <= 0) { in pktgen_finalize_skb()
2766 int frags = pkt_dev->nfrags; in pktgen_finalize_skb()
2783 if (unlikely(!pkt_dev->page)) { in pktgen_finalize_skb()
2786 if (pkt_dev->node >= 0 && (pkt_dev->flags & F_NODE)) in pktgen_finalize_skb()
2787 node = pkt_dev->node; in pktgen_finalize_skb()
2788 pkt_dev->page = alloc_pages_node(node, GFP_KERNEL | __GFP_ZERO, 0); in pktgen_finalize_skb()
2789 if (!pkt_dev->page) in pktgen_finalize_skb()
2792 get_page(pkt_dev->page); in pktgen_finalize_skb()
2793 skb_frag_set_page(skb, i, pkt_dev->page); in pktgen_finalize_skb()
2813 pgh->seq_num = htonl(pkt_dev->seq_num); in pktgen_finalize_skb()
2815 if (pkt_dev->flags & F_NO_TIMESTAMP) { in pktgen_finalize_skb()
2834 struct pktgen_dev *pkt_dev) in pktgen_alloc_skb() argument
2840 size = pkt_dev->cur_pkt_size + 64 + extralen + pkt_dev->pkt_overhead; in pktgen_alloc_skb()
2841 if (pkt_dev->flags & F_NODE) { in pktgen_alloc_skb()
2842 int node = pkt_dev->node >= 0 ? pkt_dev->node : numa_node_id(); in pktgen_alloc_skb()
2861 struct pktgen_dev *pkt_dev) in fill_packet_ipv4() argument
2876 if (pkt_dev->nr_labels) in fill_packet_ipv4()
2879 if (pkt_dev->vlan_id != 0xffff) in fill_packet_ipv4()
2885 mod_cur_headers(pkt_dev); in fill_packet_ipv4()
2886 queue_map = pkt_dev->cur_queue_map; in fill_packet_ipv4()
2888 skb = pktgen_alloc_skb(odev, pkt_dev); in fill_packet_ipv4()
2890 sprintf(pkt_dev->result, "No memory"); in fill_packet_ipv4()
2899 mpls = skb_put(skb, pkt_dev->nr_labels * sizeof(__u32)); in fill_packet_ipv4()
2900 if (pkt_dev->nr_labels) in fill_packet_ipv4()
2901 mpls_push(mpls, pkt_dev); in fill_packet_ipv4()
2903 if (pkt_dev->vlan_id != 0xffff) { in fill_packet_ipv4()
2904 if (pkt_dev->svlan_id != 0xffff) { in fill_packet_ipv4()
2906 *svlan_tci = build_tci(pkt_dev->svlan_id, in fill_packet_ipv4()
2907 pkt_dev->svlan_cfi, in fill_packet_ipv4()
2908 pkt_dev->svlan_p); in fill_packet_ipv4()
2914 *vlan_tci = build_tci(pkt_dev->vlan_id, in fill_packet_ipv4()
2915 pkt_dev->vlan_cfi, in fill_packet_ipv4()
2916 pkt_dev->vlan_p); in fill_packet_ipv4()
2928 skb->priority = pkt_dev->skb_priority; in fill_packet_ipv4()
2930 memcpy(eth, pkt_dev->hh, 12); in fill_packet_ipv4()
2934 datalen = pkt_dev->cur_pkt_size - 14 - 20 - 8 - in fill_packet_ipv4()
2935 pkt_dev->pkt_overhead; in fill_packet_ipv4()
2939 udph->source = htons(pkt_dev->cur_udp_src); in fill_packet_ipv4()
2940 udph->dest = htons(pkt_dev->cur_udp_dst); in fill_packet_ipv4()
2947 iph->tos = pkt_dev->tos; in fill_packet_ipv4()
2949 iph->saddr = pkt_dev->cur_saddr; in fill_packet_ipv4()
2950 iph->daddr = pkt_dev->cur_daddr; in fill_packet_ipv4()
2951 iph->id = htons(pkt_dev->ip_id); in fill_packet_ipv4()
2952 pkt_dev->ip_id++; in fill_packet_ipv4()
2961 pktgen_finalize_skb(pkt_dev, skb, datalen); in fill_packet_ipv4()
2963 if (!(pkt_dev->flags & F_UDPCSUM)) { in fill_packet_ipv4()
2981 if (!process_ipsec(pkt_dev, skb, protocol)) in fill_packet_ipv4()
2989 struct pktgen_dev *pkt_dev) in fill_packet_ipv6() argument
3004 if (pkt_dev->nr_labels) in fill_packet_ipv6()
3007 if (pkt_dev->vlan_id != 0xffff) in fill_packet_ipv6()
3013 mod_cur_headers(pkt_dev); in fill_packet_ipv6()
3014 queue_map = pkt_dev->cur_queue_map; in fill_packet_ipv6()
3016 skb = pktgen_alloc_skb(odev, pkt_dev); in fill_packet_ipv6()
3018 sprintf(pkt_dev->result, "No memory"); in fill_packet_ipv6()
3027 mpls = skb_put(skb, pkt_dev->nr_labels * sizeof(__u32)); in fill_packet_ipv6()
3028 if (pkt_dev->nr_labels) in fill_packet_ipv6()
3029 mpls_push(mpls, pkt_dev); in fill_packet_ipv6()
3031 if (pkt_dev->vlan_id != 0xffff) { in fill_packet_ipv6()
3032 if (pkt_dev->svlan_id != 0xffff) { in fill_packet_ipv6()
3034 *svlan_tci = build_tci(pkt_dev->svlan_id, in fill_packet_ipv6()
3035 pkt_dev->svlan_cfi, in fill_packet_ipv6()
3036 pkt_dev->svlan_p); in fill_packet_ipv6()
3042 *vlan_tci = build_tci(pkt_dev->vlan_id, in fill_packet_ipv6()
3043 pkt_dev->vlan_cfi, in fill_packet_ipv6()
3044 pkt_dev->vlan_p); in fill_packet_ipv6()
3056 skb->priority = pkt_dev->skb_priority; in fill_packet_ipv6()
3058 memcpy(eth, pkt_dev->hh, 12); in fill_packet_ipv6()
3062 datalen = pkt_dev->cur_pkt_size - 14 - in fill_packet_ipv6()
3064 pkt_dev->pkt_overhead; in fill_packet_ipv6()
3072 udph->source = htons(pkt_dev->cur_udp_src); in fill_packet_ipv6()
3073 udph->dest = htons(pkt_dev->cur_udp_dst); in fill_packet_ipv6()
3079 if (pkt_dev->traffic_class) { in fill_packet_ipv6()
3081 *(__be32 *)iph |= htonl(0x60000000 | (pkt_dev->traffic_class << 20)); in fill_packet_ipv6()
3089 iph->daddr = pkt_dev->cur_in6_daddr; in fill_packet_ipv6()
3090 iph->saddr = pkt_dev->cur_in6_saddr; in fill_packet_ipv6()
3096 pktgen_finalize_skb(pkt_dev, skb, datalen); in fill_packet_ipv6()
3098 if (!(pkt_dev->flags & F_UDPCSUM)) { in fill_packet_ipv6()
3119 struct pktgen_dev *pkt_dev) in fill_packet() argument
3121 if (pkt_dev->flags & F_IPV6) in fill_packet()
3122 return fill_packet_ipv6(odev, pkt_dev); in fill_packet()
3124 return fill_packet_ipv4(odev, pkt_dev); in fill_packet()
3127 static void pktgen_clear_counters(struct pktgen_dev *pkt_dev) in pktgen_clear_counters() argument
3129 pkt_dev->seq_num = 1; in pktgen_clear_counters()
3130 pkt_dev->idle_acc = 0; in pktgen_clear_counters()
3131 pkt_dev->sofar = 0; in pktgen_clear_counters()
3132 pkt_dev->tx_bytes = 0; in pktgen_clear_counters()
3133 pkt_dev->errors = 0; in pktgen_clear_counters()
3140 struct pktgen_dev *pkt_dev; in pktgen_run() local
3146 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in pktgen_run()
3151 pktgen_setup_inject(pkt_dev); in pktgen_run()
3153 if (pkt_dev->odev) { in pktgen_run()
3154 pktgen_clear_counters(pkt_dev); in pktgen_run()
3155 pkt_dev->skb = NULL; in pktgen_run()
3156 pkt_dev->started_at = pkt_dev->next_tx = ktime_get(); in pktgen_run()
3158 set_pkt_overhead(pkt_dev); in pktgen_run()
3160 strcpy(pkt_dev->result, "Starting"); in pktgen_run()
3161 pkt_dev->running = 1; /* Cranke yeself! */ in pktgen_run()
3164 strcpy(pkt_dev->result, "Error starting"); in pktgen_run()
3192 const struct pktgen_dev *pkt_dev; in thread_is_running() local
3195 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) in thread_is_running()
3196 if (pkt_dev->running) { in thread_is_running()
3274 static void show_results(struct pktgen_dev *pkt_dev, int nr_frags) in show_results() argument
3277 char *p = pkt_dev->result; in show_results()
3278 ktime_t elapsed = ktime_sub(pkt_dev->stopped_at, in show_results()
3279 pkt_dev->started_at); in show_results()
3280 ktime_t idle = ns_to_ktime(pkt_dev->idle_acc); in show_results()
3286 (unsigned long long)pkt_dev->sofar, in show_results()
3287 pkt_dev->cur_pkt_size, nr_frags); in show_results()
3289 pps = div64_u64(pkt_dev->sofar * NSEC_PER_SEC, in show_results()
3292 if (pkt_dev->n_imix_entries > 0) { in show_results()
3297 for (i = 0; i < pkt_dev->n_imix_entries; i++) { in show_results()
3298 entry = &pkt_dev->imix_entries[i]; in show_results()
3303 bps = pps * 8 * pkt_dev->cur_pkt_size; in show_results()
3312 (unsigned long long)pkt_dev->errors); in show_results()
3316 static int pktgen_stop_device(struct pktgen_dev *pkt_dev) in pktgen_stop_device() argument
3318 int nr_frags = pkt_dev->skb ? skb_shinfo(pkt_dev->skb)->nr_frags : -1; in pktgen_stop_device()
3320 if (!pkt_dev->running) { in pktgen_stop_device()
3322 pkt_dev->odevname); in pktgen_stop_device()
3326 pkt_dev->running = 0; in pktgen_stop_device()
3327 kfree_skb(pkt_dev->skb); in pktgen_stop_device()
3328 pkt_dev->skb = NULL; in pktgen_stop_device()
3329 pkt_dev->stopped_at = ktime_get(); in pktgen_stop_device()
3331 show_results(pkt_dev, nr_frags); in pktgen_stop_device()
3338 struct pktgen_dev *pkt_dev, *best = NULL; in next_to_run() local
3341 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in next_to_run()
3342 if (!pkt_dev->running) in next_to_run()
3345 best = pkt_dev; in next_to_run()
3346 else if (ktime_compare(pkt_dev->next_tx, best->next_tx) < 0) in next_to_run()
3347 best = pkt_dev; in next_to_run()
3356 struct pktgen_dev *pkt_dev; in pktgen_stop() local
3362 list_for_each_entry_rcu(pkt_dev, &t->if_list, list) { in pktgen_stop()
3363 pktgen_stop_device(pkt_dev); in pktgen_stop()
3420 static void pktgen_resched(struct pktgen_dev *pkt_dev) in pktgen_resched() argument
3424 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(ktime_get(), idle_start)); in pktgen_resched()
3427 static void pktgen_wait_for_skb(struct pktgen_dev *pkt_dev) in pktgen_wait_for_skb() argument
3431 while (refcount_read(&(pkt_dev->skb->users)) != 1) { in pktgen_wait_for_skb()
3436 pktgen_resched(pkt_dev); in pktgen_wait_for_skb()
3440 pkt_dev->idle_acc += ktime_to_ns(ktime_sub(ktime_get(), idle_start)); in pktgen_wait_for_skb()
3443 static void pktgen_xmit(struct pktgen_dev *pkt_dev) in pktgen_xmit() argument
3445 unsigned int burst = READ_ONCE(pkt_dev->burst); in pktgen_xmit()
3446 struct net_device *odev = pkt_dev->odev; in pktgen_xmit()
3453 pktgen_stop_device(pkt_dev); in pktgen_xmit()
3460 if (unlikely(pkt_dev->delay == ULLONG_MAX)) { in pktgen_xmit()
3461 pkt_dev->next_tx = ktime_add_ns(ktime_get(), ULONG_MAX); in pktgen_xmit()
3466 if (!pkt_dev->skb || (pkt_dev->last_ok && in pktgen_xmit()
3467 ++pkt_dev->clone_count >= pkt_dev->clone_skb)) { in pktgen_xmit()
3469 kfree_skb(pkt_dev->skb); in pktgen_xmit()
3471 pkt_dev->skb = fill_packet(odev, pkt_dev); in pktgen_xmit()
3472 if (pkt_dev->skb == NULL) { in pktgen_xmit()
3475 pkt_dev->clone_count--; /* back out increment, OOM */ in pktgen_xmit()
3478 pkt_dev->last_pkt_size = pkt_dev->skb->len; in pktgen_xmit()
3479 pkt_dev->clone_count = 0; /* reset counter */ in pktgen_xmit()
3482 if (pkt_dev->delay && pkt_dev->last_ok) in pktgen_xmit()
3483 spin(pkt_dev, pkt_dev->next_tx); in pktgen_xmit()
3485 if (pkt_dev->xmit_mode == M_NETIF_RECEIVE) { in pktgen_xmit()
3486 skb = pkt_dev->skb; in pktgen_xmit()
3493 pkt_dev->errors++; in pktgen_xmit()
3494 pkt_dev->sofar++; in pktgen_xmit()
3495 pkt_dev->seq_num++; in pktgen_xmit()
3512 } else if (pkt_dev->xmit_mode == M_QUEUE_XMIT) { in pktgen_xmit()
3514 refcount_inc(&pkt_dev->skb->users); in pktgen_xmit()
3516 ret = dev_queue_xmit(pkt_dev->skb); in pktgen_xmit()
3519 pkt_dev->sofar++; in pktgen_xmit()
3520 pkt_dev->seq_num++; in pktgen_xmit()
3521 pkt_dev->tx_bytes += pkt_dev->last_pkt_size; in pktgen_xmit()
3536 pkt_dev->errors++; in pktgen_xmit()
3538 pkt_dev->odevname, ret); in pktgen_xmit()
3544 txq = skb_get_tx_queue(odev, pkt_dev->skb); in pktgen_xmit()
3551 pkt_dev->last_ok = 0; in pktgen_xmit()
3554 refcount_add(burst, &pkt_dev->skb->users); in pktgen_xmit()
3557 ret = netdev_start_xmit(pkt_dev->skb, odev, txq, --burst > 0); in pktgen_xmit()
3561 pkt_dev->last_ok = 1; in pktgen_xmit()
3562 pkt_dev->sofar++; in pktgen_xmit()
3563 pkt_dev->seq_num++; in pktgen_xmit()
3564 pkt_dev->tx_bytes += pkt_dev->last_pkt_size; in pktgen_xmit()
3571 pkt_dev->errors++; in pktgen_xmit()
3575 pkt_dev->odevname, ret); in pktgen_xmit()
3576 pkt_dev->errors++; in pktgen_xmit()
3580 refcount_dec(&(pkt_dev->skb->users)); in pktgen_xmit()
3581 pkt_dev->last_ok = 0; in pktgen_xmit()
3584 WARN_ON(refcount_sub_and_test(burst, &pkt_dev->skb->users)); in pktgen_xmit()
3592 if ((pkt_dev->count != 0) && (pkt_dev->sofar >= pkt_dev->count)) { in pktgen_xmit()
3593 pktgen_wait_for_skb(pkt_dev); in pktgen_xmit()
3596 pktgen_stop_device(pkt_dev); in pktgen_xmit()
3607 struct pktgen_dev *pkt_dev = NULL; in pktgen_thread_worker() local
3620 pkt_dev = next_to_run(t); in pktgen_thread_worker()
3622 if (unlikely(!pkt_dev && t->control == 0)) { in pktgen_thread_worker()
3632 if (likely(pkt_dev)) { in pktgen_thread_worker()
3633 pktgen_xmit(pkt_dev); in pktgen_thread_worker()
3636 pktgen_resched(pkt_dev); in pktgen_thread_worker()
3679 struct pktgen_dev *p, *pkt_dev = NULL; in pktgen_find_dev() local
3689 pkt_dev = p; in pktgen_find_dev()
3694 pr_debug("find_dev(%s) returning %p\n", ifname, pkt_dev); in pktgen_find_dev()
3695 return pkt_dev; in pktgen_find_dev()
3703 struct pktgen_dev *pkt_dev) in add_dev_to_thread() argument
3715 if (pkt_dev->pg_thread) { in add_dev_to_thread()
3721 pkt_dev->running = 0; in add_dev_to_thread()
3722 pkt_dev->pg_thread = t; in add_dev_to_thread()
3723 list_add_rcu(&pkt_dev->list, &t->if_list); in add_dev_to_thread()
3734 struct pktgen_dev *pkt_dev; in pktgen_add_device() local
3740 pkt_dev = __pktgen_NN_threads(t->net, ifname, FIND); in pktgen_add_device()
3741 if (pkt_dev) { in pktgen_add_device()
3746 pkt_dev = kzalloc_node(sizeof(struct pktgen_dev), GFP_KERNEL, node); in pktgen_add_device()
3747 if (!pkt_dev) in pktgen_add_device()
3750 strcpy(pkt_dev->odevname, ifname); in pktgen_add_device()
3751 pkt_dev->flows = vzalloc_node(array_size(MAX_CFLOWS, in pktgen_add_device()
3754 if (pkt_dev->flows == NULL) { in pktgen_add_device()
3755 kfree(pkt_dev); in pktgen_add_device()
3759 pkt_dev->removal_mark = 0; in pktgen_add_device()
3760 pkt_dev->nfrags = 0; in pktgen_add_device()
3761 pkt_dev->delay = pg_delay_d; in pktgen_add_device()
3762 pkt_dev->count = pg_count_d; in pktgen_add_device()
3763 pkt_dev->sofar = 0; in pktgen_add_device()
3764 pkt_dev->udp_src_min = 9; /* sink port */ in pktgen_add_device()
3765 pkt_dev->udp_src_max = 9; in pktgen_add_device()
3766 pkt_dev->udp_dst_min = 9; in pktgen_add_device()
3767 pkt_dev->udp_dst_max = 9; in pktgen_add_device()
3768 pkt_dev->vlan_p = 0; in pktgen_add_device()
3769 pkt_dev->vlan_cfi = 0; in pktgen_add_device()
3770 pkt_dev->vlan_id = 0xffff; in pktgen_add_device()
3771 pkt_dev->svlan_p = 0; in pktgen_add_device()
3772 pkt_dev->svlan_cfi = 0; in pktgen_add_device()
3773 pkt_dev->svlan_id = 0xffff; in pktgen_add_device()
3774 pkt_dev->burst = 1; in pktgen_add_device()
3775 pkt_dev->node = NUMA_NO_NODE; in pktgen_add_device()
3777 err = pktgen_setup_dev(t->net, pkt_dev, ifname); in pktgen_add_device()
3780 if (pkt_dev->odev->priv_flags & IFF_TX_SKB_SHARING) in pktgen_add_device()
3781 pkt_dev->clone_skb = pg_clone_skb_d; in pktgen_add_device()
3783 pkt_dev->entry = proc_create_data(ifname, 0600, t->net->proc_dir, in pktgen_add_device()
3784 &pktgen_if_proc_ops, pkt_dev); in pktgen_add_device()
3785 if (!pkt_dev->entry) { in pktgen_add_device()
3792 pkt_dev->ipsmode = XFRM_MODE_TRANSPORT; in pktgen_add_device()
3793 pkt_dev->ipsproto = IPPROTO_ESP; in pktgen_add_device()
3800 pkt_dev->dstops.family = AF_INET; in pktgen_add_device()
3801 pkt_dev->xdst.u.dst.dev = pkt_dev->odev; in pktgen_add_device()
3802 dst_init_metrics(&pkt_dev->xdst.u.dst, pktgen_dst_metrics, false); in pktgen_add_device()
3803 pkt_dev->xdst.child = &pkt_dev->xdst.u.dst; in pktgen_add_device()
3804 pkt_dev->xdst.u.dst.ops = &pkt_dev->dstops; in pktgen_add_device()
3807 return add_dev_to_thread(t, pkt_dev); in pktgen_add_device()
3809 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_add_device()
3812 free_SAs(pkt_dev); in pktgen_add_device()
3814 vfree(pkt_dev->flows); in pktgen_add_device()
3815 kfree(pkt_dev); in pktgen_add_device()
3876 struct pktgen_dev *pkt_dev) in _rem_dev_from_if_list() argument
3884 if (p == pkt_dev) in _rem_dev_from_if_list()
3891 struct pktgen_dev *pkt_dev) in pktgen_remove_device() argument
3893 pr_debug("remove_device pkt_dev=%p\n", pkt_dev); in pktgen_remove_device()
3895 if (pkt_dev->running) { in pktgen_remove_device()
3897 pktgen_stop_device(pkt_dev); in pktgen_remove_device()
3902 if (pkt_dev->odev) { in pktgen_remove_device()
3903 netdev_put(pkt_dev->odev, &pkt_dev->dev_tracker); in pktgen_remove_device()
3904 pkt_dev->odev = NULL; in pktgen_remove_device()
3910 proc_remove(pkt_dev->entry); in pktgen_remove_device()
3913 _rem_dev_from_if_list(t, pkt_dev); in pktgen_remove_device()
3916 free_SAs(pkt_dev); in pktgen_remove_device()
3918 vfree(pkt_dev->flows); in pktgen_remove_device()
3919 if (pkt_dev->page) in pktgen_remove_device()
3920 put_page(pkt_dev->page); in pktgen_remove_device()
3921 kfree_rcu(pkt_dev, rcu); in pktgen_remove_device()