Score:1

ksoftirqd สูงสุดสำหรับอินเทอร์เฟซเครือข่าย

ธง ru

เรามีเซิร์ฟเวอร์ Debian ที่มีหนึ่งลิงก์ไปยัง VLAN ภายใน และอีกหนึ่งลิงก์ไปยังภายนอก - ทั้งคู่เชื่อมต่อโดยตรงกับสวิตช์เดียวกัน

ในทั้งสองลิงก์ เราเห็นเหตุการณ์การรับที่ไม่ดีในปริมาณสูงผิดปกติเป็นระยะๆ รวมถึงเวลาแฝงที่สูงด้วย

ตารางส่วนต่อประสานเคอร์เนล
Iface MTU กับ RX-OK RX-ERR RX-DRP RX-OVR TX-OK TX-ERR TX-DRP TX-OVR Flg
ethA 1500 0 884347583 0 49965509 49965509 1697514631 0 0 0 BMRU
ethB 1500 0 1611102819 0 77615811 77615811 819321274 0 0 0 BMRU

นอกจากนี้ เรายังเห็นกระบวนการ ksoftirqd สำหรับทั้งสองอินเทอร์เฟซสูงสุดที่ 90+% เกือบตลอดเวลา แม้ว่าสิ่งต่างๆ ควรจะเงียบลงอย่างเห็นได้ชัด

44 ราก 20 0 0 0 0 R 98.8 0.0 2557:46 ksoftirqd/3
51 ราก 20 0 0 0 0 R 85.6 0.0 2722:33 ksoftirqd/5

ตามที่ฉันเข้าใจ นี่หมายถึงเซิร์ฟเวอร์กำลังใช้ CPU ที่กำหนดจนเต็มเพื่อประมวลผลแพ็กเก็ตทั้งหมดที่เข้ามาในอินเทอร์เฟซนี้ แต่แม้ในขณะที่เราเห็น ~50Mbps เข้ามา (และเซิร์ฟเวอร์เดียวกันกำลังจัดการ >800Mbps) กระบวนการเหล่านี้สามารถขยายได้สูงสุดและ RX-DRP พุ่งสูงขึ้น irqbalance กำลังทำงาน และ /proc/interrupts ยืนยันว่า CPU เหล่านี้ไม่ยุ่งกับการจัดการสิ่งอื่นใด

มีสาเหตุที่เป็นไปได้ที่ชัดเจนสำหรับสิ่งนี้หรือไม่?

การกำหนด CPU หลายตัว (ผ่าน smp_affinity) เพื่อจัดการการขัดจังหวะสำหรับอินเทอร์เฟซเหล่านั้นอาจช่วยได้หรือไม่ ฉันไม่สามารถหาตัวอย่างเดียวของใครบางคนที่กำหนด CPU หลายตัวให้กับอินเทอร์เฟซเครือข่ายเดียวได้ ดังนั้นมันจึงดูแหวกแนวที่สุด แย่ที่สุดก็คุ้มกับการทำลายระบบ

สิ่งนี้ทำให้เกิดปัญหาในการผลิตมาระยะหนึ่งแล้ว ดังนั้นฉันยินดีที่จะยอมรับวิธีแก้ปัญหาที่อาจเกิดขึ้น

โพสต์คำตอบ

คนส่วนใหญ่ไม่เข้าใจว่าการถามคำถามมากมายจะปลดล็อกการเรียนรู้และปรับปรุงความสัมพันธ์ระหว่างบุคคล ตัวอย่างเช่น ในการศึกษาของ Alison แม้ว่าผู้คนจะจำได้อย่างแม่นยำว่ามีคำถามกี่ข้อที่ถูกถามในการสนทนา แต่พวกเขาไม่เข้าใจความเชื่อมโยงระหว่างคำถามและความชอบ จากการศึกษาทั้ง 4 เรื่องที่ผู้เข้าร่วมมีส่วนร่วมในการสนทนาด้วยตนเองหรืออ่านบันทึกการสนทนาของผู้อื่น ผู้คนมักไม่ตระหนักว่าการถามคำถามจะมีอิทธิพลหรือมีอิทธิพลต่อระดับมิตรภาพระหว่างผู้สนทนา