Score:0

Container killed by oom-killer during docker update

ธง in

I use docker to host several web services. There are mainly composed with Apache/nginx, PHP and a MySQL database.

Currently, I have 38 containers. If I use docker stats, I see a total of ~4GiB (/ 15.63GiB) used.

free command show the following and confirm the ram used by docker containers :

              total        used        free      shared  buff/cache   available
Mem:           15Gi       4,0Gi       226Mi       447Mi        11Gi        10Gi
Swap:         7,8Gi       622Mi       7,2Gi

During the last maintenance, I noticed an available update from 20.10.6 to 20.10.7 and updated. After the update, ~50% of the containers do not restart with error Exited 137 oom-kill. The containers have the "unless-stopped" restart policy.

During the update the ram available was Ok and clearly show when containers were killed :

RAM space available

In a similar situation (stop/start docker), a reboot, the issue is not present.

I would like to know why these containers were killed with oom-killer ? Should I take care of "free" RAM instead of "available" RAM ? How can I avoid this situation in the future ?

Ginnungagap avatar
gu flag
ดูที่การใช้ RAM ของคุณเมื่อคอนเทนเนอร์เริ่มทำงาน บริการค่อนข้างน้อยอาจประสบปัญหาหน่วยความจำล้นระหว่างการเริ่มต้น ดังนั้นการรีเซ็ตคอนเทนเนอร์ทั้งหมดในคราวเดียวอาจอธิบายถึง OOMs ได้

โพสต์คำตอบ

คนส่วนใหญ่ไม่เข้าใจว่าการถามคำถามมากมายจะปลดล็อกการเรียนรู้และปรับปรุงความสัมพันธ์ระหว่างบุคคล ตัวอย่างเช่น ในการศึกษาของ Alison แม้ว่าผู้คนจะจำได้อย่างแม่นยำว่ามีคำถามกี่ข้อที่ถูกถามในการสนทนา แต่พวกเขาไม่เข้าใจความเชื่อมโยงระหว่างคำถามและความชอบ จากการศึกษาทั้ง 4 เรื่องที่ผู้เข้าร่วมมีส่วนร่วมในการสนทนาด้วยตนเองหรืออ่านบันทึกการสนทนาของผู้อื่น ผู้คนมักไม่ตระหนักว่าการถามคำถามจะมีอิทธิพลหรือมีอิทธิพลต่อระดับมิตรภาพระหว่างผู้สนทนา