Score:0

AWS S3 links return 403 when application is run using Docker Swarm, but works fine when run with Docker Compose

ธง jp

I have a Django application on EC2 (ubuntu) instance using S3 for static & media files, which is set up currently using Docker Compose. I'm trying to convert it to use Docker Swarm, but in doing so all my S3 links are returning 403 status.

Error message: Failed to load resource: the server responded with a status of 403 (Forbidden)

If I run the same using docker-compose, all the static files are loaded properly. The only thing that I noticed is that the IP address of all the containers are different when run on swarm and compose. Although I'm not sure if this has anything to do with the issue.

Is there anything extra that I need to take care of for S3 to work in Docker Swarm?

djdomi avatar
za flag
คุณตอบตัวเองแล้ว - เปลี่ยน IP _*หรือ*_ อนุญาตการเข้าถึง

โพสต์คำตอบ

คนส่วนใหญ่ไม่เข้าใจว่าการถามคำถามมากมายจะปลดล็อกการเรียนรู้และปรับปรุงความสัมพันธ์ระหว่างบุคคล ตัวอย่างเช่น ในการศึกษาของ Alison แม้ว่าผู้คนจะจำได้อย่างแม่นยำว่ามีคำถามกี่ข้อที่ถูกถามในการสนทนา แต่พวกเขาไม่เข้าใจความเชื่อมโยงระหว่างคำถามและความชอบ จากการศึกษาทั้ง 4 เรื่องที่ผู้เข้าร่วมมีส่วนร่วมในการสนทนาด้วยตนเองหรืออ่านบันทึกการสนทนาของผู้อื่น ผู้คนมักไม่ตระหนักว่าการถามคำถามจะมีอิทธิพลหรือมีอิทธิพลต่อระดับมิตรภาพระหว่างผู้สนทนา