Score:2

ตัวอย่างพื้นฐานที่ไม่ดีสำหรับแลตทิซ (กรณีที่แย่ที่สุดสำหรับ LLL)

ธง es

สรุป. ให้มิติบางอย่าง $n$ (พูด $n=50$) เป็นไปได้ไหมที่จะอธิบายโครงตาข่ายอย่างชัดเจน $L$ และเป็นพื้นฐาน $B$ ของ $L$ ดังนั้น $$ \frac{ \| LLL(B)_1 \| }{ \lambda_1(L) } > 1.02^n $$ ที่ไหน $LLL(B)_1$ เป็นเวกเตอร์ตัวแรกของฐานที่ลด LLL ของ $B$ (สำหรับ $\delta=1$ พูด)? ค่าคงที่ 1.02 คือค่าที่กำหนดใน "ค่าเฉลี่ย LLL" โดย NguyenâStehlé หรืออย่างน้อยที่สุด ฉันจะสร้าง (เชิงกำหนด) พื้นฐานดังกล่าวได้อย่างไร $B$?


ฉันกำลังพยายามทำความเข้าใจวิธีสร้างโครงตาข่าย $L \subset \mathbb R^n$ และเป็น "พื้นฐานที่ไม่ดี" สำหรับ $L$พูดในมิติใดก็ตาม $n=50$. โดย "พื้นฐานไม่ดี" $(b_1, ..., b_n)$ฉันหมายความว่าเมื่อเราใช้อัลกอริทึม LLL กับมัน (พูดสำหรับ $\เดลต้า = 1$) จากนั้นเราจะได้รับพื้นฐาน $(v_1, ..., v_n)$ ดังนั้น $\|ข v_1 \|$ คือ "เท่าที่เป็นไปได้" จาก $\lambda_1(L)$. ขอบเขตบน $\| v_1 \| \leq (\delta - 1/4)^{-(n-1)/2} \lambda_1(L)$ มักจะไม่คมเรามักจะมี $\| v_1 \| \leq 1.02^n \lambda_1(L)$.

ฉันสนใจใน ชัดเจน ตัวอย่างที่สามารถอธิบายถึง $b_i$ได้อย่างง่ายดาย (หรือกำหนดอย่างชัดเจนว่าเมทริกซ์แบบโมดูลาร์ $U$ นั่นจะทำให้พื้นฐานไม่ดี $B$ จาก "พื้นฐานที่ดี" $G$ซึ่งสามารถใช้คำนวณได้ $\lambda_1(L)$). ฉันเคยเห็นว่าบางครั้งสามารถใช้ $B = HNF(G)$แต่อาจไม่ได้ผลเสมอไปเพื่อให้ได้ข้อมูลพื้นฐานที่ไม่ดี ดังนั้นจึงไม่ชัดเจน (หรือชัดเจนมากสำหรับฉัน...)

Watson avatar
es flag
ใน Nguyen, Stehlé - LLL โดยเฉลี่ย พวกเขากล่าวว่า "เป็นการง่ายที่จะพิสูจน์ว่าขอบเขตเหล่านี้แน่นแฟ้นในกรณีที่เลวร้ายที่สุด: ทั้งสองเข้าถึงได้สำหรับพื้นฐานที่ลดลงของโปรเจ็กต์เฉพาะบางรายการ" โดยพื้นฐานแล้วคำถามของฉันคือฉันต้องการทราบอย่างแม่นยำ (แน่นอน, ชัดเจน) ว่าตาข่ายเหล่านั้นคืออะไร
Score:3
ธง es

ในที่สุดฉันก็พบคำตอบ! มีการอธิบายไว้ในวิทยานิพนธ์ของ N. Gama (หน้า 36) ที่นี่. ฉันคัดลอกเมทริกซ์ที่มีแถวเป็นฐาน $B$ ของโครงตาข่ายซึ่งเป็นขอบเขตบน $$\| LLL(B)_1 \| \leq (4/3)^{(n-2)/2} \lambda_1(L)$$ แน่นจริง (คม) สำหรับทุกคน $n$. (สังเกตเลขยกกำลัง $n-2$ และไม่ $n-1$).

พื้นฐาน

ที่ไหน $\gamma_2 = \sqrt{ 4/3 }$ คือค่าคงที่ของเฮอร์ไมต์ในมิติที่ 2 โปรดทราบว่าเมทริกซ์สามเหลี่ยมทางด้านขวาคือเมทริกซ์ของสัมประสิทธิ์แกรม-ชมิดต์ รายการนอกแนวทแยงทั้งหมด $1/2$ ซึ่งเป็นค่าสูงสุดที่อนุญาตในคำจำกัดความของ LLL-reduced Basis

Score:2
ธง ng

ฉันเคยเห็นว่าบางครั้งสามารถใช้ $B=HNF(G)$แต่อาจไม่ได้ผลเสมอไปเพื่อให้ได้ข้อมูลพื้นฐานที่ไม่ดี ดังนั้นจึงไม่ชัดเจน (หรือชัดเจนมากสำหรับฉัน...)

อนุญาต $\mu : \mathbb{R}^{n\times n}\to \mathbb{R}_{\geq 0}$ เป็นตัววัดคุณภาพของพื้นฐาน ตัวอย่างเช่นอาจมี $\mu(B) = \lVert LLL(B)_1\rVert$ เป็นบรรทัดฐานของพิกัดแรกของการลด LLL ของ $B$ (ตามที่คุณแนะนำ) แต่ยังมีการวัดคุณภาพอื่น ๆ อีกมากมายที่เป็นไปได้

ประเด็นของการใช้ HNF ไม่ใช่ว่ามันนำไปสู่พื้นฐานที่ "แย่ที่สุด" ในเชิงนามธรรม (สำหรับการวัดคุณภาพส่วนใหญ่ การคูณด้วยเมทริกซ์ยูนิโมดูลาร์แบบสุ่มของบรรทัดฐานตัวดำเนินการสูงอาจนำไปสู่พื้นฐานคุณภาพต่ำมาก) แต่ ว่ามันเลวร้ายที่สุด ที่ศัตรูจะใช้อย่างมีเหตุผล. นี่เป็นเพราะผลลัพธ์ง่ายๆดังต่อไปนี้

อนุญาต $\mu$ สามารถคำนวณได้อย่างมีประสิทธิภาพ อนุญาต $A$ เป็นศัตรูที่มีประสิทธิภาพในการป้อนข้อมูล $B$, คำนวณบางอย่าง $U$ ดังนั้น $\mu(BU) \leq ฉ(B)$ สำหรับฟังก์ชันขอบเขตบางอย่าง $f$. จากนั้นมีศัตรูที่มีประสิทธิภาพ $A'$ ที่คำนวณ $U$ ดังนั้น $\mu(BU) \leq \min(f(B), f(HNF(B))$.

โดยเฉพาะอย่างยิ่ง $HNF(B)$ เป็นค่าคงที่ของ ตาข่ายและไม่ใช่พื้นฐานเฉพาะที่ใช้ ดังนั้น ผลลัพธ์ข้างต้นจึงบอกว่าคุณภาพพื้นฐานที่แย่ที่สุดที่ศัตรูสามารถหาได้คือมากที่สุด $f(HNF(B))$ดังนั้นการให้ฝ่ายตรงข้ามใช้พื้นฐานที่ไม่ใช่ HNF อาจนำไปสู่การคำนวณ a ดีกว่า พื้นฐานคุณภาพมากกว่าที่พวกเขาจะมีด้วยพื้นฐาน HNF

ศัตรู $A'$ อธิบายได้ง่าย มันก็ทำงาน $A$ บน $B$ และ $HNF(B)$และส่งกลับค่าพื้นฐานที่ (ของทั้งสองค่านี้) ลดการวัดคุณภาพให้เหลือน้อยที่สุด สิ่งนี้ต้องการให้การวัดคุณภาพสามารถคำนวณได้อย่างมีประสิทธิภาพ แต่ในกรณีส่วนใหญ่นี่เป็นความจริง


แก้ไข: ในการตอบสนองต่อคำชี้แจงของคุณในความคิดเห็น ฉันจะชี้ให้คุณเห็นคำตอบบางส่วน ซึ่งก็คือ "โดยหลักการแล้วใช่ แต่ฉันไม่มีเมทริกซ์ที่ชัดเจนอยู่ในมือ" ต่อไปนี้มาจากบทที่ 3 ของ วิทยานิพนธ์ของซึงกิคิม.

ทฤษฎีบท 3.4 อนุญาต $n$ มีขนาดใหญ่เพียงพอ $p\in (0,100)$และสมมุติว่า $k < \frac{n}{6(\log n + K(p))}$ เป็นจำนวนเต็มบวก โดยที่ $K(p)$ เป็นค่าคงที่ขึ้นอยู่กับ $p$. อย่างน้อยที่สุดแล้ว $p\%$ ของ $n$มิติ $(1, 1/2)$-LLL มีฐาน

$$\forall 1\leq i \leq n-1 : \frac{k-1}{k}\frac{1}{2}\leq |\mu_{i+1,i}|\leq \frac{ 1}{2}.$$

ที่นี่ "ส่วนใหญ่" ต้องการการดูแลด้านเทคนิคเพื่อให้ถูกต้อง (ดูรายละเอียดในวิทยานิพนธ์ของคิม) คิมกล่าวต่อไปว่าวิธีการอภิปรายผลลัพธ์นี้ขัดกับสัญชาตญาณ ในแง่ที่ว่ามันบอกเป็นนัยว่าสำหรับ "ฐาน LLL ส่วนใหญ่ $B$", $\lVert LLL(B)_1\rVert \ประมาณ (4/3)^{n/4}\ประมาณ (1.0745)^n$กรณีที่เลวร้ายที่สุดสำหรับ LLL แต่มันคือ อีกด้วย เป็นที่ทราบกันดีว่าสำหรับการกระจายส่วนใหญ่บนฐานขัดแตะ $B$, $\lVert LLL(B)_1\rVert \ประมาณ 1.02^n$ --- สิ่งที่ช่วยให้?

ข้ออ้างที่ว่า $LL$ เป็นอย่างใด ลำเอียงในแง่ที่ว่ามันไม่ ไม่ ขนส่งการกระจายดังกล่าวข้างต้นบนฐานขัดแตะไปยังการกระจายแบบสม่ำเสมอบนฐาน LLL

ดังนั้น เพื่อค้นหาฐาน LLL ที่ไม่ดี จึงควร (โดยตรง) ตัวอย่างเมทริกซ์ที่ตรงตามเงื่อนไข LLL (แทนที่จะพยายามใช้ LLL เพื่อคำนวณฐานในการทดลอง) ฉันไม่ได้คิดว่าวิธีธรรมชาติในการทำเช่นนี้ (ทีละเวกเตอร์, สุ่มอย่างสม่ำเสมอจากชุดที่เหมาะสม, เงื่อนไขในการรักษาเงื่อนไข LLL) จะให้ผลลัพธ์ที่ต้องการ อาจมีวิธีที่ชาญฉลาดกว่าในการสุ่มตัวอย่างพื้นฐาน LLL อย่างสม่ำเสมอ (ซึ่งตามผลลัพธ์ของคิมแล้ว น่าจะเป็นพื้นฐานที่ไม่ดี) แต่ในแง่ของวิทยานิพนธ์ของ Kim เป็นสิ่งที่สมเหตุสมผลที่จะพยายามทำ

เป็นมูลค่าการกล่าวขวัญว่าผลลัพธ์ของคิมคือ (อย่างน้อย) ผลการดำรงอยู่ เหตุผลที่ LLL ทำงานได้ดีโดยเฉลี่ยคือขอบเขตกรณีที่เลวร้ายที่สุดนั้นหลวม งานของ Kim แสดงให้เห็นว่าสิ่งนี้ไม่เป็นความจริง

Watson avatar
es flag
ขอบคุณสำหรับการป้อนข้อมูล แต่ฉันต้องการบางสิ่งที่ชัดเจนกว่านี้ และการวัดคุณภาพของฉันจะค่อนข้าง $$ \mu(B) := \frac{ \| LLL(B)_1 \| }{ \lambda_1(L) } . $$ เป็นไปได้ไหมที่จะค้นหาพื้นฐานอย่างชัดเจน $B$ (ในอันดับ $n=50$ พูด) เช่น $\mu(B) > 1.02^n$ ?
Mark avatar
ng flag
@Watson ฉันได้อัปเดตคำตอบแล้ว ตามหลักการแล้ว คำตอบคือใช่ โดยการสุ่มตัวอย่างฐาน LLL แบบสุ่มอย่างสม่ำเสมอ แต่ฉันไม่รู้ว่าต้องทำอย่างไร
Watson avatar
es flag
ขอบคุณสำหรับการอัพเดท; ฉันไม่รู้เกี่ยวกับวิทยานิพนธ์ของคิม ฉันพบคำตอบจริงๆ ไม่ชัดเจน (ในขณะที่การอ้างอิงจำนวนมากระบุว่าขอบเขตบนของ LLL นั้นคมชัด ... โดยไม่มีคำอธิบาย!)

โพสต์คำตอบ

คนส่วนใหญ่ไม่เข้าใจว่าการถามคำถามมากมายจะปลดล็อกการเรียนรู้และปรับปรุงความสัมพันธ์ระหว่างบุคคล ตัวอย่างเช่น ในการศึกษาของ Alison แม้ว่าผู้คนจะจำได้อย่างแม่นยำว่ามีคำถามกี่ข้อที่ถูกถามในการสนทนา แต่พวกเขาไม่เข้าใจความเชื่อมโยงระหว่างคำถามและความชอบ จากการศึกษาทั้ง 4 เรื่องที่ผู้เข้าร่วมมีส่วนร่วมในการสนทนาด้วยตนเองหรืออ่านบันทึกการสนทนาของผู้อื่น ผู้คนมักไม่ตระหนักว่าการถามคำถามจะมีอิทธิพลหรือมีอิทธิพลต่อระดับมิตรภาพระหว่างผู้สนทนา