Score:5

เหตุใดระบบพิสูจน์อักษรแบบ Lattice จึงไม่ใช้บรรทัดฐาน $\ell_2$ และการฝังแบบบัญญัติ

ธง ng

ฉันเพิ่งอ่านกระดาษ แนวทางที่ไม่ใช่ PCP เพื่อรวบรัดความรู้เป็นศูนย์ที่ปลอดภัยด้วยควอนตัม. เหนือสิ่งอื่นใด มันกล่าวถึงการดัดแปลงเทคนิค "การพับ" (จาก Bulletproofs) ไปสู่การพิสูจน์ตาม SIS

กระดาษวัดระยะทางใน $\ell_\infty$ บรรทัดฐาน (มากกว่า $\ell_2$) และไม่ชัดเจนว่าจะใช้ตัวเลือกใดในการฝัง (แม้ว่าฉันคิดว่ามันเป็นค่าสัมประสิทธิ์การฝัง) ตัวเลือกเหล่านี้หมายความว่าพวกเขาเลือกปัจจัยพิเศษของ $n$ เมื่ออยู่ในขอบเขตบรรทัดฐานของการคูณโดยเฉพาะ

ตัวอย่างเช่น ถึงจุดหนึ่ง (ในหน้า 20) พวกเขาต้องการสร้างขอบเขต

$$\lVert 8\lambda_i\rVert_\infty \leq 2n^2$$

ที่ไหน $\แลมบ์ดา_i$ เป็นรูปแบบ $$\lambda_i = \pm\frac{f}{(X^u-X^v)(X^v-X^w)(X^w-X^u)},$$ $\lVert f\rVert_1 \leq 2$และเป็นที่รู้จักกันว่า $2/(X^i-X^j)$ มีค่าสัมประสิทธิ์เป็น $\{-1,0,1\}$ สำหรับ $i\neq j$. ฉันสามารถสร้างขอบเขตที่ต้องการได้ดังนี้

  1. เขียน $$8\lambda_i = \pm f \frac{2}{X^u-X^v}\frac{2}{X^v-X^w}\frac{2}{X^w-X^u}$$

  2. สำหรับการคูณแต่ละครั้ง ให้ใช้ผลลัพธ์ของรูปแบบที่ $\lVert rs\rVert_\infty \leq \lVert r\rVert_\infty\lVert s\rVert_\infty \min(\lVert r\rVert_0,\lVert s\rVert_0)$. โดยเฉพาะอย่างยิ่งสำหรับผลิตภัณฑ์และ $r, s$ ไม่เบาบางเรามีสิ่งนั้น $\min(\lVert r\rVert_0,\lVert s\rVert_0) \leq n$, สูญเสียเราปัจจัยของ $n$ ในการคูณแต่ละครั้ง (ไม่เกี่ยวกับ $f$) และตัวประกอบของ 2 ในการคูณที่เกี่ยวข้อง $f$.

ความไม่เท่าเทียมกัน $\lVert rs\rVert_\infty \leq \lVert r\rVert_\infty \lVert s\rVert_\infty \min(\lVert r\rVert_0,\lVert s\rVert_0)$ (หรือบางอย่างที่ใกล้เคียงมาก --- อาจขาดปัจจัยคงที่ของ 2) ควรถือเป็นแต่ละค่าสัมประสิทธิ์ในผลคูณ $r$ คือการบิดของสัมประสิทธิ์ของ $r$ และ $s$. การโน้มน้าวใจนี้มี $\min(\lVert r\rVert_0, \lVert s\rVert_0)$ เงื่อนไขที่ไม่ใช่ศูนย์จำนวนมาก และผลบวกที่ไม่ใช่ศูนย์เหล่านี้แต่ละรายการมีขนาดมากที่สุด $\lVert r\rVert_\infty \lVert s\rVert_\infty$.

โดยเฉพาะอย่างยิ่งหมายความว่าเมื่อทำการวิเคราะห์ $\lVert rs\rVert_\infty$, พวกเขามัก (โดยปริยาย) ผูกพันสิ่งนี้ว่า $\lVert rs\rVert_\infty \leq n\lVert r\rVert_\infty\lVert s\rVert_\infty$หยิบปัจจัยเพิ่มเติมของ $n$ สำหรับการคูณแต่ละครั้ง (ยกเว้นการคูณด้วย $f$ซึ่งเบาบาง).

ซึ่งจะตรงกันข้ามกับการวิเคราะห์ในการฝังแบบบัญญัติ (และ $\ell_2$-norm) โดยที่การคูณย่อยจะได้สิ่งนั้น

$$\lVert 8\lambda_i\rVert_2^{can} \leq \lVert f\rVert_2^{can}(\lVert 2/(X^i-X^j)\rVert_2^{can})^3$$

หยิบไม่มีปัจจัยพิเศษของ $n$ ระหว่างทาง (แม้ว่าฉันเชื่อว่า $\lVert r\rVert_2^{can} = \sqrt{n}\lVert r\rVert_2$ดังนั้นอาจมีปัจจัยโดยนัยบางประการของ $n$ หยิบขึ้น).

ฉันเดาว่าคำถามโดยรวมของฉันคือ

มีเหตุผลเชิงแนวคิดบางประการหรือไม่ว่าทำไมการฝังตามรูปแบบบัญญัติจึงเป็นที่นิยมน้อยกว่าในการทำงานกับระบบพิสูจน์แบบขัดแตะ

ฉันเคยรู้สึกว่าเมื่อมีคนต้องการเพิ่มประสิทธิภาพขอบเขต (โดยเฉพาะขอบเขตที่เกี่ยวข้องกับการคูณ!) โดยทั่วไปแล้วการฝังตามรูปแบบบัญญัติจะดีกว่าเนื่องจากการคูณย่อย แต่ในการอ่านคร่าว ๆ ของฉัน การฝังค่าสัมประสิทธิ์ดูเหมือนจะเป็นที่นิยมมากกว่าในงานเกี่ยวกับระบบพิสูจน์อักษร และฉันสนใจที่จะรู้ว่าทำไม

โพสต์คำตอบ

คนส่วนใหญ่ไม่เข้าใจว่าการถามคำถามมากมายจะปลดล็อกการเรียนรู้และปรับปรุงความสัมพันธ์ระหว่างบุคคล ตัวอย่างเช่น ในการศึกษาของ Alison แม้ว่าผู้คนจะจำได้อย่างแม่นยำว่ามีคำถามกี่ข้อที่ถูกถามในการสนทนา แต่พวกเขาไม่เข้าใจความเชื่อมโยงระหว่างคำถามและความชอบ จากการศึกษาทั้ง 4 เรื่องที่ผู้เข้าร่วมมีส่วนร่วมในการสนทนาด้วยตนเองหรืออ่านบันทึกการสนทนาของผู้อื่น ผู้คนมักไม่ตระหนักว่าการถามคำถามจะมีอิทธิพลหรือมีอิทธิพลต่อระดับมิตรภาพระหว่างผู้สนทนา