- 2001年に量子コンピュータで15を素因数分解して以降、進展がないように見える現象の説明
- 21を素因数分解する回路には、15を素因数分解するときより100倍多いエンタングリングゲートが必要
- この差は、条件付きモジュラー乗算の複雑さと、15にだけ適用できる特別な最適化によるもの
- 量子誤り訂正とハードウェアの限界も、21の素因数分解までの障壁をさらに高くしている
- これまでに報告された21の素因数分解の多くは、真の意味での乗算を実行せずにトリックを使ったもの
なぜ量子コンピュータはいまだに21を素因数分解できていないのか
15の素因数分解の後に21の素因数分解が登場していない理由
- 2001年に量子コンピュータで15を素因数分解した実験があった
- 2025年になっても、まだ21の素因数分解の成功例はない
- この点を根拠に、量子コンピュータにはまったく進展がないという認識が広がっている
- しかし実際には、15と21の素因数分解回路を比べると、はるかに驚くべき理由がある
15の素因数分解回路と21の素因数分解回路の構造的な違い
- 15の素因数分解回路は、**量子ゲート21個(エンタングリングゲート21個)**だけで実装できる
- 6個の2量子ビットエンタングリングゲート(CNOTおよびCPHASEゲート)と
- 2個のToffoliゲート(それぞれ6個のエンタングリングゲートに分解)、合計21個のエンタングリングゲートで構成される
- 21の素因数分解回路には、191個のCNOT、369個のToffoli、合計2405個のエンタングリングゲートが必要
- 15を素因数分解するときより115倍多いエンタングリングゲートの負担が発生
- 回路規模は単に25%や2倍増えるのではなく、100倍以上高コストになる
- 回路最適化の水準を考慮しても、500倍の差が現実的にあり得るように見える
なぜこれほど大きな差が生じるのか
- 量子素因数分解回路(Shorのアルゴリズム)では、支配的なコストは条件付きモジュラー乗算にある
- nビットの数Nに対して、複数回にわたり条件付きでアキュムレータにモジュラー乗算を実行する必要がある
- このとき15の場合、8回の条件付き乗算のうち6回は、**1の乗算(何もしない)**として処理できる
- 最初の乗算は入力が1なので、ほぼ無料で実装できる
- 2回目(残る1回)も、2回のCSWAPで安価に処理できる
- その結果、実際にコストを払う必要があるのは2回だけ
- この構造は15にだけ当てはまる特殊な性質で、1に近い乗算が多数あるため負担が著しく小さい
- しかし21の場合は乗算がどれも1ではなく値も多様なので、すべての乗算にコストがかかる
- 8回の乗算すべてにコストが発生し、単純に4〜5倍ではなく20〜100倍に増える
- 4倍や16倍のような乗算は、CSWAP(条件付きスワップ)で実装できる構造ではない
- 乗算の複雑さはそれぞれ異なり、最適化も容易ではない
ハードウェアおよび誤り訂正の現実的な限界
- 過去(2001年)の15の素因数分解は、NMR量子コンピュータで実装され、スケール拡張に多くの限界があった
- さらに、量子誤り訂正の必要性も大きくなる
- ゲート数が100倍増えるなら、エラー率は100倍低くなければならない
- 実際にはqubit数も100倍増やす必要がある可能性があり、全体コストは10,000倍まで上昇し得る
素因数分解の試みをめぐる論争と誤った結果
- 最近のいくつかの論文では、量子コンピュータで21の素因数分解に成功したと主張しているが
- 実際にはアルゴリズムの乗算実行を省略したり、結果をあらかじめ知ったうえで回路を単純化したケースが多い
- 本物の乗算演算を行っていない以上、それを素因数分解と見なすことはできない
- 単なる「周期探索」と素因数分解の本質的な違いを無視した結果である
- 一部の論文は露骨にトリックを使っており、その研究を風刺する論文まで出ている
- 素因数分解チャンピオン記録の再現実験など、複数の風刺論文が存在する
- Variational factoring など、スケール拡張の根拠がないベンチマークばかりが繰り返し登場している
量子コンピュータの正しい進展指標は何か
- 現時点では、素因数分解は量子コンピュータ進展の主要ベンチマークではない
- 15を超えるとコストが急増し、実用的な検証が難しくなる
- むしろ、**量子誤り訂正の導入(例: surface codeの改善)**や
- **スケーリング問題を解決するハードウェアアーキテクチャの変化(例: 中性原子の継続的な入れ替えなど)**が
- 実質的な進展を示す、より重要な観測点である
1件のコメント
Hacker Newsの意見
これまで実際には、これより小さい数を因数分解したことすらなかったことに起因している。もしプログラムのコンパイル過程がすでに答えを知っていなければ動かない形なら、それは本当の因数分解ではなく、単に「3を出力」しているだけだと思う
実際に暗号学的に意味のある数を因数分解するには、どれだけの quantum gate が必要なのか気になる。今世紀中に実用的な量子コンピュータが出てくる現実的な道筋があるのかも知りたい
'Replication of Quantum Factorisation Records with an 8-bit Home Computer, an Abacus, and a Dog' という論文が興味深い(論文を読む)
RSA1024 のような暗号学的に意味のある数の因数分解回路の規模と実現可能性に関心がある
いつか量子コンピュータが post-quantum RSA を狙えるようになるのか気になる(関連論文)。通常の RSA 演算(鍵生成、暗号化、復号)は Shor アルゴリズムに対して非対称に有利なので、十分に大きな鍵さえ使えばよいという見方もある。これは Merkle パズルに似た効果で、攻撃者は必ず量子コンピュータで攻撃しなければならないという条件が追加される。以前、ギガビットRSA公開鍵を作ってみたことがある(鍵ファイル)。フォーマットは、4バイト little-endian の鍵バイト数、続いて鍵、そのあと鍵の逆数(256^bytes で mod)。公開指数は 3 である
「error corection」という誤字を見て、ちょっと面白かった
「因数分解-15と比べて500倍の回路コスト」の部分が理解しづらい。著者はすでに115倍の例を出しているのに、追加の最適化がどうしてさらに悪い結果をもたらすのか気になる
この投稿の要点は、Schorr の因数分解に必要な Big-O の回路量が超多項式だと示唆しているのか疑問だ
PQ(ポスト量子)暗号技術が導入される理由は、必ずしも QC がすぐに登場すると確信しているからではない。技術開発の速度次第で、QC がいつ現れるかは不確実だ。暗号技術の目標は、理論的にもほとんど破れない方法を見つけることであり、理論的に攻撃可能なら物理的にも可能性があるので必ず備える。ECC や RSA には理論上の経路が確認されており、実在する装置がなくても攻撃可能と見なされる。したがって、QC がないうちから備えておくのは十分に合理的な見通しだ。一方、SHA2、AES、ChaCha などには現実的な攻撃経路が見えていないので、今すぐの置き換え計画はない。暗号化は QC の唯一、あるいは最重要の応用先ではない。物理系、タンパク質フォールディング、機械学習など、さまざまな分野でまだ未知の革新が出てくるだろうという期待がある