測定忠実度とは、量子ビットが収縮した後にその状態(0か1)をどれだけ正確に読み取れるかを示す指標。忠実度が高い=読み出しエラーが少ない=より信頼性の高い量子計算。
すごく速く回っている特別なコインがあるとしよう。回っている間は、表と裏が同時にあるような状態。
懐中電灯を当ててコインを見ると、回転が止まって表か裏のどちらかになる。
でも問題がある:懐中電灯が完璧に動かないことがあるんだ。少しぼやけて見えて、本当は裏なのに表に見えたりする。
測定忠実度は「懐中電灯がどれくらい正しい答えを見せてくれるか」を聞いている。
99%正確な懐中電灯なら、100回中99回は正解。すごく良い!90%だと、100回中10回間違える。あまり良くないね。
量子ビット(キュービット)は通常のビットの量子版。普通のビットは0か1のどちらか。量子ビットは測定するまで「重ね合わせ」状態—0と1が同時に存在するような状態—でいられる。
量子ビットを測定すると、0か1に「収縮」する。測定忠実度は「0の状態を準備して測定したら、何回0と読めるか」を問う。
なぜ重要か:量子コンピュータは多くの操作を実行する必要がある。測定が90%の精度しかなければ、エラーはすぐに積み重なる。10回測定すれば、少なくとも1回は間違える確率が高い。
最新の量子コンピュータは99%以上の測定忠実度を目指している。イオントラップ型などは99.9%以上を達成。
測定忠実度は正式には「準備された状態を正しく識別する平均確率」として定義される:
ここでP(0|0)は量子ビットが|0⟩に準備されていた時に0を測定する確率。
測定の実際の仕組み:
超伝導量子ビットでは、測定は通常「分散的」—量子ビットが共振器に結合され、量子ビットが|0⟩か|1⟩かで共振器の周波数がシフトする。マイクロ波パルスを送り、反射信号を測定する。
イオントラップでは蛍光を使う—レーザーを当て、一方の状態では光り、他方では暗いまま。
エラー源:
割り当て vs. 識別忠実度:「割り当て忠実度」は生の測定精度。「識別忠実度」は既知の状態準備エラーを考慮したもの。
分散読み出しの仕組み:
量子ビット-共振器系はJaynes-Cummingsハミルトニアンで記述される。分散極限(量子ビット-共振器離調 >> 結合)では、共振器は量子ビット状態依存の位相シフトを獲得する:
ここでgは結合強度、Δは離調。χが大きいほど識別が容易だが、Purcell緩和も増加する。
測定SNR問題:
光子数を増やすとSNRは向上するが、非線形効果(ACスタークシフト、測定誘起遷移)を引き起こす。積分時間はT1で制限される。
先進技術:
最先端の数値:
SPAM問題:状態準備と測定(SPAM)エラーは絡み合っている。「測定エラー」が実際には準備エラーかもしれない。分離には注意深いベンチマーキングプロトコルが必要。
量子非破壊(QND)測定:
理想的なQND測定は追加の外乱なしに量子ビットを固有状態に射影する。実際には、すべての測定にはある程度の「破壊」がある—環境との残留エンタングルメント、運動モードの加熱(イオン)、非計算状態へのリーク。
超伝導量子ビットでは、高パワー読み出し中の高トランズモン準位へのイオン化が重大な問題。|0⟩/|1⟩の混同率はパワーで改善するが、|2⟩へのリークは悪化する。
回路中測定の課題:
誤り訂正には、データ量子ビットを保持しながら補助量子ビットを測定する必要がある。これにより生じる問題:
Googleの2023年表面符号実験では、測定誘起エラーが主要なノイズ源であることが示された。
閾値問題:
表面符号のフォールトトレランスには総エラー率1%未満が必要。つまり:
現在の議論:99%の測定忠実度で十分か、それとも相関エラーと非マルコフ効果が実効閾値を引き上げるか?
多重読み出し:
多数の量子ビットを同時に読み出すのは1つを読むより難しい。周波数混雑、増幅器帯域幅、クロストークがすべて忠実度を劣化させる。100+量子ビットでは、これが重大なエンジニアリング課題となる。
活発な研究フロンティア:
究極の限界:
量子力学は測定忠実度に基本的な限界を課さない—原理的には任意の精度が達成可能。実際には、限界はエンジニアリング:量子ビットのコヒーレンスを維持しながらどれだけノイズを抑制できるか。理論と実験の現在のギャップ(約0.1-1%の不忠実度)は数十億ドルの未解決エンジニアリングを表している。