単一試行量子機械学習
Single-shot quantum machine learning
量子機械学習は、量子コンピュータを使用して学習手法を改良することを目指しています。その可能性を実現するためには、多くの障壁を克服する必要があります。特に緊急の問題は、量子学習モデルの出力が本質的にランダムであるため、予測段階に現れます。これにより、実際の予測を得るために量子学習モデルの結果を複数回実行して集約する必要が生じ、通常は相当なオーバーヘッドが発生します。本研究では、量子学習モデルがこの問題を回避し、ほぼ確定的に予測を生成できる条件を分析しました。これにより、単一試行量子機械学習への道が開かれます。私たちは、量子分類器における単一試行性の厳格な定義を与え、量子学習モデルの確定的近似度が、モデルで使用される埋め込み量子状態の区別可能性によって制約されることを示します。埋め込みのブラックボックスを開くと、埋め込みが量子回路によって実現される場合、単一試行性が可能になるには一定の深さが必要であることを示します。最後に、量子学習モデルが、一般的な方法で単一試行性を実現的同时に訓練可能であるわけではないことを示します。
I. 導入
機械学習は急速に発展している分野であり、その迅速な進歩は、古典コンピュータが学習できるものとできないものに関する仮定を頻繁に覆しています。この継続的な成功物語は、量子コンピュータとの交差点である量子機械学習への関心を刺激しています。量子コンピュータが、古典の同等のものを超える何らかの学習モデルを構築するために使用できるかどうかを研究することが、量子機械学習の主要な研究方向の一つとなっています。
これらのモデルの内在的な量子特性は、理論的には古典的可能性の限界を突破する潜力を持っている[1-4]が、それ自体に固有の欠点ももたらしています。これまでのこの分野の研究は、主に学習段階に焦点を当ててきており、その中で「貧瘠な高原(barren plateau)」[5]などの問題が量子学習モデルの最適化を複雑にしています。しかしながら、推論段階、つまり量子学習モデルが予測を生成する必要がある場合にも問題が発生します。名実ともに量子学習モデルは、量子システムへの何らかの操作を必要とします。しかし、古典的なラベルを抽出するためには、測定を行う必要があります。量子力学の本質により、この測定の結果は本質的に確率的です。モデルが学習問題、例えば画像を正しく分類するためには、出力が確定的である必要があります。実際には、量子学習モデルは、測定の確率的な結果を回避し、例えば適切に選ばれた観測量の期待値の形で予測を抽出するために、何度も実行される必要があります。耐障害量子コンピュータ上でモデルが実行される場合でも、この問題、いわゆる測定問題の一例は依然として存在します。
量子力学の非決定性は、量子学習モデルが通常、古典学習モデルには存在しないオーバーヘッドを伴うことを意味します。これは、予測を生成するために必要な時間だけでなく、コストも増加させるため、它们の魅力を大きく制限しています。完全な量子機械学習プロセスを考えると、特定の量子モデルの測定オーバーヘッドを削減できると、各段階のコストが削減されます。非反復設定でも、例えば量子状態を生成し、一回限りの分類を必要とする場合(光の散乱状態から物体を検出する場合など)に役立つ可能性があります。
本研究では、特にどのような条件下で量子学習モデルの単一回の実行から予測を抽出できるか(図1参照)、この特定の制限を回避できるかどうかを調査しました。私たちは、この単一試行モデルの厳格な定義を確立し、量子仮説検定のツールを使用して、それらの最終的な限界を理解します。量子分類器が量子回路を使用して構築されている場合、単一試行性が可能になるのは、回路に一定の深さがあるときのみであることを特定しました。私たちは、ノイズのない場合とノイズのある場合に対処します。単一試行性質を示す学習モデルは通常、過剰に表現力が高く、そのため訓練が困難であることを特定することで、私たちの結果を補足します。
量子学習モデルの完全な可能性を理解するために、その可能性と限界に関する研究が投入されています。量子分類器を含む量子学習モデルは、多仮説検定の視点から分析でき、これは参考文献[6-12]で利用されています。参考文献[11]は、表現能力と汎化性能の間にはトレードオフが存在することを指摘しています。観測量の分散を学習により削減することで、量子学習モデルの測定オーバーヘッドを削減しようとする試みも行われています[13]。量子回路の連続性属性も参考文献[14]で研究されています。
本文の構成は以下の通りです。まず、量子分類器(第2節)と量子多仮説検定(第3節)を紹介します。次に、第4節で単一試行量子学習モデルの概念を導入します。続く第5節では、記述された概念とツールを使用して限界を提案し、浅層モデルが単一試行性質を持たないことを確立します。最後に、第6節で、一般的な単一試行性質を実現する量子学習モデルは学習が困難であることを示します。第7節で本文をまとめます。
II. 量子分類器
観測量の期待値を使用してラベルを決定する場合、通常は量子実験を忠実に近似するために複数回実行する必要があるため、これも暗黙的に行われます。
III. 量子多仮説検定
ベイズ設定とミニマックス設定の両方で、最適な測定は半定計画(SDP)[16]によって計算できます。仮説検定の有用性は、多仮説検定誤差の良好な下界が存在することに由来します。二元仮説検定の場合、、私たちは閉じた形の解さえ持っています。ヘルストローム-ホレヴォ定理[17]は、二元仮説検定の最小誤差と量子状態のトレース距離を関連付けます。
証明は付録Aにあります。ミニマックス設定での対応する結果は自明です。なぜなら、考慮する代替案の数が少ない仮説を検討する場合、最悪ケースの誤差は改善されるだけだからです。したがって、
上記の結果とHolevo-Helstrom定理を組み合わせることで、量子状態のペア間距離で表される多仮説検定問題誤差の下界が得られます。これらの下界が必ずしも最も緊密なものではないことに注意します。しかし、它们は後で、単一試行量子学習モデルの制限を量子状態のトレース距離に基づく解釈可能な量に関連付けることを可能にします。
量子分類器の多仮説説検定の単純化
上記を式(2)と比較すると、量子分類器は、各クラスの平均状態の量子多仮説検定問題と等価であることがわかります。したがって、量子分類器の誤差は、実現可能な最適誤差以上であると結論付けることができます。
異なるクラスの埋め込み状態は、合理的な精度を実現するために、よく区別可能でなければならないという事実は、先行研究[6,8,11]でも観察されています。
IV. 単一試行量子機械学習
第2節で説明したように、量子分類器を複数回実行しなければならないという事実は、いわゆる測定問題を引き起こします。これは、量子力学の確率的な性質のため、古典的な方法と比較して追加のオーバーヘッドが存在することを意味します。本研究の目的は、分類器が割り当てられたラベルを非常に確定的、つまり私たちが「単一試行」分類器と呼ぶものにすることで、この問題を回避できる条件を正式に定義することです。
A. 単一試行分類器
ここで、確率は分類器固有のランダム性から取得されます。
B.幾何学的描写
しかし、連続的にパラメータ化された分類器も、データ領域の部分集合において、認識論的には単一試行である可能性があります。もし私たちが見る点がその領域から来ている可能性が高いならば、私たちは依然として相当なベイズ単一試行性能を有することができます。正是这种思想通过以下引理形式化,这只是简单的联合界限的应用。
C. 標本複雑度との関係
私たちは、確率分類器の単一試行性の概念と、量子機械学習モデルにおける測定問題を扱う際に通常遭遇する標本複雑度の概念とを関連付けることができます(参考文献[12]も参照)。これは、同じ「弱い」分類器をm回繰り返し使用し、多数決を行う過程を、単一試行性を持つべき単一のモデルと見なすことを考慮することで可能です。これは、失敗確率が低いことと同等です。数学的には、弱い分類器の成功確率を上げる、つまり単一試行性を持つが失敗確率が高い分類器に関する以下の補題があります。
私たちは、独立同分布のベルヌーイ乱数和に関連する、より緊密な推定値を与えるチェルノフ-ホフディングの定理を使用できましたが、これらの改善は私たちの论证には必要ではありません。もし私たちが β を の最大値と次最大値の間の半分の差として選択すれば、多数決の成功結果を保証できます。形式的には、この差を以下のように定義できます。
V. 単一試行量子機械学習の最終的な限界
単一試行性の属性を定義した後、与えられた埋め込み に対してそれ実現できるかどうか、逆に、単一試行分類を許容する埋め込みを実現するためにどのようなリソースが必要かを問うのが自然です。本節は、単一試行分類タスクを多仮説検定タスクに還元することで、単一試行量子分類器の最終的な限界を模索しています。上記の還元を確立した後、埋め込みのブラックボックスを開き、単一試行性属性を確立するために量子回路に必要なゲート複雑度の下界を确立します。
A. 仮説検定への還元
第3節で、量子分類器の誤差確率は多仮説検定への還元によって下界づけられることをすでに見てきました。単一試行誤差確率 δ の最適値を境界付けるために、類似の議論を採用できます。微妙な違いは、私たちがもはや真のラベル に基づいてデータをうまく分類することを気にしないことです。なぜならそれらは単一試行性の定義には現れないからです。代わりに、私たちは分類器が分類器自体によって割り当てられたラベル、つまり式(1)の
に基づいて機能することを望みます。この視点の変化の後、議論は同様に進めることができます。
私たちは、各ラベルに複数の状態を含めることで、上記の認識論単一試行誤差確率の下界をさらに改善できる可能性があることを指摘します。これは、複合多仮説検定問題への還元をもたらします。这些问题は研究が少なく、利用可能な分析ツールも少ないです。しかし、数値研究では、これはより緊密な境界を実現するための適切な方法です。
私たちは今、第3節で紹介されたツールを使用して、単一試行量子分類の最終的な限界を、より直感的な量と関連付けます。私たちは、第3節の二元情況の還元を、式(4)のHolevo-Helstrom定理を第5節Aのベイズ誤差確率の下界に適用します。これにより、異なるクラスの平均状態のトレース距離で表される、以下の誤差確率の下界が得られます。
这一点から、不可知論的単一試行性(agnostic single shotness)は、分類器予測の異なるクラス埋め込み状態間の距離に対して高い要求を課すと結論づけることができます。なぜなら、上記の不等式を逆転させることで、以下の式が得られるからです。
この限界から、 x に連続的に変化する埋め込み は、 x の値域全体にわたって不可知論的単一試行性を実現できないことがわかります。これは、不可知論的単一試行性の定義が、 x の定義域 X を制限することを必要とすることを再強調しています。これは、私たちは第IV A節で不可知論からベイズへの昇華で使用したものです。
不可知論的およびベイズ設定における単一試行誤差確率と埋め込み状態のトレース距離との接続を確立した後、埋め込み のブラックボックスを開き、それが変分量子回路によって実現されると考えます。この場合、一定の単一試行誤差確率を課すには、回路に一定の深さと/または幅が必要であることが以下に示されます。
B. ノイズのない量子回路
第V B節は、パラメータ化された回路が、近接したデータ点を、これも近接した量子状態に埋め込むことを示しています。直感的に、私たちは、異なるラベルに属するが近接している2つのデータ点に対して、量子分類器は困難に直面すると推論できます。私たちは、以下の定理でこれを形式化します。
定理3. 単一試行性誤差確率の下界(ベイズ)。 を量子分類器とし、そのタスクは、私たちはその確率分布を知っている r >組の古典データを分類することである。単一試行性誤差確率は、2つのデータクラス間の最悪の平均距離によって制限されます。
ここで強調したいのは、上記の定理の条件が某种の単一試行性誤差確率を許容しても、それによって回路が実際にその単一試行性誤差確率に到達することを必ずしも意味しない(そして通常は期待されない)という点です。
C. ノイズのある回路
現実的な回路は完璧から程遠いです。NISQ(Noisy Intermediate-Scale Quantum)時代では、它们はその性能を制限する普遍的なノイズの影響を受けています。量子分類器の単一試行性に対するノイズの影響を研究するために、生存確率 p を持つ局所デポラライズノイズが、分類器計算の各ステップの後、各量子ビットに適用される誤りモデルを研究します。ここで、 ω は各ステップの計算後に適用される最大混合状態です。数学的にこれを追跡するために、私たちは記号
を使用して、 t ステップの計算後にノイズのある埋め込み回路によって生成された量子状態を表します。私たちの埋め込み回路モデルでは、私たちはこれまでに層数 L を計算しています。その各層は、固定エルミート変換と変分量子ゲートからなると仮定しており、それらは各ステップの計算を必要とすると仮定しています。したがって、私たちのパラメータ化回路全体で Lℓ ステップの計算が必要です。
局所デポラライズノイズの影響を受けた量子回路は、最終的に最大混合状態 ω に非常に近い量子状態を生成します。この結果は、 t ステップの計算後の回路状態間の相対エントロピーの減衰を計算し、以下の推定値[19]を導出することで確立されます。
しかしながら、この推定は回路の連続性を考慮していないため、パラメータが近接している場合、実際には過度に楽観的かもしれません。ノイズのあるチャネルは状態間のトレース距離を増加させないため、ノイズのある回路を考慮する場合、第V B節の結果は、システム内のノイズを考慮していないため、依然として有効であることがすぐにわかります。この2つの推定つの推定値を単純に組み合わせる方法は、両方の最小値を単純に取ることであり、以下をもたらします。
ノイズのみの推定とは対照的に、上記の境界は によってゼロに減衰することはないことを意味します。これは、有限のパラメータ領域でのみ式(66)の推定を改善できることを意味します。しかし、它は常に式(57)で与えられる単純な連続性推定を改善します。図3は、3つの異なる境界の比較を示しています。今、私たちは、第V B節と同様に、単一試行分類の設定に再接続できます。導出は同様に行うことができます。定数 L が以下で置き換えられます。
私たちは、ノイズのある状況のために導出したすべての3つの境界を組み合わせることで、量子分類器予測の各多数クラス埋め込み平均状態間の実現可能な距離の上界を提供します。したがって、ノイズのある量子分類器による単一試行分類の可能性を分析することを可能にします。
VI. 一般的な正確な単一試行モデルは学習が困難である
単一試行量子機械学習の理論的基盤を確立した後、私たちは単一試行性が学習モデルの属性であり、必ずしも与えられたものではないことを学びました。それは、古典データを量子状態に埋め込む量子学習モデルの具体的な方法に依存しており、同じ予測ラベルの量子状態が集まっている場合にのみ、つまり、異なる予測ラベルの量子状態とあまり近接していない場合にのみ現れます。
この直感から、私たちは、理论上は、データセットのすべての可能性のあるラベル付けに対して単一試行分類を実現する埋め込みを構築できるはずです。機械学習の言葉で言えば、これはモデルがデータを粉砕するほど十分に表現力が強いことを意味します。これは、すべての十分に分離された入力を、ヒルベルト空間の相互直交方向に埋め込むことで実現されます。例えば、大量の符号化ゲートと深い確率的エルミートゲートを交互に使用して、このような埋め込みを構築できると予想されます。しかし、明らかに、这样的な埋め込みは、学習データから推論された任意のPOVMの汎化性能が悪くなることをもたらします。以前に見られないデータ点は、埋め込み学習データの直交補空間に埋め込まれます。そこでは、良い分類を推論することはできず、最良の戦略は無作為guessingです。
この「思想実験」は、(量子)学習モデルの固有の問題、つまり表現能力、訓練可能性、および汎化性能の間の微妙なトレードオフを浮き彫りにします。これは、量子機械学習における進行中の研究テーマです[11,20-22]。本節では、このトレードオフが学習モデルの単一試行属性にも影響することを示します。
これは私たちの论证の普遍性を制限しません。なぜなら、非常に近接したデータ点は、同じ入力を表すからです。画像の例を挙げると、合理的に異なると見なされ得る画像は、合理的に異なるピクセル値を持つ必要があります。直感的に、私たちは、一般的な正確な単一試行モデルが、 ξ 以上で分離されたすべての点を、ヒルベルト空間の(およそ)直交方向にマッピングすることを期待します。
この特定のタイプのモデルを研究するために、私たちは参考文献[6]の結果に依存します。そこでは、著者らは、以下のような形式の例からPOVM効果を学習する本質的に類似した問題を研究しています。
D次元ヒルベルト空間で、精度 ϵ でPOVM効果を学習するために必要な標本数。ここで私たちが提出する论证は、近似の概念や精度には依存せず、次元の依存性に依存します。しかし、POVM効果の ϵ -近似を作用素ノルムで行うと、行列Hölderの不等式により、実現された二元分類器の精度が、付加誤差 以内で目標に近づくことが保証されます。
残っているのは、私たちが考慮するヒルベルト空間の次元を分析することです。为此,我们回到我们的假设,即在某种范数下相距 ξ 的输入应该被映射到希尔伯特空间的不同角落。这意味着我们有D大约是我们选择的范数中需要覆盖输入空间X的球的数量。如果空间具有某种特征长度L和维度d,我们预计需要:
次元。これは入力サイズの観点から非効率的であり、私たちは思想実験から予期する通りです。これはまた、表現能力が過剰なモデルは汎化性能が悪いことを示す参考文献[11]の結論とも一致しています。
VII. 結論
量子機械学習が有用になるためには、多くの障壁を克服する必要があります。その1つは、量子力学の確率的な性質に直接由来する測定問題です。量子学習モデルの予測は本質的にランダムであるため、実際の予測を得るには、量子学習モデルの実行結果を複数回集約する必要があります。
本研究では、単一試行量子機械学習の概念を提案しました。私たちは、量子分類器の厳格な定義を確立しました。つまり、どのような状況下で、ほぼ確定的にラベルを提供することで測定問題を回避できるかです。量子分類器と量子多仮説検定の密接な関係を利用して、量子分類器の単一試行性が、基本上、埋め込み量子状態の区別可能性によって制約されることを确立しました。埋め込みが通常量子回路によって実現されることを考慮すると、単一試行分類器を実現するには、これらの回路に一定の深さが必要であることも示しました。
最後に、学習モデルが、一般的な方法、つまり可能な限りの入力ラベル付けに対して単一試行性を実現できないことを确立しました。このような場合、それは過剰に表現力が高くなり、这样的なモデルには意味のある汎化方法がありません。
この研究は、私たちが測定問題を克服するための始まりに過ぎません。它は、多くの方向にわたる未来の研究を招待しています。首先、我们只考虑了这项工作中的分类任务。回帰への一般化も肯定是可能であり、量子測定学の単純化を使用して、多仮説検定に代わる類似の基本限界を表現できる可能性があります[23]。
単一試行量子機械学習の定義と基本的な処理を拡張することに加えて、緊急の問題は、単一試行モデルをどのように構築するかを理解することです?私たちは、このプロパティを訓練过程中にどのように強制执行して、精度と単一試行性を両立させるのでしょうか?この方向性の可能なインスピレーションは、埋め込み量子状態の区別可能性と直接関連する訓練方法を考慮することです[8]。私たちはまた、一定の単一試行性を強制执行する学習モデルや埋め込み回路の明確な構成を見つけることができるのでしょうか?