您現在的位置是:首頁 > 舞蹈首頁舞蹈

混合量子經典卷積神經網路:用於NISQ計算機的量子增強CNN

由 ScienceAI 發表于 舞蹈2023-01-10
簡介現在,受 CNN 的啟發,研究人員提出了一種混合量子經典卷積神經網路 (QCCNN)

什麼是混合性神經

編輯/凱霞

卷積神經網路(CNN)在計算機視覺等領域取得了巨大成功。同時,量子計算硬體的快速發展為透過量子計算增強經典機器學習提供了可能。

受經典 CNN 的啟發,中科大黃合良(He-Liang Huang)所在研究團隊提出了一種混合量子經典卷積神經網路(quantum-classical convolutional neural network,QCCNN)。表明 QCCNN 可以完成分類任務,其學習精度超過具有相同結構的經典 CNN。

該研究以「Hybrid quantum-classical convolutional neural networks」為題,於 8 月 4 日發表在《Science China Physics, Mechanics & Astronomy》期刊上。

混合量子經典卷積神經網路:用於NISQ計算機的量子增強CNN

CNN、QCNN、QCCNN

隨著量子計算硬體的快速發展,我們正在進入開發量子軟體以使用嘈雜的中級量子 (NISQ) 計算機執行有用計算任務的時代。量子機器學習 (QML) 試圖利用量子計算機來實現機器學習任務的計算加速或更好的效能。

實現線性函式的一種直接方法是所謂的全連線層,但當輸入尺寸很大時,由於矩陣尺寸很大,這種方法會變得效率低下。CNN 是一種非常流行的方案,它試圖透過用卷積層替換全連線層來解決這個問題。卷積層只將輸出的每個神經元連線到輸入的一個小區域(視窗),稱為特徵圖,從而大大減少了引數的數量。CNN 在計算機視覺等領域取得了巨大成功。

哈佛大學和加州大學的研究人員提出了一種

量子卷積神經網路(QCNN)的架構

,該架構最近被提出用於解決量子資料的分類問題。洛斯阿拉莫斯國家實驗室與倫敦大學的研究人員合作證明,QCNN 不會受到「貧瘠高原」的影響。

但與其他 QML 演算法類似,QCNN 使用與輸入大小一樣多的量子位元,這使得它不太可能在當前的量子計算機上實現來解決現實世界的問題。

現在,受 CNN 的啟發,研究人員提出了一種混合量子經典卷積神經網路 (QCCNN)。QCCNN 繼承了 CNN 的基本結構,但將 CNN 中的特徵圖替換為「量子特徵圖」。例如,對於大小為 n×n 的視窗,量子特徵圖首先使用量子位編碼將其編碼為量子狀態,然後使用引數量子電路演化該狀態,最後計算全域性量子運算元的期望值以輸出下一層的標量。

混合量子經典卷積神經網路:用於NISQ計算機的量子增強CNN

圖示:QCCNN。(來源:論文)

在 QCCNN 的量子卷積層中,濾波器被重新設計以利用參量量子電路,將其稱為量子濾波器。

混合量子經典卷積神經網路:用於NISQ計算機的量子增強CNN

圖示:設計的引數量子電路的細節,由交錯的單量子位層和雙量子位層組成。(來源:論文)

QCCNN 有 3 個重要特點:

1)與其他受 CNN 啟發的量子機器學習演算法相比,QCCNN 在很大程度上繼承了 CNN 的架構,例如非線性和多層結構。與 CNN 相比,QCCNN 可以探索更大的特徵空間,因此更有可能實現更高的學習精度,這在本工作的合成數據集上得到了數值證明;

2)CNN 中使用的視窗尺寸往往比較小,比如從 3×3 到 9×9,因此量子特徵圖對目前只有幾十個量子位元的量子計算機很友好;

3)QCCNN 的設計不存在輸入輸出問題。此外,QCCNN 可以輕鬆接受量子資料作為輸入,在這種情況下,可以實現量子計算效率方面的優勢。

接著研究人員展示了一個框架,可用於自動計算任何 QCCNN 的精確梯度。

訓練 QCCNN 的工作方式與常規神經網路相同。各種基於梯度的最佳化技術,例如隨機、批次或小批次梯度下降演算法,可用於最佳化 QCCNN 的引數。一旦模型經過訓練,它就可以用於預測給定輸入的輸出。

QCCNN 的應用演示

研究人員透過將 QCCNN 應用於「俄羅斯方塊」資料集來展示 QCCNN 的潛力。俄羅斯方塊影象資料集由 800 張形狀為 3×3 的灰度影象組成,其中每個灰度影象都是一個模擬的俄羅斯方塊磚。將 QCCNN 與具有兩種特定結構的 CNN 進行基準測試,即一種具有單個卷積層,另一種具有兩個卷積層。

混合量子經典卷積神經網路:用於NISQ計算機的量子增強CNN

圖示:俄羅斯方塊資料集的一些示例。(來源:論文)

研究人員觀察到 QCCNN 對於使用的兩種結構都可以達到幾乎 100% 的準確度,並且與經典對應物相比,它可以在兩種情況下達到更低的損失值。受益於量子系統的高維特性,當類別數從 2 增加到 4 時,QCCNN 的優勢變得更加明顯。

同時也可以看到,4-label 的情況比 2-label 的情況需要更多的迭代才能收斂,在這種情況下,兩層結構的 QCCNN 比單層結構收斂得更快,尤其是在 4-label 的情況下,這表明對於複雜問題,可以透過更深的架構獲得更好的效能。

混合量子經典卷積神經網路:用於NISQ計算機的量子增強CNN

圖示:作為迭代次數的函式的精度和損失。(來源:論文)

為了更深入地瞭解 QCCNN,研究人員調整引數量子電路的深度(從而改變引數的數量)以檢視其對訓練精度的影響。具體來說,對於兩層QCCNN,將電路深度改為1、2、4(因此每個量子特徵圖中的引數個數為4、8、16),

研究發現,帶有 1 深度量子電路的 QCCNN 已經可以達到比 CNN 更高的精度(它們包含的引數數量完全相同),並且 QCCNN 在更大的電路深度下表現更好,因為它需要足夠的深度來完全糾纏所有量子位。

混合量子經典卷積神經網路:用於NISQ計算機的量子增強CNN

圖示:(a)精度作為兩層 QCCNN 的迭代次數的函式,具有深度 1、2、4 的量子特徵圖,以從淺到深的灰線顯示,對於兩層層 CNN,以綠色虛線顯示。(b) 作為噪聲(綠色虛線)和完美(黃色虛線)具有深度為 2 的量子特徵圖的單層 QCCNN 迭代次數的函式的精度。(來源:論文)

由於當前的量子裝置受到噪聲的影響,研究人員還研究了噪聲量子電路對訓練效能的影響。可以看到效能對此類錯誤具有很強的彈性,並且在嘈雜的情況下仍然可以達到訓練精度 1。

研究人員表示:「我們提出了一種混合 QCCNN,可用於解決當前量子計算機的現實世界問題。QCCNN 在應用於現實世界問題時避免了量子機器學習演算法的輸入和輸出問題,這是當前量子機器學習演算法面臨的主要挑戰之一。此外,我們還提出了一個框架來自動計算混合量子經典損失函式的梯度,這可能是未來開發複雜的混合量子經典變分演算法的有用工具。」