Квантовое машинное обучение (QML), слияние алгоритмов квантовых вычислений и машинного обучения, — это грядущий большой бум в отрасли. Алгоритмы машинного обучения в сочетании с системой кубитов квантовых компьютеров могут использовать больше возможностей моделей машинного обучения. Наиболее распространенные типы обнаруженных алгоритмов включают квантовые версии классических алгоритмов машинного обучения, таких как машины опорных векторов, а также классические методы глубокого обучения, такие как квантовые нейронные сети.

Квантовые вычисления сокращают время, необходимое для обучения нейронной сети, которое в классическом компьютере увеличивается с увеличением числа нейронов. В квантовых вычислениях аппаратное обеспечение может имитировать нейронную сеть вместо программного обеспечения. Здесь кубит выступает в роли нейрона, который помогает достичь очень высокой скорости выполнения модели, превосходящей все классические компьютеры.

Анализ основных компонентов, который имеет дело с уменьшением размерности больших наборов данных, требует вычисления собственных значений и собственных векторов. Данные большего размера — это проблема, которую можно решить с помощью квантовой памяти с произвольным доступом (QRAM), чтобы случайным образом выбрать вектор данных и преобразовать его в квантовое состояние с помощью кубитов. Суммарный вектор, который мы получаем после квантового анализа главных компонент, имеет логарифмические кубиты. Случайный вектор образует плотную матрицу (ковариационную матрицу). Путем повторной выборки и возведения в степень матрицы плотности в сочетании с алгоритмом оценки квантовой фазы (вычислением собственных векторов и собственных значений) квантовая версия любого вектора данных разлагается на его основные компоненты. Таким образом, как вычислительная сложность, так и временная сложность уменьшаются в геометрической прогрессии.

Исследователи обнаружили, что для обучения квантовой нейронной сети требуется лишь минимальное количество данных, в отличие от огромного количества данных в классическом машинном обучении. Первоначально предполагалось, что количество параметров будет определяться гильбертовым пространством, которое становится экспоненциально большим при обучении большого количества кубитов. Нормально думать, что для поиска в этом огромном пространстве потребуется миллиард точек данных, но на самом деле это равно количеству параметров (примерно равному количеству кубитов) в модели.

Проблемы существуют при коммерческом внедрении QML, но возможности ML и AI будут возрастать как на дрожжах, поскольку преимущества перевешивают риски. Традиционная вычислительная мощность сдерживает весь потенциал машинного обучения. Чтобы ответственно использовать QML, необходимо поощрять инновации и сотрудничество между бизнесом, правительствами и академическими кругами, уделяя первостепенное внимание этическим соображениям.

Анализ основных компонентов, который имеет дело с уменьшением размерности больших наборов данных, требует вычисления собственных значений и собственных векторов. Данные большего размера — это проблема, которую можно решить с помощью квантовой памяти с произвольным доступом (QRAM), чтобы случайным образом выбрать вектор данных и преобразовать его в квантовое состояние с помощью кубитов. Суммарный вектор, который мы получаем после квантового анализа главных компонент, имеет логарифмические кубиты. Случайный вектор образует плотную матрицу (ковариационную матрицу). Путем повторной выборки и возведения в степень матрицы плотности в сочетании с алгоритмом оценки квантовой фазы (вычислением собственных векторов и собственных значений) квантовая версия любого вектора данных разлагается на его основные компоненты. Таким образом, как вычислительная сложность, так и временная сложность уменьшаются в геометрической прогрессии.

Исследователи обнаружили, что для обучения квантовой нейронной сети требуется лишь минимальное количество данных, в отличие от огромного количества данных в классическом машинном обучении. Первоначально предполагалось, что количество параметров будет определяться гильбертовым пространством, которое становится экспоненциально большим при обучении большого количества кубитов. Нормально думать, что для поиска в этом огромном пространстве потребуется миллиард точек данных, но на самом деле это равно количеству параметров (примерно равному количеству кубитов) в модели.

Проблемы существуют при коммерческом внедрении QML, но возможности ML и AI будут возрастать как на дрожжах, поскольку преимущества перевешивают риски. Традиционная вычислительная мощность сдерживает весь потенциал машинного обучения. Чтобы ответственно использовать QML, необходимо поощрять инновации и сотрудничество между бизнесом, правительствами и академическими кругами, уделяя первостепенное внимание этическим соображениям.