Квантовый корректор

Приближает ли новый процессор Google безошибочные квантовые вычисления

9 декабря 2024 года ученые из группы квантового искусственного интеллекта компании Google официально представили новый квантовый компьютер Willow. Отличительных свойств у этого устройства из 105 сверхпроводящих кубитов, по мнению его создателей, два.

Во-первых, авторы впечатлили всех числом, о котором до этого мало кто слышал. Их квантовому компьютеру удалось менее чем за пять минут выполнить тестовое вычисление, которое у лучших современных классических суперкомпьютеров заняло бы десять септиллионов лет. Это время — 1025 лет, то есть на 15 порядков больше возраста Вселенной. Во-вторых, создатели компьютера заявили, что в Willow с ростом числа кубитов «экспоненциально уменьшается количество ошибок». Этот результат должен, как считают исследователи Google, разрешить ключевую проблему в области квантовой коррекции ошибок, над которой ученые работали почти 30 лет.

Оба утверждения звучат ярко — но действительно ли достижения Google настолько прорывные?

Десять септиллионов?

Намного проще оценить значимость первого утверждения разработчиков, которое касается скорости вычислений.

Сопровождавшее статью видео с руководителем Google Quantum AI Хармутом Невеном и Джоном ПрескилломЭто тот самый человек, который придумал термин квантовое превосходство. из Калифорнийского технического института уделило большое внимание этой огромной цифре. Журналисты стали обсуждать опасность квантовых компьютеров для криптовалют, а сам Хармут Невен, воспользовавшись сравнением с возрастом Вселенной, запустил по новому кругу спор о том, вычисляют ли квантовые компьютеры в мультивселенной.

На самом деле никакого прорыва именно в этой цифре нет. Вычислительная задача, с помощью которой была получена эта оценка, — сэмплирование случайных квантовых цепочек. Она заключается в выполнении за короткое время максимального количества случайных квантовых алгоритмов небольшой длины и задумывалась как намеренно трудная для классических компьютеров. При этом порядок конечного числа можно было угадать просто исходя из более ранних публикаций Google о квантовом превосходстве и предположения, что требуемое время будет удваиваться с каждым новым кубитом. Так что само число не стало для экспертов новостью. Оно подтвердило квантовую природу вычислений Willow, но не более того: практических применений у этого алгоритма нет.

А что с ошибками?

А вот оценить прорывной характер второго тезиса Google — об экспоненциальном сокращении числа ошибок — несколько сложнее. Но именно здесь, похоже, все самое важное.

Для реализации полезных алгоритмов, о которых говорят сами исследователи Google: оптимизации логистики, предсказания структуры лекарств, ускорения обучения искусственного интеллекта или взлома классической криптографии, — необходимы алгоритмы длиной в миллиарды операций. Их исполнение требует высокой точности при хранении и обработке квантовой информации в течение долгого времени, но современные квантовые компьютеры этим похвастаться пока не могут — из-за резкого роста числа ошибок при масштабировании.

Ошибки, о которых идет речь, — следствие декогеренции в квантовых системах, то есть разрушения под влиянием внешних факторов необходимого для работы квантового состояния кубита. В начале 1990-х, когда к идее создания реальных квантовых компьютеров только подбирались, многие ученые считали квантовые компьютеры не просто очень сложной для реализации технологией, а принципиально невозможной — именно из-за декогеренции. Поскольку источниками декогеренции могут быть воздух, свет, тепло, какие-то внешние поля, да и вообще любые пролетающие мимо кубита частицы, то надеяться, что физические ошибки получится исключить полностью, не приходится.

Краткая историческая справка про декогеренцию и измерения

При любом, даже очень низком уровне физических ошибок, вычисление на квантовом компьютере ограничено временем когерентности — интервалом, в течение которого вложенная в кубиты информация еще не полностью «утекла» в окружающую среду. У лучших современных сверхпроводниковых квантовых процессоров, которые защищены от внешней среды вакуумом и работают при температуре около абсолютного нуля, оно составляет десятки микросекунд. Этого не хватает ни для какого из практически полезных квантовых алгоритмов, требующих выполнения миллиардов операций с тысячами кубитов.

Физический порог для логического решения

Один из способов хоть как-то побороться с возникающими из-за декогеренции ошибками, который ученые предложили вскореВ 1985 году Дэвид Дойч впервые описал принцип работы универсального квантового компьютера, а в 1995 Питер Шор предложил первый алгоритм коррекции ошибок. Первый рабочий прототип квантового компьютера на ядерных спинах появился только в 2000 году. после теоретического описания самих квантовых компьютеров, — не физическое их устранение, а логическое, с помощью алгоритмов коррекции. Классические аналоги таких алгоритмов к началу квантово-компьютерной эры были хорошо изучены и применялись при передаче информации по шумным каналам связи. Принцип их действия прост: использовать дополнительные логические ресурсы для того, чтобы уменьшить вероятность ошибки.

Самые простые из таких алгоритмов — коды повторения. Если закодировать один и тот же бит несколько раз, например, записав 0 как 000, то даже если в сообщение вкралась ошибка и один из битов переключился, исходное сообщение все равно можно будет восстановить при декодировании, допустив, что верной является информация, записанная большинством битов.

Такая схема, впрочем, работает, только если шанс ошибки для каждого из них невысок.

Считаем на примере

Другими словами, для коррекции ошибок нужен не только алгоритм, но и достаточно хорошее железо — вероятность ошибки в котором ниже некоторого порогового значения. Эта формулировка для классических компьютеров известна как теорема порога, и ее можно распространить и на квантовые компьютеры.

Квантовая теорема порога в этом случае будет звучать примерно так:

Для создания отказоустойчивого квантового компьютера, который мог бы подавлять свои ошибки до сколь угодно низкого уровня, нужны: квантовый алгоритм коррекции ошибок и достаточно хорошие кубиты, чтобы этот алгоритм смог заработать.

Именно практическое подтверждение квантовой теоремы порога имели в виду представители Google, когда говорили, что Willow «решает ключевую проблему в области квантовой коррекции ошибок, над которой ученые работали почти 30 лет». Как же им удалось достичь этого результата?

Трудности исправления

Чтобы адаптировать под квантовые компьютеры даже простейший алгоритм (например, описанный выше алгоритм повторения), нужно решить несколько довольно непростых задач. Для начала надо учесть отличия в структуре классической и квантовой информации, а затем преодолеть три, на первый взгляд, непреодолимых преграды: запрет клонирования состояний, коллапс волновой функции и недискретность квантовых ошибок.

Удвоение возможности для ошибки

Первое важное отличие квантовых ошибок от классических — это то, что в кубите банально в два раза больше мест, куда эта ошибка может закрасться. Если в бите она может проявиться исключительно в его переключении, то в квантовом аналоге ошибок уже два типа: первые (релаксация) возникают при изменении спинового числа, а вторые (дефазировка) — при изменении фазы. В общем случае за счет принципа суперпозиции квантовая ошибка оказывается, грубо говоря, суммой двух этих ошибок в произвольной пропорции.

Можно поподробнее?

Сам факт наличия двух типов ошибок не является критичным — он означает только то, что коррекция квантовых ошибок требует больше ресурсов, чем коррекция классических. В остальном же принципиальной разницы между ошибками двух типов нет: фазовую информацию можно превратить в спиновую и наоборот с помощью вентиля Адамара. Здесь тревогу скорее должны вызывать слова о том, что ошибкой может быть их любая комбинация — ведь это, казалось бы, означает, что квантовая информация может, в отличие от классической, портиться бесконечностью разных способов.

Запрет клонирования состояний

Чтобы реализовать алгоритм повторения, состояние кубита |𝜓⟩ = 𝛼|0⟩ + 𝛽|1⟩ необходимо клонировать, то есть создать его копию на другом кубите. Проблема в том, что клонирование информации в квантовой механике невозможно, о чем говорит доказанная в 1982 году теорема о запрете клонирования. К счастью, пионеры квантовых вычислений придумали обходной путь. Вместо того, чтобы клонировать квантовое состояние, ученые предложили увеличить размерность векторного пространства, которое его кодирует. Используя вентиль CNOT, можно запутать с исходным кубитом еще один дополнительный, в результате чего получается один логический кубит, закодированный внутри четырехмерного пространства состояний двух физических кубитов.

На самом деле он находится не во всем четырехмерном пространстве, а в его подпространстве с базисом {|00⟩, |11⟩}. Если на одном из двух физических кубитов произошла спиновая ошибка и его значение переключилось на противоположное, то состояние логического кубита изменится следующим образом: X1|𝜓⟩L = 𝛼|10⟩ + 𝛽|01⟩.

То есть ошибка приводит к тому, что вектор состояния, не меняя своих коэффициентов, перемещается из подпространства «отсутствия ошибки» с базисом {|00⟩, |11⟩} в подпространство «наличия ошибки» с базисом {|10⟩, |01⟩}. Аналогичная ошибка на втором кубите переместила бы вектор сюда же, но переставив местами коэффициенты. Поэтому если бы можно было каким-то образом измерять, в каком из этих двух подпространств находится вектор, то и отличить корректно работающие логические кубиты от кубитов с ошибками не составило бы труда.

Коллапс волновой функции

Следующая сложность на пути к созданию алгоритма квантовой коррекции — коллапс волновой функции, который приводит к разрушению содержащейся в кубите квантовой информации при его измерении. Решением здесь может быть использование дополнительного кубита — анциллы: если измерять два кодирующих кубита одновременно, то можно подобрать такой оператор измерения, чтобы анцилла выдавала 0 в случае, когда вектор состояния логического кубита находится в подпространстве «отсутствия ошибки» {|00⟩, |11⟩}, и 1 в подпространстве «наличия ошибки» {|10⟩, |01⟩}. А поскольку эти подпространства ортогональны друг другу, то при измерении их можно отличить, не портя закодированную в суперпозиции информацию.

Де-факто такое измерение сводится к проверке четности, то есть к сравнению состояний физических кубитов. Получаемая при измерении анциллы информация (0, если состояния кубитов одинаковые, и 1, если они разные) называется синдромом ошибки — с ее помощью ошибки можно выявлять и исправлять.

Недискретность квантовых ошибок

Но если анцилла не разрушает состояние логического кубита, то какая информация на самом деле теряется при измерении? Ведь невозможно измерить состояние квантовой системы, не разрушив какую-то ее часть. Именно в этом кроется ключевая особенность измерительных операторов:

  • если произошедшая перед измерением случайная квантовая ошибка была небольшой и вектор логического кубита отклонился от состояния «ошибки нет» ненамного, то при измерении анциллы он с огромной вероятностью вернется обратно и ошибка исчезнет;
  • если же ошибка была большой или просто не повезло, измерение выдаст результат «ошибка есть» и тем самым заставит вектор логического кубита повернуться не на какой-то случайный угол, а точно на такой, чтобы попасть в ортогональное исходному «подпространство ошибки».

Поэтому такие измерения называют стабилизаторными: они справляются с недискретностью квантовых ошибок, дискретизируя состояния логического кубита, и стабилизируют их с помощью измерений, которые разрушают не записанную в суперпозиции квантовую информацию, а вкрадывающиеся в нее ошибки. Именно на них начали строить те подходы к квантовой коррекции ошибок, благодаря которым идея создания полноценного квантового компьютера превратилась из авантюры для безумцев в реальную технологическую перспективу и привела к появлению стабилизаторных кодов.

Стабилизируй это

Стабилизаторный код — это система кубитовГоворя о стабилизаторном коде, физики могут подразумевать и сам стабилизаторный алгоритм, и схему его логической кубитной реализации, и физическое расположение на чипе с учетом и основных, и вспомогательных кубитов. Это может путать, но из контекста обычно понятно, о какой форме кубитной системы идет речь, которая выполняет определенный алгоритм (в данном случае — коррекции ошибок) и описывается набором из трех чисел, которые заключают в двойныеДля классического кода коррекции ошибок используют одинарные скобки, для квантового — двойные. квадратные скобки:  [[n, k, d]].  В этом обозначении n — общее число используемых для кодирования информации физических кубитов, k — количество кодируемых ими логических кубитов (то есть для проведения стабилизаторных измерений такому коду дополнительно также требуется (nk) измерительных кубитов-анцилл), а d — кодовое расстояние, минимальное число ошибок, необходимое, чтобы превратить одно «безошибочно» закодированное (например, верное) сообщение в другое «безошибочно» закодированное сообщение (например, неверное). Количество ошибок, которые код способен исправить, составляет (d − 1)/2.

Например, число ошибок, которое может исправить классический трехбитный код — одна: (3 − 1) / 2 = 1. Сообщение «0» (000) позволяет исправить одну ошибку (001 → 000), уже при двух ошибках исправление получается неправильным, при этом наличие ошибки все еще остается заметным (011 → 111). А при трех ошибках код (111) считывается как переданное без ошибок сообщение «1», поэтому в этом случае d = 3.

Аналогично расстояние можно рассматривать и для квантовых кодов. Так, двухкубитный код [[2, 1, 2]] может только заметить ошибку, а для ее исправления требуется уже трехкубитный код [[3, 1, 3]], способный с помощью двух анцилл точно определить кубит, на котором она произошла. Первый же полностью рабочий девятикубитный квантовый код [[9, 1, 3]] способный работать как со спиновыми, так и с фазовыми ошибками в 1995 году предложил Питер Шор, присоединив к каждому кубиту трехкубитного кода для исправления фазовых ошибок по аналогичному коду для спиновых.

Чуть подробнее про примеры квантовых кодов

Поскольку комбинирование трекубитных кодов — не единственный способ создания сложных алгоритмов коррекции, Шор и его коллеги стали искать универсальный подход, и и к концу 90-х они сформулировали условия, которым обязательно удовлетворяет любой рабочий стабилизаторный код. Он должен:

  1. работать как вращения по многомерной сфере Блоха;
  2. стабилизировать все верные состояния логического кубита;
  3. стабилизировать ошибочные состояния только в независимых друг от друга и ортогональных верным подпространствах, чтобы измерения не разрушали верную информацию, а синдромы не зависели от порядка проведения измерений.

Пытаясь удовлетворить этим условиям, теоретики довольно быстро поняли, что универсального способа для подбора правильно работающих стабилизаторов нет и подходить к конструированию кодов можно по-разному. В течение нескольких лет после публикации работ Шора начали формироваться различные семейства алгоритмов, объединенных общим подходом. В дальнейшем термин код еще сильнее расширил свое значение, и его стали использовать уже не только для конкретных отдельных алгоритмов, но и для общего подхода, который включает в себя целое семейство алгоритмов. Эти подходы включали как адаптированные классические алгоритмы коррекции ошибок, так и уникальные физические и математические подходы специально для квантовых систем. Одни позволяли обойтись меньшим числом вспомогательных кубитов, другие — проще кодировали информацию, третьи лучше подходили для конкретных физических платформ.

Одним из таких семейств стали топологические (или торические) коды, предложенные в 1997 году Алексеем Китаевым. Его идея заключалась в том, чтобы использовать уникальные топологические свойства живущих в двумерных пространствах квазичастиц энионов, чтобы заставить квантовую систему саму исправлять свои ошибки. (Более подробно об энионах можно прочитать в интервью Алексея Китаева и в материале «Наплели моду».)

Сверхпроводники у порога

Для практического внедрения квантовых алгоритмов коррекции лучше всего подошли сверхпроводниковые квантовые компьютеры. Этому поспособствовало сразу несколько факторов. Во-первых, развитие именно этой платформы было довольно быстрым благодаря технологической базе, которую подготовила для них полупроводниковая микроэлектроника. Во-вторых, на сверхпроводниковой платформе самая высокая скорость операций, благодаря чему можно было за короткое время собрать статистически значимое число ошибок. В-третьих, сверхпроводниковые кубиты, фотолитографически вытравленные на поверхности кремниевого чипа, хорошо подходили для реализации идеи из статьи Китаева. Эффективное взаимодействие кубитов только с соседями на плоскости чипа позволяло построить из них двумерный стабилизаторный код, для которого надо было замостить плоскость квадратными ячейками из кодирующих кубитов и измерительных анцилл так, чтобы они соединялись только с ближайшими соседями. В сверхпроводниковых процессорах такие коды оказалось к тому же легко масштабировать.

Поскольку замыкание краев плоскости в тор, как изначально предлагал Китаев, оказалось излишним, их назвали просто поверхностными кодами и стали описывать в геометрических терминах, используя плоские схематические отображения и как иллюстрацию логической структуры кода, и как функциональную схему физических кубитов.

Минимальная ячейка любого поверхностного кода состоит из четырех кубитов: двух кодирующих кубитов и двух измеряющих их анцилл, при этом одна из анцилл измеряет спиновые ошибки, а другая — фазовые. Сама ячейка не является действующим алгоритмом, но, соединяя такие ячейки друг с другом, можно получить схему для кода любого размера. При замощении плоскости этими ячейками, каждый из кубитов (кроме краевых) оказывается связан с четырьмя соседями, а анциллы, измеряющие разные типы ошибок, чередуются в шахматном порядке. В результате на каждый кодирующий кубит есть как минимум одна анцилла каждого типа.

Таким образом, первое требование теоремы порога — необходимый алгоритм — спустя 20 лет удалось удовлетворить. Физики показали, что квантовый алгоритм коррекции ошибок, пригодный для практического воплощения, существует по крайней мере теоретически. Оставалось разобраться, какого качества кубиты для него нужны и насколько легко этот алгоритм реализовать на практике. Ведь чем больше код, тем больше кубитов он требует для своей работы: коду с расстоянием d на исправление (d − 1) / 2 ошибок нужно 2d2 − 1 кубитов. То есть для исправления одной ошибки поверхностный код требует 17 кубитов, для исправления двух — 49 кубитов, для исправления трех — уже 97. А каждый новый кубит и сам может стать источником ошибок.

Поэтому чтобы этот алгоритм работал, он должен исправлять ошибки быстрее, чем они появляются. Доказательство теоремы порога перешло в практическую плоскость: оставалось понять, какой должна быть вероятность ошибки на физическом кубите, чтобы вся эта алгоритмическая машинерия вообще заработала, и можно ли такие кубиты создать.

Для начала физики, конечно, сделали теоретические оценки, чтобы понять, где цель и имеет ли смысл дальнейшая работа с поверхностными кодами при нынешнем уровне квантово-компьютерных технологий. Сделать такие оценки оказалось несложно. Например, в 2018 году исследователи с помощью моделирования показали, что, если рассматривать ошибки только на кодирующих кубитах и при этом считать спиновые и фазовые ошибки независимыми, то порог получается довольно высоким, около 10 процентов — это более чем достижимая планка. Однако другие оценки предсказывали, что если учесть ошибки на анциллах, в кодирующем и измерительном оборудовании, и не забыть, что ошибки могут быть связаны между собой, то реалистичная оценка минимальной допустимой ошибки физического кубита понижается примерно до 0,5 процента. С другой стороны, если преодолеть этот порог, то эффективность исправления ошибок, согласно моделированию, дальше растет очень быстро с увеличением расстояния кода.

Но даже и этот порог не выглядел недостижимым. Вопрос оставался только в том, правильно ли теоретики оценили возможные факторы декогеренции и ничего ли не забыли — без практической проверки эти цифры оставались лишь неподтвержденной гипотезой.

«На самом деле, проблема была в том, что неясно было, можно ли вообще получить работающие поверхностные коды, — объяснил N + 1 старший сотрудник лаборатории искусственных квантовых систем МФТИ Глеб Фёдоров. — Предполагалось, что могут быть некоторые коррелированные ошибки на чипе, которые вызваны, например, очень долгой термализацией подложки, когда спонтанно перестраивается атомная решетка, выделяется энергия, и сверхпроводимость может локально разрушиться. Другой вариант — если вычисление будет нарушаться космическими частицами, что тоже наблюдалось».

От теории к практике

Эту экспериментальную проверку и обеспечил Willow. На процессоре со 105 кубитами Google тестировала поверхностные коды коррекции ошибок размерами 3 × 3, 5 × 5 и 7 × 7. Первых на процессоре помещалось шесть штук, вторых — две, а самый большой с расстоянием 7 занимал практически весь процессор — 97 кубитов.

Чтобы проверить, как на самом деле меняется вероятность ошибки в логическом кубите при увеличении размера поверхностного кода, исследователи из Google провели следующий эксперимент. Сначала на кодирующих кубитах они записывали некое заранее известное состояние логического кубита, после чего запускали алгоритм коррекции. На каждом цикле работы процессора программа проводила на анциллах стабилизаторные измерения, извлекая информацию о синдроме. Эта информация шла на параллельно работающий классический декодер, который в реальном времени с помощью комбинации вероятностных и нейросетевых алгоритмов определял наиболее вероятную операцию коррекции в случае выявления ошибки.

Но для коррекции квантового состояния кубитов эта информация не использовалась — ее просто собирали в течение всего эксперимента, который для каждого из кодов длился от 10 до 250 циклов. После окончания полной программы исследователи измеряли финальное состояние и уже к полученной классической информации применяли весь список операций коррекции, который декодер нагенерировал в процессе работы алгоритма. Это постфактум исправленное состояние логического кубита сравнивали с тем, которое на него записывали в начале. Если они совпадали, значит алгоритм сработал верно. Если же даже после исправления финальное состояние не совпадало с исходным, значит в алгоритм коррекции вкралась ошибка.

Авторы Willow показали, что вероятность логической ошибки снижается более чем вдвое при увеличении размера кода с 3 × 3 до 5 × 5 и примерно так же — при увеличении с 5 × 5 до 7 × 7. Это, в целом, совпадает с теоретическими предсказаниями, хотя рост эффективности алгоритма с увеличением размера кода оказался медленнее, чем предсказывала теория. При этом уровень ошибки в логическом кубите 7 × 7 был ниже, чем в лучшем из имевшихся на процессоре физических кубитов. То есть логические кубиты, судя по данным Willow, могут жить дольше, чем физические. По мнению Фёдорова, эта работа стала первым надежным подтверждением того, что поверхностный код действительно можно масштабировать на сверхпроводящих системах, — а значит, теорема порога действительно работает.

Возможно, такого впечатляющего результата удалось достичь еще и потому, что Willow был произведен на новой мини-фабрике, созданной в 2021 году специально для производства квантовых чипов — и уровень ошибки физических кубитов Willow составлял около 0,3 процента. Для сравнения, уровень ошибки у процессоров предыдущего поколения Sycamore, которые производились в заметно менее чистой зоне университетской лаборатории, составлял примерно 0,6 процента, из-за чего проводившиеся на нем ранее тесты поверхностных кодов не дали хороших результатов.

«Это академическая чистая зона, — рассказал про место производства Sycamore Фёдоров. — Там, в общем-то, грязно — мне рассказывали люди, которые там были. Так что это вообще фантастика, что у них что-то получилось. На самом деле это показывает, что технология-то довольно устойчивая. У нас тоже академическая зона: много разных людей работает на одних и тех же установках, пылят разные металлы, которые могут быть несовместимы, но тем не менее тоже что-то получается и даже воспроизводится. А сейчас, видимо, в Google решили уже серьезнее вкладываться в производство квантовых процессоров».

Ирония маркетинга

И все же Google можно покритиковать хотя бы за то обманчивое впечатление, которое компания создает своим пресс-релизом. Если сопоставить два тезиса — про ускорение вычислений и экспоненциальное уменьшение числа ошибок, — то легко предположить, что количество ошибок уменьшается просто благодаря количеству кубитов и что Willow может одновременно с этим и, видимо, именно за счет подавления ошибок выполнять недоступные классическим суперкомпьютерам вычисления.

Но это не так. Сэмплирование цепочек выполняется огромное число раз из-за того, что вычисление осуществляется на шумных физических кубитах без какого-либо программного подавления ошибок и требует накопления статистики для получения приличного результата. Если же запустить поверхностный код коррекции ошибок 7 × 7, под размер которого был сделан Willow, то квантовый процессор превращается в один логический кубит, который может только хранить информацию в течение примерно 300 микросекунд. Это соответствует вероятности ошибки около 0,1 процента за один цикл работы. Но для выполнения даже самых простых практически полезных алгоритмов уровень ошибки должен быть, как минимум, 10-6 — то есть на три порядка ниже, чем сейчас. И это не говоря о том, что в эксперименте, который исследователи Google провели сейчас, исправления ошибок в реальном времени пока вообще не происходит (что, впрочем, совершенно не означает, что эту схему они не будут использовать в будущем).

Чтобы добиться практически приемлемого уровня ошибок, один логический кубит нужно будет защищать кодом с расстоянием около 25, что потребует более тысячи физических кубитов. А для практически ценных алгоритмов потребуются уже тысячи таких защищенных логических кубитов, которые нужно будет, «не вынимая» из поверхностного кода, запутывать друг с другом и строить из них нужные логические схемы. А значит, для достижения практически значимого квантового превосходства потребуется квантовый компьютер с миллионами физических кубитов, и еще неизвестно, справится ли с такими объемами и сложностью информации подход «исправления ошибок постфактум». Вполне вероятно, что подобные алгоритмы вообще не будут актуальны: сейчас все подходы для выполнения логических операций требуют исправления ошибок в реальном времени (например, здесь или здесь).

Но именно такая цель обозначена в конце дорожной карты квантовых компьютеров Google, на которой Willow является лишь вторым шагом из шести. Эта стадия, которую в компании называют прототипом логического кубита запоздала в сравнении с исходным планом года на полтора. Если экстраполировать темпы развития квантовой платформы Google линейно, то их квантового компьютера стоит ожидать не раньше начала 2040-х, а не к концу 2020-х, как обещает Хармут Невен, основатель и главный инженер лаборатории квантового искусственного интеллекта Google. Впрочем, если не возникнет проблем с логикой закодированных кубитов, то возможно, что после создания первого полноценно защищенного кубита скорость масштабирования увеличится за счет огромных производственных мощностей современной полупроводниковой промышленности.