Обман о квантовых вычислениях раскрыт

В 2019 году исследователи Google заявили, что они якобы добились квантового превосходства, когда их «квантовый компьютер» Sycamore якобы выполнил за 200 секунд такие расчёты, на которые обычному суперкомпьютеру понадобилось бы 10 000 лет. Учёные из Китая выполнили то же самое вычисление за несколько часов с помощью обычных графических процессоров. Первыми на инсинуации Google отреагировала компания IBM, поскольку в заявлении Google система Sycamore сравнивалась с суперкомпьютером IBM Summit. В IBM сообщили, что Summit мог бы выполнить аналогичные вычисления за 2,5 дня, а не за 10 000 лет, как утверждает Google. Затем к развенчанию мифа о квантовом превосходстве Google Sycamore приступили китайские учёные, но уже не теоретически, как поступили в IBM, а решая задачу практически на обычных компьютерах. В прошлом году, оптимизировав алгоритм, китайцы на 60 видеокартах NVIDIA решили задачу за 5 дней. Очевидно, суперкомпьютер справился бы с решением быстрее. И действительно, новая китайская суперсистема Oceanlite на базе нового поколения чипов Sunway (ShenWei) получила престижную премию Гордона Белла за опровержение заявления Google. Oceanlite решила задачу за 304 секунды, попутно став первой в мире, преодолевшей экзафлопсный барьер. Но китайцы снова оптимизировали алгоритм и смоли решить задачу Google на 512 видеокартах NVIDIA за 15 часов. Как заявляют учёные, если бы у них был суперкомпьютер, они бы решили задачу за несколько десятков секунд, что оставило бы далеко позади результат Google Sycamore. Подробно об алгоритме и методике проведения расчётов китайские специалисты рассказали в журнале Physical Review Letters. Для ускорения расчётов они пошли на некоторое огрубление уровня допустимых ошибок (точности). Так, если Google проводила расчёты с учётом вероятности ошибок 0,2 %, то китайские исследователи допустили вероятность ошибок на уровне 0,37 %, что в 256 раз ускорило расчёты. Также китайцы использовали тензорные матрицы, благодаря чему расчёты свелись к простым операциям перемножения, а GPU с этим справляются лучше всего и в режиме параллельной обработки данных. Подробно, но сложным языком прочесть об этом можно в статье, которая доступна на arXiv.org в формате PDF. Источник: 3dnews.ru

Оставить комментарий

Ваш адрес email не будет опубликован.

Solve : *
1 × 5 =