A kvantumfölény a kvantumszámítógépek azon képessége, hogy olyan problémákat oldjanak meg, amelyeket a klasszikus számítógépek gyakorlatilag nem képesek megoldani. A kvantum előnye a gyorsabb problémamegoldás képessége. Ez a számítási komplexitáselmélet szempontjából általában szuperpolinomiális gyorsítást jelent a legismertebb vagy lehetséges klasszikus algoritmushoz képest [1] . A kifejezést John Preskill népszerűsítette, de a kvantumszámítási előny fogalma, különösen a kvantumrendszerek szimulációjában, egészen a Yuri Manin (1980) [ 2] és Richard Feynman (1981) kvantumszámítási javaslatáig nyúlik vissza. ] .
A kvantumszámítógépen polinomiális időben futó Shor -algoritmus egész számok faktorizálására ilyen szuperpolinomiális gyorsulást biztosít a legismertebb klasszikus algoritmushoz képest [4] . Bár még nem bizonyított, a faktorizáció kihívásnak számít a klasszikus erőforrások használatakor. A kvantumfölény végleges kimutatásának gyakori problémája annak bizonyítása, hogy mit nem lehet a klasszikus számításokkal megtenni. Ez hatással van az Aaronson és Arkhipov bozon mintavételi javaslatára, a D-Wave speciális problémáira a frusztrált klaszter hurkokra és a véletlenszerű kvantumáramkörök kimeneti mintavételére .
Az egész számok faktorizálásához hasonlóan a véletlenszerű kvantumáramkörök kimeneti eloszlásának mintavételezésének problémája is nehéznek tűnik a klasszikus számítógépek számára a bonyolultságra vonatkozó ésszerű feltételezések alapján.
A Google korábban bejelentette, hogy 2017 végére 49 szupravezető qubitből álló tömb segítségével demonstrálja a kvantumfölényt [5] . 2018 január elejétől azonban csak az Intel jelentett be ilyen hardvert [6] .
2017 októberében az IBM egy 56 qubit szimulációját mutatta be egy hagyományos szuperszámítógépen, ami megnövelte a kvantumfölényhez szükséges qubitek számát [7] .
2018 novemberében a Google bejelentette, hogy partnerséget köt a NASA -val, amelyben a NASA "elemzi a Google kvantumprocesszorain és... felsőbbrendűségén futó kvantumáramkörök eredményeit" [8] .
Egy 2018-as elméleti tanulmány azt sugallja, hogy a kvantumfölény elérhető „egy 7 × 7 qubites és körülbelül 40 órajeles kétdimenziós tömbön”, de ha a hibaarány elég alacsony [9] .
2019. június 21-én a Scientific American azt javasolta, hogy a Neven-törvény szerint a kvantumfölény 2019-ben valósul meg [10] .
2019. szeptember 20-án a Financial Times arról számolt be, hogy "a Google azt állítja, hogy kvantumfölényt ért el egy 54 qubitből álló tömbön, amelyből 53 volt működőképes, és 200 másodperc alatt végeztek számításokat, ami körülbelül 10 000 évbe telne egy hagyományos szuperszámítógépnek. " [11] . Erről kezdetben a NASA honlapján jelent meg egy jelentés, de a megjelenés után nem sokkal törölték [12] . Később, október 23-án hivatalosan is bejelentették a kvantumfölényt [13] . Az IBM szakértői azonban a bemutatott adatok elemzése után jelezték, hogy bizonyos pillanatok nem optimálisak, és valójában egy ilyen számítás egy klasszikus szuperszámítógépen csak 2,5 napot vesz igénybe a bejelentett 10 000 év helyett. [14] [15] [16]
2020. december 3-án kínai tudósok arról számoltak be, hogy az összegabalyodott fotonokkal működő Jiuzhang kvantumszámítógépük kvantumfölényt ért el. 200 másodperc alatt sikeresen kiszámítottak egy problémát, amelynek megoldása a világ leggyorsabb klasszikus számítógépének több mint félmilliárd évbe telne [17] .
A komplexitás kérdése arra utal, hogy a probléma megoldásához szükséges erőforrás mennyisége hogyan skálázódik a bemenet méretével. A klasszikus számítási komplexitáselmélet kiterjesztéseként a kvantumkomplexitáselmélet egy univerzális kvantumszámítógép működését írja le anélkül, hogy figyelembe venné létrehozásának bonyolultságát vagy a dekoherencia és a zaj hatásainak kiküszöbölését [18] . Mivel a kvantuminformáció a klasszikus információ általánosítása , a kvantumszámítógép bármilyen klasszikus algoritmust képes szimulálni .
A kvantumpolinomiális időkorlátos hiba (BQP) problémák összetettségi osztálya olyan döntési problémák osztálya, amelyek polinomiális időben megoldhatók univerzális kvantumszámítógéppel . A BPQ osztály hierarchiával kapcsolódik a klasszikus komplexitási osztályokhoz [19] . Továbbra is nyitott kérdés, hogy szigorúak-e ezek a beágyazások.
Ellentétben az igen vagy nem választ igénylő döntési problémákkal, a mintavételi problémák valószínűségi eloszlásból való mintavételt igényelnek [20] . Ha létezik egy klasszikus algoritmus , amely képes mintát venni egy tetszőleges kvantumáramkör kimenetéből , akkor a polinomiális hierarchia a harmadik szintre kerül, amit nagyon valószínűtlennek tartanak. A BosonSampling egy specifikusabb javaslat, amelynek klasszikus összetettsége a komplex elemekből álló nagy mátrix állandójának kiszámításának problémájának megoldhatatlanságától függ , ami P#-teljes probléma. Az állítás levezetéséhez használt érveket az IQP mintavételnél is alkalmazták [21] , ahol csak az a hipotézis szükséges, hogy a probléma átlagos és legrosszabb eset komplexitása megegyezik.
A következő algoritmusok szuperpolinomiális gyorsítást biztosítanak a legismertebb klasszikus algoritmusokhoz képest [22] :
Ez az algoritmus megtalálja egy n bites egész szám prímtényezősségét időben [4] , a leghíresebb klasszikus algoritmushoz idő kell, és a probléma összetettségének legjobb felső korlátja . Ezenkívül felgyorsíthat minden olyan problémát, amely az egész számok faktorizálására vezethető vissza , beleértve azt a problémát is, hogy a mátrixcsoportok páratlan sorrendű mezőkhöz tartoznak -e .
A kvantumszámításhoz ez az algoritmus gyakorlatilag és történetileg egyaránt fontos. Ez lett az első polinomiális kvantumalgoritmus , amelyet a klasszikus számítógépek számára nehéznek tartott probléma megoldására javasoltak [4] . Az ebbe az összetettségbe vetett bizalom olyan erős, hogy a manapság legelterjedtebb RSA titkosítási protokoll biztonsága a faktorizációs algoritmuson alapul [23] . Az ezt az algoritmust sikeresen és reprodukálhatóan futtató kvantumszámítógép feltörheti ezt a titkosítási rendszert [24] . Ezt a hackelési kockázatot Y2Q problémának nevezik, hasonlóan az Y2K problémához, az Y2K problémához .
Ez a számítási paradigma egy lineáris optikai hálózaton keresztül küldött azonos fotonokon alapul, és meg tud oldani bizonyos mintavételi és keresési problémákat, amelyek több hipotézist feltételezve a klasszikus számítógépek számára megoldhatatlanok [25] . Ennek ellenére bebizonyosodott, hogy a bozon mintavételezése egy kellően nagy veszteséggel és zajjal rendelkező rendszerben hatékonyan szimulálható [26] .
A bozon-mintavétel eddigi legnagyobb kísérleti megvalósítása 6 üzemmóddal rendelkezik, ezért akár 6 fotont is képes feldolgozni egyidejűleg [27] . A legjobb klasszikus algoritmus a bozon-mintavételezés modellezésére egy n fotonnal és m kimeneti móddal rendelkező rendszer esetén sorrendben fut [28] . A BosonSampling az algoritmus nyílt forráskódú R implementációja . Az algoritmus 50 fotonra ad becslést , ami szükséges a kvantumfölény bozonmintavétellel történő demonstrálásához.
Egy tetszőleges véletlenszerű kvantumáramkör szimulálására szolgáló legismertebb algoritmushoz olyan időre van szükség, amely exponenciálisan skálázódik a qubitek számával , ami alapján a kutatók egy csoportja úgy becsüli, hogy körülbelül 50 qubit elegendő lehet a kvantumfölény kimutatásához [9] . A Google bejelentette szándékát, hogy 2017 végéig demonstrálja a kvantumfölényt egy 49 qubit-es chip létrehozásával és elindításával, amely ésszerű időn belül képes mintát venni olyan disztribúciókból, amelyekhez egyetlen modern klasszikus számítógép sem fér hozzá [5] . De a szuperszámítógépen sikeresen végrehajtott kvantumáramkörök legnagyobb szimulációja 56 qubittel rendelkezik . Ezért szükség lehet a kvantumfölény kimutatásához szükséges qubitek számának növelésére [7] .
A kvantumszámítógépek a dekoherencia és a zaj miatt sokkal hibásabbak, mint a klasszikus számítógépek . A küszöbtétel kimondja, hogy egy zajos kvantumszámítógép hibajavító kvantumkódokkal [29] [30] képes szimulálni egy nem zajos kvantumszámítógépet, feltételezve, hogy az egyes számítógépes ciklusokban fellépő hiba kisebb egy bizonyos számnál. Numerikus szimulációk azt mutatják, hogy ez a szám elérheti a 3%-ot [31] .
Nem ismert azonban, hogy a hibajavításhoz szükséges erőforrások hogyan skálázódnak a qubitek számával . Szkeptikusok[ mi? ] azt mutatják, hogy a zaj viselkedése ismeretlen a skálázható kvantumrendszerekben, mint potenciális akadálya a kvantumszámítástechnika sikeres megvalósításának és a kvantumfölény kimutatásának.