fot. UC Riverside
Jak dotąd szacowało się, że komputery kwantowe pojawią w ciągu 10-20 lat. Jednakże dzięki sprytnemu wybiegowi mogą one upowszechnić się znacznie szybciej.
Choć komputery kwantowe raczej nie zastąpią komputerów osobistych w najbliższych latach, eksperci przewidują, że znajdą one szerokie zastosowanie w nauce i przemyśle, rozwiązując problemy, z którymi klasyczne komputery sobie nie radzą.
Komputery kwantowe to urządzenia, które do przetwarzania danych wykorzystują zasady mechaniki kwantowej, takie jak superpozycja i splątanie. W przeciwieństwie do komputerów klasycznych, które działają na bitach (przyjmujących wartości 0 lub 1), komputery kwantowe używają kubitów (bitów kwantowych).
Komputery kwantowe nie mają na celu zastąpienia klasycznych laptopów czy smartfonów, lecz uzupełnienie ich, wykonując specyficzne zadania. Ich wyjątkowa moc obliczeniowa może zrewolucjonizować dziedziny takie, jak kryptografia, chemia i farmacja czy sztuczna inteligencja.
Co sprawiło, że ich szerokie zastosowanie może być szybsze, niż myślimy? Mowiąc w skrócie – naukowcy omijają wymóg bezbłędnych chipów.
Nowe badania przeprowadzone na Uniwersytecie Kalifornijskim w Riverside wprowadzają istotną zmianę w projektowaniu sprzętu kwantowego. Zamiast czekać na bezbłędne chipy i połączenia kwantowe, naukowcy dysponują obecnie dowodami na to, że obecną technologię można natychmiast zintegrować z większymi, odpornymi na błędy systemami.
Może to znacznie przyspieszyć wdrażanie komputerów kwantowych zdolnych do rozwiązywania złożonych, rzeczywistych problemów na dużą skalę. Naukowcy wykazali, że komputery kwantowe można budować z połączonych ze sobą mniejszych chipów i że systemy te nadal mogą działać niezawodnie, nawet jeśli połączenia i sprzęt są niedoskonałe.
Odkrycia te stanowią podwaliny pod budowę dużych systemów kwantowych z mniejszych jednostek i podkreślają kluczowy postęp w zwiększaniu praktyczności komputerów kwantowych odpornych na błędy.
Dlaczego obecnie nie mamy jeszcze w pełni sprawnych komputerów kwantowych? Choć pierwsze modele stosuje się już w chemii, są one ograniczone pod względem możliwości przeprowadzania obliczeń na dużą skalę. Głównym ograniczeniem jest rozmiar i niezawodność samego sprzętu kwantowego.
Tradycyjnie postęp kwantowy mierzono liczbą kubitów – kwantowym odpowiednikiem klasycznych bitów – ale bez odporności na błędy te dodatkowe kubity nie gwarantują użytecznych rezultatów. Odporność na błędy to kluczowa cecha, która umożliwia systemowi automatyczne wykrywanie i korygowanie błędów, co jest koniecznością ze względu na podatność komponentów kwantowych na błędy.
Nowe badania podchodzą do problemu skalowania poprzez symulację realistycznych architektur kwantowych złożonych z wielu mniejszych układów scalonych. Każdy z nich został zaprojektowany do pracy jako część jednolitej całości.
Zespół, kierowany przez Mohameda A. Shalby’ego, doktoranta na Wydziale Fizyki i Astronomii Uniwersytetu Kalifornijskiego w Riverside, wykorzystał tysiące symulacji do przetestowania sześciu różnych projektów modułowych.
Ich modele uwzględniały praktyczne parametry, czerpiąc inspirację z istniejącej infrastruktury kwantowej Google i wykorzystując narzędzia symulacyjne opracowane przez Google Quantum AI.
Jedną z głównych przeszkód technicznych w modułowych komputerach kwantowych są zaszumione połączenia między chipami – problem ten jest szczególnie dotkliwy, gdy chipy muszą komunikować się przez oddzielne kriogeniczne lodówki.
Takie połączenia zazwyczaj wprowadzają znacznie więcej błędów niż operacje wykonywane w pojedynczym chipie, co zagraża skuteczności technik korekcji błędów i ogólnej niezawodności systemu kwantowego.
Zespół kierowany przez UC Riverside odkrył jednak, że nawet gdy połączenia między chipami są nawet dziesięciokrotnie bardziej zaszumione niż same chipy, system kwantowy nadal może skutecznie korygować błędy, pod warunkiem, że każdy chip zachowuje wysoką dokładność operacyjną.
To skutecznie obniża wymagania sprzętowe dotyczące montażu skalowalnych systemów, co sugeruje, że komputery kwantowe nie muszą czekać na doskonałą inżynierię przed rozszerzeniem swoich możliwości.
Większa część ich modelowania koncentrowała się na kodzie powierzchniowym, najpowszechniej stosowanej technice korekcji błędów w obecnych badaniach kwantowych.
W tej metodzie „chipy z kodem powierzchniowym” organizują fizyczne kubity w logiczne klastry, opierając się na redundancji, aby chronić przed błędami, które naturalnie kumulują się w operacjach kwantowych.
Badanie wykazało, że dzięki wykorzystaniu architektury kodu powierzchniowego systemy modułowe mogą kodować kubity logiczne o wysokiej dokładności i solidnie, nawet przy niedoskonałych połączeniach między modułami.
Zasadniczo podsumowując obecny stan komputerów kwantowych, rozwiązania rodem z filmów science fiction stają się coraz bardziej realne. A biorąc pod uwagę, że to dopiero pierwsze kroki ludzkości na tej ścieżce, może być tylko lepiej.
Źródło: TechSpot, UC Riverside
Na stronie mogą występować linki afiliacyjne lub reklamowe.
Wszystko wskazuje na to, że OnePlus 15 nie jest tak doskonały, jak się spodziewano, a…
Amazfit wprowadza nową, mniejszą wersję modelu Amazfit T-Rex 3 Pro. Zmniejszyła się średnica ekranu względem…
Samsung Galaxy S25 Edge to bezapelacyjna ciekawostka producenta z bieżącego roku. Podczas premiery flagowiec kosztował…
Werewolf: The Apocalypse - Heart of the Forest to polska hybryda przygodówki i RPG, osadzona…
Aż 6 lat prawdziwego spokoju w zamian za 1200 złotych? To, a nawet znacznie więcej…
Pierwszy składany iPhone od Apple to urządzenie, na które fani czekają od lat. Choć premiera…