Das Rennen kann beginnen!
Der Quantencomputer steht kurz vor seinem ganz großen Einsatz. Der Durchbruch bei der industriellen Fertigung und der Alltags-Implementierung ist nur mehr eine Frage von wenigen Jahren. Die Großen in der Branche stehen in den Startlöchern und malen mit ihren "Roadmaps" ein fantastisches Bild der digitalen Zukunft und eines fast unermesslichen Marktpotentials. Ein paar prinzipielle technische Stolpersteine,wie Dekohärenz, Fehleranfälligkeit und Instabilität,werden gerade aus dem Weg geräumt.
Das aktuelle Jahr gilt in der Fachwelt als Milestone bei der Implementierung von Quanten-Computern. Das von der UN-Generalversammlung proklamierte „Internationale Jahr der Quantenphysik“ erinnert zum einen an Sternstunden der „Mechanik kleinster Teilchen“ im Jahr 1925. Zum anderen wird ein euphorischer Ausblick auf zukünftige Hard- und Software abgeliefert. Freilich, ein paar essenzielle Fragen wären da noch zu klären. Fieberhaft gewerkt wird an der Fehlerkorrektur, der Stabilität von QBits, der Verkürzung von Kohärenzzeiten, der Skalierung von Quantenchips und dem Einsatz der Technologie bei Raumtemperatur.
Fehler erkennen, Lösung benennen
Idealerweise erreichen QBits bald die Stabilität und Robustheit traditioneller Bits, wie in den herkömmlichen Transistor-Schaltkreisen. Forschungseinrichtungen aus aller Welt bemühen sich um Lösungen. Eine Fehlerquelle steht dabei im Fokus. Die Dekohärenz beschreibt das Verschwinden von Quanten-Eigenschaften in einem System, herbeigeführt durch Wechselwirkungen mit der Umgebung. Die „magische Münze“ kann als Analogie zu den QBits gesehen werden. Man stelle sich vor, die Münze ist in einer Box versperrt und kann gleichzeitig Kopf und Zahl repräsentieren. Beim Öffnen der Kiste interagiert das zuvor verschlossene System mit der Umwelt und das Geldstück „entscheidet“ sich aus heiterem Himmel für die eine oder andere glänzende Seite. Die Information „schrumpft“ so auf den Standard-Zustand. Im Modus der Superposition können QBits zwei Zustände gleichzeitig („0“ und „1“) in überlagerter Form darstellen. Kommen sie mit ihrem Umfeld in Berührung, beispielsweise durch Licht, Wärme, elektromagnetische Wellen, Strahlung oder Messung, geht Superposition – und damit die Rechenfähigkeit – verloren. Werden Quantencomputer aber ausreichend isoliert und bis an die physikalischen Grenzen heruntergekühlt, wird Dekohärenz vermieden.
Spezielle Verfahren erkennen und korrigieren auftretende Superpositions-Fehler, ohne den fragilen Quantenzustand zu beeinträchtigen. Paradoxerweise lassen sich Fehlerraten bei größeren Systemen eher bewältigen als bei kleinen Versuchsaufbauten. IBM erreicht mit einem 4.000-Qbits-Rechner den derzeit höchsten Grad an Stabilität und Skalierbarkeit. Dementsprechend groß ist der Enthusiasmus, dass auf der Grundlage aktueller Forschungen bis Anfang 2030 ein einsatztauglicher Quantenchip in großem Maßstab produziert werden kann.
Die Nase vorn mit Skalierung
Bei der Optimierung technischer Features von Quanten-Rechnern liefern sich drei Unternehmen eine kompetitive Challenge. Das Motto lautet: „Raus aus dem Versuchsstadium, hinein in die großtechnische Fertigung!“ GOOGLES „Willow“ gibt seit Anfang 2025 die Richtung vor. Mit bloßen 105 QBits („Transmons“) setzt das Produkt Maßstäbe bei Fehlerkorrektur, Stabilität und Skalierbarkeit. Transmons sind Basis-Bausteine für eine häufig verwendete QBit-Architektur in supraleitenden Chips. Ihre vergleichsweise simple Geometrie erleichtert die Fabrikation. Die Kohärenzzeit von bis zu 100 Mikrosekunden übertrifft die Werte vieler Konkurrenten um ein Vielfaches. Dieser Wert stellt die Zeitdauer dar, die ein QBit zugleich „0“ und „1“ anzeigt, bis es durch äußere Effekte in einen bestimmten Zustand übergeht. Je länger, desto erfolgreicher, denn QBits müssen während Rechenoperationen in der Superposition verweilen.
Mit aktuell 4.158 und vorausgesagten 16.000 QBits peilt IBM mit der „Quantum Roadmap“ bis 2033 das Ziel an, einen Quanten-Computer für Anwendungen in der Wirtschaft und Technik zu offerieren. Im Mittelpunkt der momentanen Aktivitäten stehen dabei die Fehlerkorrektur, die Automatisierung von Middleware und parametrische Schaltkreise. Letztere spielen eine gewichtige Rolle beim Machine Learning und der Quantenanpassung.
MICROSOFT mischt kräftig mit. Ein besonderes Augenmerk wird auf die Themen Resilienz und Skalierung gelegt. CEO Sytya Nadella sieht im Quantencomputer nicht nur eine unlimitierte Erhöhung der Parameter, sondern die spannende Möglichkeit, damit zu neuen wissenschaftlichen Erkenntnissen vorzudringen. Im Februar 2025 stellte Microsoft den Prozessor „Majorana 1“ vor, der auf 1 Million QBits hochgezüchtet werden kann. Seine kleinsten Recheneinheiten werden hardwaremäßig geschützt.
IONQ, „To build the world's best quantum computers to solve the world's most complex problems“, konzentriert sich in seinen Entwicklungen auf Ionenfallen. Geplant sind modulare Rack-Systeme für Rechenzentren sowie algorithmische QBits, die Wetter- und Klimaprognosen in Rekordzeit bewältigen.
INTEL macht weiter mit siliziumbasierten Verfahren. Zum Einsatz kommen Spin-QBits. Der anvisierte Weg ermöglicht langfristig die Massenproduktion von fehlertoleranten Quanten-Bausteinen.
Auf der Grundlage einer internationalen Studie zu den Quantencomputer-Roadmaps führender Akteur:innen lassen sich die technischen und wirtschaftlichen Eckpunkte ablesen:
- Multinationale Technologie-Konzerne profitieren künftig von einer starken Anwendungsdifferenzierung
- Verbesserte Fehlerkorrektur wird die KI weiter befeuern
- Software-Entwicklung steht vor einer entscheidenden Ausrichtung
- Erste „echte“ Praxis-Anwendungen werden für 2025 erwartet
- Mit Quanten-Forschung schaffen Unternehmen Mehrwert. Die kommerzielle Nutzung wird den Durchbruch einläuten
- Als große Gewinner werden skalierbare, logische QBits und die Quantenfehlerkorrektur (QEC) gesehen
- Ein Billionen-Dollar-Markt tut sich auf
- Die massenhafte Herstellung ist greifbar nahe
- Cloud Computing wird in eine neue Dimension gehoben
- Großer Sprung für Wissenschaft und Forschung
Für Physiker:innen steht 2025 unter der Prämisse: „Raus aus dem Labor, hinein in die Praxis“. Zuverlässige Quantenchips, die gerade das Stadium der Entwicklung verlassen, bewältigen hochkomplexe Skills und treten damit in die Sphäre der relevanten Problemlösungen ein. Wurden aufwändige Algorithmen bei der Quantensimulation bisher auf klassischer Rechner-Infrastruktur getestet, werden diese jetzt auf den Quantencomputern ausgeführt. Simulationen dieser Art sind entscheidend für die Programmierung von Software, die das unglaubliche Potential der vielversprechenden Technik zur Gänze ausschöpfen kann. Sobald die Hardware den gewünschten Level erreicht hat, können Optimierungsprobleme, maschinelles Lernen und kryptografische Aufgaben angegangen werden. Extrem gesteigerte Rechenpower ist Ausgangspunkt beim Design innovativer Werkstoffe. Erst mit der vielversprechenden Hard- und Software lassen sich komplexe Molekülstrukturen am Rechner planen und implementieren. Nutzbringende und industriell verwertbare Ergebnisse bei Hochleistungsbatterien, Supraleitung, chemischen Katalysatoren liegen bereits vor. Quanten-Computer werden den Fortschritt bei Energiespeichern und synthetischen Verbindungen rasant vorantreiben. Das Gesundheitswesen legt große Hoffnungen in den Wandel hin zur Quanten-Technologie. Der zeitaufwändige und bisweilen unsinnig bürokratische Weg zur Medikamentenzulassung wird dann beschleunigt. QBits-basierte Infrastruktur entdeckt schon vor Verabreichung an Patienten:innen unerwünschte molekulare Wechselwirkungen und evaluiert in Rekordzeit klinische Studien. In der Finanzbranche hält die Quantencomputertechnik ebenfalls Einzug, hier werden Portfolios adaptiert, Charts analysiert, Gewinnprognosen modelliert und Risiken minimiert. Global Player in der Fertigung und Grundlagenforscher:innen an den Universitäten, bemühen sich um einen bisher unbekannten Teamspirit. Sie beteiligen sich in Personalunion an den aktuellen Fragen rund um Quanten. Beispielgebend seien das „Munich Quantum Valley“ sowie das „OpenSuperQ-Projekt“ genannt. Letzteres schafft eine Kooperation von 28 Partner:innen aus 10 europäischen Staaten. Das Ziel: Ein Quantencomputer mit 1.000 QBits. Mit von der Partie ist das „Institute of Science and Technology Austria“.
Demnächst in der Cloud
Die zu erwartende Power der künftigen Maschinen ist bis an theoretische Grenzen hochskaliert, sodass Unternehmen keine eigene Hardware anschaffen müssen. Abo-Modelle, ähnlich den bereits etablierten Chatbots, stehen im Raum. Dabei buchen Anwender:innen Rechenzeit im Netz. Ein aktuell fiktiver Preis für den Zugang zu einer „Q-Cloud“ liegt bei 1.800 Euro / Stunde. Die Nase vorn haben hier die gigantischen Mitspieler wie Amazon, Google, IBM und Microsoft. In Hamburg steht ein industrietauglicher „Quantencomputer-Demonstrator“ zur Verfügung, bis Ende 2030 wird die Serienreife für Produkte am deutschen IT-Markt erwartet.
Vom Test in die Praxis
Die Quantentechnologie bietet bereits heute einige beeindruckende und praxisnahe Anwendungen. . Die Energieerzeugung aus nichtfossilen Quellen und die Planung der dazugehörigen Stromnetze profitieren von der starken Rechnergeneration. Die Vorhersage-Modellierung des Verbrauches in Metropol-Regionen, sowie die perfekt angepasste Netzauslastung werden bereits von den QBits abgearbeitet. Echtzeit-Lösungen machten den großen Sprung nach vorne möglich. Quantenbasierte Rechnerumgebungen sind in der Lage, die Stromverteilung stabil zu halten und Blackouts zu vermeiden.
Mit Hilfe der Quantenkryptografie wird die Verschlüsselung von Daten auf ein neues Level gehoben. Genutzt werden dabei keine mathematischen Algorithmen, sondern die Prinzipien der Quantenmechanik.
Quantencomputer werden in der Praxis bei der Prozesssteuerung eingesetzt. Dazu gehören beispielsweise die Planung von Routinen, der Ressourceneinsatz, Lieferketten und -routen, der Flugverkehr und logistische Aufgaben.
Auch die herkömmliche Informations- und Netzwerk-Technik kommt in den Genuss der Innovationen rund um die Quantenalgorithmen. Sie helfen bei der Ressourcenvergabe in Netzen, erhöhen Daten- und Übertragungssicherheit und revolutionieren das Internet der Dinge.
Die weltweit existierende Wüste unstrukturierter Datenbanken wird mit Hilfe der Quantensuche geordnet. Big Data und Suchmaschinenoptimierung stehen hier ganz oben auf der Agenda.
Quantencomputing schiebt überdies das Thema KI kräftig an. Durch das Handling außerordentlich großer Datenmengen werden Fortschritte bei der Spracherkennung, der Bildanalyse und der automatisierten Entscheidungsfindung erwartet.
Links
>>https://www.datacenter-insider.de/der-quantenchip-google-willow-a-22cba7019ffb13b968c235406cc77407/
>>https://thequantuminsider.com/2025/05/16/quantum-computing-roadmaps-a-look-at-the-maps-and-predictions-of-major-quantum-players/
>>https://niiu.de/quantencomputing-2025-durchbrueche-und-anwendungen-in-sicht/
>>https://www.elektronikpraxis.de/quantencomputing-fortschritte-anwendungen-sicherheitsrisiken-a-717407ecc75f3653212316e8b27521ce/
>>www.heise.de
>>https://www.munich-quantum-valley.de/de/
>>https://www.fz-juelich.de/de/aktuelles/news/pressemitteilungen/2023/das-europaeische-quantencomputer-projekt-opensuperq-wird-erweitert
>>https://ista.ac.at/en/home/
>>https://informatecdigital.com/de/Beispiele-und-praktische-F%C3%A4lle-zum-Quantencomputing/