Quantentechnik: Revolution mit wohlkalkulierter Verzögerung
Quantencomputer lösen bisher bravourös hochkomplexe Simulations- und Optimierungsaufgaben. Der alltagstaugliche Einsatz lässt auf sich warten. Mit der Beseitigung der Fehleranfälligkeit und Erhöhung der Verfügbarkeit wird sich die innovative Technologie dennoch breitenwirksam durchsetzen. Hand in Hand mit der Künstlichen Intelligenz geht die technische Evolution ihren nächsten großen Schritt!
Parallel zur Implementierung von bahnbrechenden Quantencomputer-Anwendungen, laufen Anstrengungen die technischen Macken in den Griff zu bekommen. Rund um den Globus wird nach Lösungen bei Fehlerhäufigkeit und Stabilität gesucht, denn bis zum Jahr 2040 wartet ein Markt von fast 100 Milliarden Dollar. Es gilt: Raus aus dem Labor, hinein in die großtechnische Umsetzung.
Mängel minimieren
Einer der Hauptpunkte, der die Skalierung beim Quantencomputer hemmt, ist die sogenannte „Fehleranfälligkeit“. Das Qubits, „digitales“ Herz der neuartigen Rechenmaschinen, reagiert sensibel auf Umweltfaktoren wie Wärme und elektrische Felder. Bekanntermaßen besteht die Stärke der Qubits darin, dass sie – neben den üblichen Zuständen „0“ und „1“ – in Superpositionen verharren. Eine Quantenkonfiguration befindet sich damit in mehreren Zuständen gleichzeitig. Erst ein Messvorgang zwingt sie, sich spontan für einen bestimmten Status zu „entscheiden“. Bei der Quantenfehlerkorrektur werden physische Qubits zu logischen Qubits verbunden. Diese Art der Korrelation macht es möglich, Fehler in den einzeln vorliegenden Qubits zu berichtigen. Die Zustände der Qubits dürfen allerdings nicht direkt gemessen werden, da dies zu einem Kollabieren der Superposition führen würde. Die Fehler-Information wird mit speziell optimierten Messungen ausgelesen und Störungen werden vermieden. Surface-Codes bilden die meistangewandten Quantenfehlerkorrektur-Prozeduren, während die Low-Density-Parity-Check-Codes vor kurzem vielsprechend realisiert werden konnten.
Rechner für Spezialaufgaben
Der klassischen IT-Welt droht angesichts der Quanten-Evolution noch lange nicht das Aus, denn Quantencomputer werden selbst in fernerer Zukunft kaum eine tragende Rolle bei herkömmlichen Anwendungen wie Office-Applikationen oder Tabellenkalkulation spielen. Sie erobern sich viel mehr ihren Platz bei spezialisierten Vorgängen wie der Entdeckung bisher unbekannter Materialeigenschaften oder dem Verstehen chemischer Prozesse. Der Quantencomputer initiiert
ein „Experiment“ auf atomarer Ebene, das oft wiederholt wird. Der erhoffte „Quanten-Benefit“ zeigt sich voraussichtlich in der Sphäre hochkomplexer Skills, die in einer halbleiter- und clouddominierten Umgebung (noch) nicht lösbar sind. Dazu gehören Problemstellungen mit exponentiellem Rechenaufwand wie Molekülsimulation, Proteinfaltung, Kryptografie, Prozessoptimierung und das Training großer Sprachmodelle (LLM). Standard-Applikationen aus dem Alltag profitieren von quantenbasierten Vorzügen kaum, die gute alte Welt der Halbleiter-Schaltkreise und IP-Netzwerke bleibt uns also erhalten.
Schrittweise zum Standard
Dennoch zeichnet die Wissenschaft das optimistische Zukunftsbild einer umfassenden Implementierung der Quanten-Technologie:
Die Beschleunigung der internationalen Forschung und daraus folgende Anwendungen werden ganze Branchen verändern.
Algorithmische „Alltagsaufgaben“ kommen in Betracht, wenn die Rechenleistung aktuelle Grenzen sprengt. Ein beliebtes mathematisches Exempel mag dies illustrieren: Eine Fußball-Liga mit 18 Teams sucht den optimalen Zeitplan und die dazugehörigen Fußballstadien. Die 6,4 x 1015 Möglichkeiten lassen die IT im Rechenzentrum alt aussehen. Prognostizierte Zeit bis zum Ergebnis: 2.030 Jahre.
Entwickler erstellen jetzt schon quantentaugliche Algorithmen, die testmäßig auf einer regulären CPU-Architektur ausgeführt werden.
Die Kosten für quantenbasierte IT werden dank Cloud-Abonnements drastisch sinken.
„Digitale Zwillinge“, wie man sie aus dem Computer Aided Manufacturing (CAFM) kennt, revolutionieren die intelligente Visualisierung und Steuerung. Verkehrsströme, Klimamodelle und sogar Weltraummissionen werden ultrarealistisch nachgeahmt.
Energieoptimierungen werden in Echtzeit möglich sein.
Simulationsumgebungen werden vollständige und fehlerfreie Ergebnisse liefern.
Testreihen werden durch aufwändige „Was-Wäre-Wenn“-Szenarien sinnvoll ergänzt.
Zu hohe Erwartungen?
Quanten-Maschinen werden zu einem erweiterten Verständnis der physikalischen Welt beitragen und exakte Prognosen ermöglichen. Nur, wann? Tatsache bleibt, dass die Theorie einen gewaltigen Vorsprung herausgearbeitet hat, die Praxis hinkt hinterher. Im Jahr 2019 horchte die Fachwelt auf, als Google die „Quantenüberlegenheit“ zelebrierte. Im allgemeinen Hochgefühl wurde allerdings nur am Rand bewertet, dass die Leistungsfähigkeit der Rechner von der Skalierbarkeit abhängt. Allerdings ist die pure Anzahl der Qubits in einer Anordnung unerheblich, wenn man es nicht schafft, die Einheiten zu verbinden. Tenor: Die Möglichkeit, viele Quantenobjekte gleichzeitig zu steuern, muss deutlich verbessert werden. Ein vielversprechender Ansatz, die Quantenkohärenz (= die Fähigkeit von Teilchen, in einer Überlagerung von Zuständen zu verbleiben) aufrechtzuerhalten, bilden „Ionen-Fallen“. Geladene Atome oder Moleküle werden mittels elektromagnetischer Felder in Fallen festgehalten und mit Lasern manipuliert. Das Innsbrucker Unternehmen Alpine Quantum Technologies GmbH (AQT) stellt auf der Basis von Ionenfallen-Technologie Quantencomputer im 19-Zoll-Format her. Aktuell wird ein Hybrid entwickelt, der Quantencomputing mit üblichen Hochleistungsrechnern verbindet.
Gut für alles und alle?
Die nahezu endlosen Optionen, die Quantencomputer eröffnen werden, befeuern die Moral-Debatte. Das Fachgebiet „Quantenethik“ beschäftigt sich mit den gesellschaftlichen und individuellen Effekten der sich rasant entwickelnden Technologie. Die Vordenker:innen der philosophischen Teildisziplin mahnen an, dass sich die Quantencomputer-Welt unmittelbar auf Datenschutz, Wohlstand, Verteidigung und Gemeinwesen auswirken wird.
Quantencomputer knacken in naher Zukunft als sicher geltende Verschlüsselungsverfahren. Ethiker:innen fordern daher die Schaffung „quantenresistenter“ Krypto-Algorithmen.
Destruktive Anwendungen für den militärischen Sektor bzw. Instrumente zur massenhaften Überwachung sind im Vormarsch. Auf Wissenschaft, Unternehmen und staatliche Einrichtungen kommt dabei ein besonderes Maß an Verantwortung zu.
Verwerfungen auf dem Arbeitsmarkt und soziale Unterschiede müssen vorab bedacht und nötigenfalls reguliert werden.
Das stark erweiterte Training von Sprachmodellen wird dazu führen, dass humane Eigenschaften wie Kreativität, Intuition und Empathie vorgegaukelt werden. Diese Algorithmen müssen uneingeschränkt offengelegt und von menschlichem Denkvermögen abgegrenzt werden.
Der freie Zugang zur Quanten-Technologie für alle ist dann gewährleistet, wenn sich Staaten untereinander auf ein demokratisches, sozial umsichtiges und wirtschaftlich faires Procedere einigen.
An der Universität Innsbruck hat sich im Jahr 2022 eine „Ethik-Denkwerkstatt“ etabliert. Dort werden technologische Prozesse aus geistes- und rechtswissenschaftlicher Sicht hinterfragt. Gearbeitet wird interdisziplinär an den Instituten für Philosophie, Systematische Theologie, Christliche Philosophie, Theorie und Zukunft des Rechts und am Digital Science Center. 2025 fiel der Startschuss für das erste juristische Projekt zur „Zukunft der Quantentechnologie“. Den Zuschlag erhielt das Innsbrucker Quantum Ethics Lab unter der Leitung von Univ.-Prof. Mag. Dr. Matthias C. Kettemann, LL.M. (Harvard).
Philosophie warnt vor Extremen
Quantentechnologie in enger Umarmung mit Künstlicher Intelligenz liefert den Stoff für Spekulationen. Der Kosmologe und Wissenschaftsphilosoph Max Erik Tegmark, der seit dem Jahr 2000 am „Massachusetts Institute of Technology (MIT)“ lehrt, beschreibt einige extreme Positionen. Sie könnten der ScFi-Literatur entsprungen sein: Unter dem Begriff „Superintelligente Kontrolle“ versteht er die globale Observation durch Governance-Systeme. Passgenaue Algorithmen und gigantische Datenmengen lassen Überwachung in Echtzeit zu. Von staatlicher Seite wird, bei Bedarf, regulierend in aktuelle Vorgänge eingegriffen. Bedrohlicher erscheint Tegmarks Konzept eines „Benevolent Dictator“, also eines wohlwollenden digitalen und hochvernetzten KI-Autokraten. Seine Entscheidungen werden objektiv gewonnen, damit ist ihm die Gunst der Untertanen sicher. Das Gedankenexperiment „Gatekeeper“ verhindert die Entstehung einer noch mächtigeren Intelligenz. Der „Protector“ stellt eine omnipotente KI in Union mit Quantenrechnern dar. Die Maschine greift in Vorgänge ein und verhindert Entscheidungen, die von Gefühlen geleitet sind. Der „Schutzgott“ versteckt sich allerdings so geschickt im weltumspannenden Datenmeer, sodass Menschen an seiner Existenz zweifeln. „Reversion“ bezeichnet das Phänomen, dass jede Bewegung eine Gegenbewegung hervorruft. Technischer Fortschritt wird gelähmt durch die Rückkehr zur „guten, alten Zeit“.
Forscher:innen weltweit sind sich einig darüber, dass fundamentale Änderungen in Gesellschaft und Lebensstil – bedingt durch KI und Quantencomputing – nur im Zusammenspiel aller Stakeholder bewerkstelligt werden kann. Technik, Geistes- und Humanwissenschaften werden dann erfolgreich und nachhaltig den möglichen negativen Auswirkungen begegnen.
Links
>>https://altoo.io/de/was-ist-quantum-computing/
>>https://www.computerweekly.com/de/feature/Quantencomputing-Chancen-und-Mehrwerte-erkennen
>>https://de.newsroom.ibm.com/think-blog-dach?item=79
>>https://www.srf.ch/wissen/technik/quantenpower-fuer-die-industrie-quantencomputer-die-zukunft-rechnet-anders
>>https://www.it-daily.net/spezial/quantencomputer/fehlerkorrektur-fuer-quantencomputer-aber-wie
>>https://fastercapital.com/de/inhalt/Quantenethik--Ethische-Ueberlegungen-im-Alter-von-q.html
>>https://www.goethe.de/prj/zei/de/art/24432571.html
>>www.heise.de
>>https://www.aqt.eu/quantum-computers-and-supercomputers-together/
>>https://www.medialaws.eu/rivista/utopia-or-dystopia-potential-futures-of-ai-and-society/