"Schneller, höher, weiter" : Grundlagen der Quanten- und KI-Technologie
Transistoren, Laserlicht, die Magnetfeldresonanztherapie, Leuchtdioden, Solarzellen und Atomuhren gehören allesamt zum vorausgesagten Praxis-Inventar der Quantenphysik. Inzwischen auch der gleichnamige Computer, der weit mehr als eine neue technische Revolution einleiten könnte. Der Rechner der anderen neuen Art stellt alle bekannten Parameter bzgl. Performance in den Schatten. Das wird er auch müssen. Denn im Umfeld seiner Geburt lauert schon eine exponentiell wachsende KI mit einem unstillbaren Heißhunger nach Rechenleistung.
Das olympische Streben nach immer mehr Leistung treibt Grundlagenforschung und Anwendungs-Technologie gleichermaßen an. Ein „turning point“ löst den nächsten ab. Die spannendsten Meilensteine im Jetzt heißen Quanten-Rechner und Künstliche Intelligenz, der Siegeszug des genialen Traumpaares ist unaufhaltsam.
Gamechanger High-End-Physik
Algorithmen der KI leben von den altbekannten Ressourcen der digitalen Welt, von Prozessorleistung und der Bändigung breiter Datenströme. Beide Parameter rufen die Quanten-Technologie auf den Plan. Der Quantenprozessor, vor mehr als 40 Jahren vorausgesagt, versteht sich nicht als bloße Evolution gebräuchlicher digitaler Konzepte. In der handelsüblichen CPU repräsentieren Halbleiter-Schaltkreise die logischen Werte 1 und 0. In den künftigen Rechenwerken übernehmen quantenmechanische Zustände diese Funktion. Rechenvorgänge und algorithmische Bewegungen finden auf Ebene der Atome (oder kleinerer Einheiten) statt. Einen wesentlichen Anteil an der quantenphysikalischen Revolution hatte der österreichische Nobelpreisträger Erwin Schrödinger*), der das “Superpositionsprinzip” formulierte. Es besagt, dass sich der Zustand eines Quantensystems als Überlagerung mehrerer möglicher Einzelzustände darstellen lässt. Die Quantentechnologie gesellt sich damit zu den „Applied Sciences“. Das exponentielle Wachstum dieses Gebiets zeigt sich im Fortschritt der experimentell und mathematisch bestätigten Inhalte. Alle drei bis fünf Jahre verdoppeln sich die Erkenntnisse in der Quantenphysik, bei der Erforschung der Künstlichen Intelligenz reichen sogar ein bis zwei Jahre. Im Vergleich dazu müssen Mathematiker:innen 20 bis 30 Jahre für einen 100%-igen Zuwachs einplanen.
*) Schrödingers Grabstätte befindet sich Alpbach.
Und so funktioniert´s
In Computern werden Informationen üblicherweise in Bits dargestellt. In den hochintegrierten Schaltkreisen liegt dann ein elektrisches Potential entweder über einem Pegel („1“) oder unterhalb („0“) eines Pegels. Auch Quantencomputer arbeiten nach dem binären Prinzip. Die Basis „1“ oder „0“ wird hierbei aus der Quantenmechanik gewonnen. Abgleitet werden die Zustände beispielsweise aus dem Spinvektor (= Eigendrehimpuls) von Elektronen. Zeigt er nach „oben“, erhält man die „1“. Zeigt er nach „unten“, erscheint die „0“. Das Ganze lässt sich auch mit Energiemengen in Atomen / Molekülen oder mit der Flussrichtung eines elektrischen Stromes in einem Supraleiter bewältigen. Oder man fängt die niedrigsten Energielevels von Ionen (elektrisch geladenen Atomen / Molekülen) ein und generiert auf diese Weise Quanten-Bits („Qubits“). Die Schalter-Analogie mit diskreten Werten „0“ und „1“ hat spätestens jetzt ausgedient, denn Qubits können dank Superposition im selben Moment „0“ und „1“ repräsentieren. Dann liegt ein Quantenobjekt in den beiden Zustandsvarianten zum gleichen Zeitpunkt vor. Das Prinzip der „Verschränkung“ bewirkt, dass Qubits miteinander „kommunizieren“, egal wie weit sie voneinander entfernt sind. Eine Änderung bei Qubit 1 beispielsweise beeinflusst unmittelbar Qubit 2. Qubits werden schließlich zu Quantenregistern zusammengefügt.
Beim alltäglich eingesetzten Rechner führen Logikgatter („Gates“) die Basisoperationen auf den Bits durch. Das Quantengatter hingegen ist kein physisches Produkt. Vielmehr steht es für die physikalische Änderung eines oder mehrerer Qubits. Die Art der Manipulation hängt von der Beschaffenheit der Qubits ab. Ein Magnetfeld etwa kann den Spin von Elektronen beeinflussen, ein Laserpuls den Anregungszustand eines Atoms. Das Quantengatter wird interpretiert als Aktion, die auf ein Quantenregister einwirkt. Die Gatter werden mit Hilfe von „Schaltplänen“ beschrieben, die an Bekanntes anknüpfen. Quantengatter mit einem Eingang tragen zum Teil die Namen berühmter Mathematiker und Physiker, wie etwa Jacques Hadamard oder Wolfgang Pauli.
Wirklich schneller?
Rechengeschwindigkeiten traditioneller Systeme lassen sich mit dem Quanten-Computing nicht einfach vergleichen. Der passende Algorithmus kann spezifische Problemlösungen im Team mit der zukünftigen Technologie tatsächlich exponentiell beschleunigen. Superposition und Verschränkung ermöglichen parallele Vorgänge, der PC oder Server trottet mit sequenziellen Methoden nach. Bei den Rechnern künftiger Bauart entsteht der Geschwindigkeitszuwachs eben durch quantenmechanische Phänomene, beim „alten“ PC reizt man immer noch Taktfrequenz, Architektur, RAM-Größe, Parallelisierung und Anzahl der Prozessoren aus. Klarerweise wird prognostiziert, dass Quanten-Rechner für rechenintensive Skills in der Medizin, bei der Wettervorhersage und Klimaforschung, bei Predictive Analytcs mit astronomischen Datenmengen, bei Kryptografie und Künstlicher Intelligenz punkten werden.
Hier wird der „Quantenvorteil“ jetzt schon sichtbar:
- Grover-Algorithmus: Gesucht wird in einer unsortierten Datenbank mit N Einträgen in O Schritten (O = Wurzel aus N) und mit O Speicherbedarf (O = log N). Ist quadratisch schneller als bisher genutzte Verfahren
- Shor-Algorithmus: Ein Trick, mit dem Quantencomputer große Zahlen in ihre Primfaktoren (Kleinere Primzahlen, die eine größere Primzahl teilen können; z. Bsp. 21: 3 und 7) zerlegen können. Exponentiell schneller als klassische Rechner
- Simulation: Der “Variational Quantum Eigensolver (VQE)” löst Probleme in der Quantenchemie, Simulation und Optimierung. Bei der digitalen Modellierung von Molekülen stehen wenige Sekunden mit Quanten-Computern einem Aufwand von Jahren mit herkömmlichen Rechnern gegenüber
- Optimierung: Der „Quantum Approximate Optimization Algorithm“ schafft eine höhere Treffsicherheit bei mathematischen Fragestellungen rund um Logistik und Finanzen
- Sichere Kommunikation: Mit Hilfe der Quante-Kryptografie lassen sich abhörsichere Datenkanäle aufbauen. „Angreifer“ verändern den Datenstrom, was wiederum erkannt wird
- Messung: Stickstoff-Fehlstellen-Zentren in Diamanten gelten als die wichtigsten Emitter bei einer Festkörper-Photonenquelle. Sie werden bei der Quantenkryptografie eingesetzt
KI: Vorbild Mensch
Quanten-Computer starten gerade richtig durch. Der Zeitpunkt ist günstig, denn der Fortschritt bei Machine und Deep Learning orientiert sich stark an der Rechner-Performance und dem Handling enormer Datenströme. Der technische Status von vernetzten Rechnern und Rechenzentren wird naturgemäß die Künstliche Intelligenz weiterhin befeuern.
Die Psychologie liefert das Vorbild. Intelligenz wird als Potenzial definiert, kognitive Leistungen zu vollbringen, speziell beim Problemlösen. Die Lehre von der menschlichen Seele interessiert sich hierbei besonders für die Frage, wie erworbene Kenntnisse oder erlernte Fähigkeiten in neuen, unbekannten Settings zielorientiert angewendet werden. Im Zusammenhang mit Intelligenz werden häufige Techniken untersucht, etwa „Lernen am Modell“, „Trial and Error“ und „Einsichtiges Lernen“. Genau in diesem Sektor setzt Künstliche Intelligenz an. Sie schafft die digitale Basis für Maschinen, die Aufgaben erfüllen, bei denen im „Normalfall“ menschliches Denk- und Problemlösungsvermögen gefordert wird.
Synthetische neuronale Netze
Die Informationstechnologie profitiert von den Einblicken der Naturwissenschaftler:innen in unser Gehirn. Werden Neuronen vernetzt, erhalten Signale eine Art „Vorzeichen“. Sie können dann, je nach Prozess, an der Verknüpfungsstelle gewichtet, verstärkt oder abgeschwächt werden. Die kognitiven Vorteile des menschlichen Denkapparates spiegeln sich in den künstlichen Netzen wider:
- Komplexe Muster werden erkannt
- Regeln für Mustererkennung müssen nicht abgeleitet werden
- Die Verarbeitung der Muster passiert intuitiv
- Logik und Regeln müssen „trainiert“ werden
- Neuronale Netze lernen implizit
Künstliche neuronale Netze finden ihren Einsatz beim Maschinellen Lernen und Deep Learning, beides unverzichtbare Grundlage der Künstlichen Intelligenz. So werden Skills von Computern gemeistert, die zu komplex sind, als dass man sie mit festen Regeln beschreiben könnte.
„Machine Learning“ und „Deep Learning“
Machine Learning erzeugt Handlungsvorschriften (Algorithmen) für das Bewältigen von Aufgaben. Vorhandene Daten werden in Modelle „verpackt“, sodass treffsichere Vorhersagen möglich werden. Die Qualität des Outputs misst sich an der Fülle des vorhandenen Datenmaterials. Computer erkennen Zusammenhänge, Relationen und wiederkehrende Strukturen selbst.
Beim „Supvervised Lerning“ werden die Algorithmen mit gekennzeichneten Daten versehen und trainiert. Eingaben werden mit Ausgaben „gelabelt“. Danach folgt der Testlauf mit ebenfalls markierten Daten, allerdings bleibt dem Algorithmus selbst die Markierung verborgen. Damit wird gemessen, wie treffsicher Algorithmen arbeiten. „Überwachtes Lernen“ wird bei Bilderkennung, Sprachverarbeitung, in der Medizin, im Finanzwesen und beim autonomen Fahren angewandt.
„Unsupervised Learning“ verzichtet auf im Voraus bekannte Zielwerte und eine „Belohnung durch die Umgebung“. Der Rechner ist auf sich selbst gestellt und erkennt Muster innerhalb des Eingabebereiches. Wird eingesetzt bei der Vorhersage von Börsentrends, bei Marketing und Spracherkennung.
Beim „Reinforcement Learning“, dem „bestärkenden/verstärkenden Lernen“, werden menschliche Prozesse imitiert, um einmal Erlerntes zu festigen. Dabei arbeitet ein KI-Agent (eine aktuelle Bezeichnung für Bot/Chatbot) autonom in einer dynamischen Umwelt. Er eignet sich die zielführende Strategie durch Versuch und Irrtum an. Maßgebend für den Erfolg ist dabei die Anzahl oder Intensität der geernteten Belohnungen.
Beim Deep Learning erfährt das einfachere lineare Lernmodell eine Erweiterung durch „Layer“. Die versteckten Schichten werden zwischen Eingabe und Ausgabe platziert. Die deutlich größere Menge an Verknüpfungen im künstlichen neuronalen Netz (analog unserem Gehirn!) erlaubt Analyse und Verarbeitung umfassender Datenmuster. Abstrakte Merkmale werden leichter aus der vorliegenden Datenmenge abstrahiert (Wiederholung, Häufung, Platzierung, …).
Schließlich ermöglicht „Natural Language Processing (NLP)“ das Erkennen gesprochener und geschriebener Sprache. Die berühmten virtuellen Helfer „Alexa“ und „Siri“ sind auf der Basis von NLP entstanden.
Der Weg zum großen Sprachmodell
„Large Language“-Modelle (LLM) bilden den Kern jeder KI. Generative KI (z. Bsp. ChatGPT) nutzt LLM. LLM agieren auf dem Level natürlicher Sprache. Das Modell repräsentiert die Zeichen- und Regelebene menschlicher Sprachen und kann unter Beachtung der Normen (Semantik, Syntax) eigenständig neue, sinnvolle Texte generieren. Zugrundegelegt werden schier unermessliche Datenmengen. Das LLM erkennt, versteht, fasst zusammen, erzeugt und sagt voraus. Seine Neuschöpfungen stammen aus den „Erinnerungen“ des früheren und aktuell weitergeführten Lerntrainings. Ein LLM besteht aus vier Hauptfunktionen:
- Tokenizer: Text wird in „Token“ zerlegt. Berücksichtigt wird hier der semantische Gehalt der Zeichen („Notrufnummern“ wird tokenisiert zu: Not ruf nummer n)
- Einbettung: Hier werden Token auf Vektoren abgebildet. Zwei bedeutungsmäßig verwandte Token ergeben einen Vektor („fahren + „laufen“ > Vektor 1, „Nummer“ + „Zahl“ > Vektor 2). Token können auch aufgrund ihrer Stellung im Satz vektorisiert werden („Subjekt a“ + „Subjekt b“ >Vektor 1, „Lokalergänzung a“ + „Lokalergänzung b“ >Vektor 2)
- Vorhersage: Berechnet wird die Wahrscheinlichkeit des nächsten Tokens. Zum Einsatz kommen künstliche neuronale Netze und Transformer-Modelle. Der Rechner macht Muster aus, die ein Mensch bei gleicher Fragestellung auch entdecken würde. Mit Hilfe der „Selbstaufmerksamkeit“ macht diese Funktion sogar Vorhersagen, wenn nur einzelne Sequenzen berücksichtigt werden
- Dekodierung: Der Weg zum lesbaren Text! Sobald eine Wahrscheinlichkeit für alle Token errechnet wurde, wird festgelegt, welcher Token ausgegeben wird. Dabei helfen Verfahren, die wahlweise den wahrscheinlichsten Token aussuchen oder seine Ähnlichkeit mit dem Kontext abwägen.
Bei der Dekodierung müssen die Algorithmen logische Entscheidungen treffen, die nur auf der Grundlage intensiven Trainings zum gewünschten Erfolg führen. Welcher Token wird hier wohl ausgegeben?
„Arme und ___ müssen entsprechend berücksichtigt werden.“
Reiche?
Beine?
Hände?
Bedürftige?
Vorbereitung ist dabei alles. Sprachmodelle werden mit immensem Datenvolumen und ebensolchem Rechenaufwand trainiert. Nach dem „Instruction Training“ zur exakteren Befolgung von Anweisungen werden Modelle bei Bedarf im „Fine Tuning“ genauer abgestimmt.
Links
https://www.ibm.com/quantum/technology
https://www.nature.com/articles/s41586-019-1666-5
https://link.springer.com/chapter/10.1007/978-3-658-41935-6_3
https://www.ionos.at/digitalguide/online-marketing/suchmaschinenmarketing/was-ist-unsupervised-learning/
https://datasolut.com/wiki/supervised-learning/
https://weissenberg-group.de/was-ist-ein-large-language-model/
https://www.iese.fraunhofer.de/blog/wie-funktionieren-llms/
https://www.spektrum.de/magazin/100-jahre-quantentheorie/827483
https://www.sagen.info/forum/media/erwin-schr%C3%B6dinger-grab-in-alpbach.29445/