Quantencomputer – heute, morgen, übermorgen?
Leserfrage: Quantencomputing gilt als Technologie der Zukunft. Entsprechende Systeme sollen an Geschwindigkeit alles übertreffen, was wir heute kennen. Der Digitalverband Bitkom beispielsweise ermuntert Unternehmen, sich bereits frühzeitig mit der Thematik zu befassen und sieht darin auch die Chance für einen Neustart der IT. Doc Storage dämpft allerdings die Erwartungen an Quantencomputing.
Antwort Doc Storage:
Inzwischen haben die viele Menschen gehört, dass Quantencomputer eine revolutionäre Technologie sind, und es wird uns annähernd tagtäglich in Nachrichten und anderen Artikeln präsentiert. Sie nutzen die größtenteils magischen Eigenschaften der Quantenmechanik, um bestimmte Probleme viel schneller zu lösen, als es normale Rechner es jemals könnten. Solche Probleme spannen sich von der Mathematik bis zum normalen Einzelhandel, von der Physik bis zum höheren Finanzwesen. Wenn wir die Quantentechnologie nur richtig einsetzen, so versucht man uns klar zu machen, sollten ihre Vorteile die gesamte Wirtschaft ankurbeln und die Wettbewerbsfähigkeit vieler Länder verbessern.
Die Vorteile von Quantencomputern wurden erstmals in den 80er Jahren des letzten Jahrtausends formuliert, blieben jedoch vollständig Theorie und waren leere Versprechungen. Was den Menschen damals und heute niemand zu sagen wagt, oder schlicht unter den Tisch fallen lässt - Quantencomputer sind außerordentlich schwierig zu entwerfen, zu bauen oder zu programmieren. Darüber hinaus werden sie durch Einflüsse in Form von Rauschen, Störungen und Verlust der Quantenkohärenz (die leider für den Betrieb entscheidend ist) lahmgelegt. Sie fallen auseinander, bevor eine nicht triviale Anwendung überhaupt annähernd die Chance hat, vollständig ausgeführt zu werden.
Dieser Verlust der Kohärenz (auch Dekohärenz genannt), der durch Vibrationen, Temperaturschwankungen, elektromagnetische Wellen oder andere Wechselwirkungen mit der Umgebung verursacht wird, stört und zerstört im Ende die exotischen Quanteneigenschaften des Rechners. Angesichts der auch heute noch überwiegenden Verbreitung von Dekohärenz und anderen Systemfehlern ist es unwahrscheinlich, dass Quantencomputer in absehbarer Zukunft befriedigende Ergebnisse aus Anwendungen mit auch nur bescheidenen Leistungen liefern.
Wenn auch unterschiedliche Lösungsansätze und deren Architekturen diese Probleme zu lösen versuchen, kann keine heute existierende Plattform die Kohärenz aufrechterhalten. Oder im geringsten Fall eine robuste Fehlerkorrektur bereitstellen, die für umfangreiche Berechnungen erforderlich wäre. Auf einen Durchbruch müssen wir hier wahrscheinlich noch Jahre, wenn nicht Jahrzehnte warten.
Millionen-Frage noch nicht gelöst
In der Zwischenzeit lautet die Millionen-Euro-Frage: wie erhält man auch nur ansatzweise nützliche Ergebnisse aus einem Rechner, der unzuverlässig und unbrauchbar wird, bevor eine typische Berechnung abgeschlossen ist?
Antworten hierauf werden an vielen Fronten gesucht. Forscher in der Industrie, der Wissenschaft und regional verstreuten Laboratorien testen eine Vielzahl von Methoden zur Reduzierung von Fehlern. Ein Ansatz besteht beispielsweise darin, auf der Grundlage der Ergebnisse von Berechnungen mit verschiedenen Rauschpegeln zu vorher zu sagen, wie das Ergebnis einer fehlerfreien Berechnung aussehen würde. Völlig andere Ansätze, sogenannte hybride quantenklassische Algorithmen, führen nur die leistungskritischen Abschnitte eines Codes auf einem Quantencomputer aus, während die anderen Teile auf robusteren »klassischen« Rechnern ausgeführt werden. Diese und andere Ansätze erweisen sich als nützlich, um mit den mit Störquellen durch setzten Umgebungen heutiger Quantencomputer umzugehen.
Während klassische Systeme auch mit verschiedenen Fehlerursachen zu kämpfen haben, lassen sich diese mit einer kleinen Menge an zusätzlichem Speicher und Logik korrigieren. Zwar existieren Schemata zur Quantenfehlerkorrektur, diese benötigen jedoch eine so große Anzahl von Qubits (Quantenbits), dass relativ wenige für die eigentlichen aktiven Aufgaben übrig bleiben. Und das wiederum reduziert die mögliche Größe der anstehenden Aufgabe auf einen winzigen Bruchteil dessen, was auf herkömmlichen Systemen laufen könnte.
Um deutlich zu machen, warum es wichtig es ist, mit dem Verbrauch von Qubits sparsam umzugehen: die heutigen hochmodernen, gatebasierten Quantencomputer verwenden Logikgatter, also solche, die auch Schaltkreise bilden, die in herkömmlichen Rechnern, Telefonen oder Tablets verbaut sind. 50 Qubits sind also lediglich ein winziger Teil verglichen mit den klassischen Bits, die in diesen Geräten zur Verfügung stehen – heutzutage Hunderte von Milliarden.
Auf der Suche nach dem Algorithmus
Das Problem ist, dass die Quantenmechanik unsere Intuition herausfordert. Man muss sich bemühen, die besten Algorithmen für die Durchführung mehr oder weniger sinnvoller Aufgaben zu finden. Um diese Probleme zu überwinden, entwickeln zahlreiche Teams weltweit Methoden zur Erzeugung und Optimierung von Algorithmen, die dann mehr oder weniger nützliche Aufgaben auf verfügbaren Quantencomputern ausführen.
Algorithmen sind Listen von Operationen, die einem Rechner mitteilen, dass und was er tun soll, ungefähr wie ein Kochrezept. Verglichen mit klassischen Algorithmen müssen aus den genannten Gründen diejenigen für Quantenrechner möglichst kurz gehalten werden. Darüber hinaus sind sie am besten auf spezielle Defekte der Umgebung und das Rauschregime einer bestimmten Hardware zugeschnitten. Hierdurch kann ein Algorithmus innerhalb des begrenzten Zeitrahmens mehr Verarbeitungsschritte ausführen, bevor die Dekohärenz die Wahrscheinlichkeit eines korrekten, zuverlässigen Ergebnisses wieder auf Null reduziert.
In den interdisziplinären Arbeiten zum Quantencomputing verfolgen annähernd alle Labore denselben Schritt, um Algorithmen effektiv zu machen und vor allem zum Laufen zu bringen. Die Hauptidee besteht darin, die Anzahl der Gatter zu reduzieren. Hiermit soll versucht werden, die Ausführung mit einem befriedigenden Ergebnis zu beenden, bevor Dekohärenz und andere Fehlerquellen eine Chance haben, die Erfolgswahrscheinlichkeit inakzeptabel zu verringern.
Hierbei wird maschinelles Lernen verwendet, um Quantenschaltkreise in optimal kurze Äquivalente zu kompilieren. Bis vor nicht allzu langer Zeit hat man Methoden des maschinellen Lernens auf klassischen Rechnern eingesetzt, um verkürzte Versionen für Quantenrechner zu erhalten. Seit zirka zwei Jahren verwendet man derzeit verfügbare Quantencomputer, um ihre eigenen Algorithmen zu kompilieren. Hierdurch wird der extrem hohe Rechenaufwand vermieden, die Quantendynamik auf klassischer Hardware zu simulieren.
Da dieser Ansatz grundsätzlich kürzere Algorithmen ergibt, verringern diese die Auswirkungen der externen Störungen. Ein solcher Machine-Learning-Ansatz kann aber auch Fehler algorithmus- und hardware-plattformspezifisch vermeiden helfen. Er könnte beispielsweise feststellen, dass ein Qubit weniger »laut« ist als ein anderes, wodurch der Algorithmus vorzugsweise »leisere« Qubits verwendet. In diesem Fall erstellt maschinelles Lernen einen allgemeinen Algorithmus, um die anliegende Aufgabe mit möglichst wenigen Ressourcen und Gattern zu berechnen. Auf diese Weise optimiert kann ein Algorithmus länger laufen. Diese Methode, die in eingeschränktem Umfang bereits auf Quantencomputern funktioniert hat, die der Öffentlichkeit beispielsweise in einer Cloud zur Verfügung stehen, nutzt auch die überlegene Fähigkeit dieser Rechner, Algorithmen für umfassende Probleme auf die für weitere Zukunft geplanten Quantencomputer zu skalieren.
Diese Arbeiten an Quantenalgorithmen werden sowohl Experten als auch Laien die Werkzeuge an die Hand geben, um Berechnungen auf diesen Systemen durchzuführen. Entwickler von Anwendungen können schon jetzt damit beginnen, die Möglichkeiten von Quantencomputern zur Erhöhung der Ausführungsgeschwindigkeit über die Grenzen herkömmlicher Hardware hinaus zu nutzen. Diese Fortschritte könnten alle ein ganzes Stück näher an robuste und damit brauchbare Quantencomputer bringen. Hiermit könnten wir dann komplexe Probleme lösen, die selbst die schnellsten klassischen Architekturen in die Knie zwingen. Fragt sich eben nur, wann diese brauchbaren Systeme zur Verfügung stehen…
Weiß eigentlich noch jemand, was Transputer waren? Sollten diese nicht auch mal die Welt retten, so behauptet von Inmos und anderen…
Gruß
Doc Storage
- Doc Storage: Backups sind für Disaster-Recovery nutzlos
- Doc Storage: Backup-Monitoring von grundlegender Bedeutung
- Doc Storage: Standortbestimmung Tape, HDD und Flash
- Doc Storage: Was ist ein Ingress- und Egress-Datenverkehr?
- Doc Storage: Unterschiede der Performance-States von SSDs
- Doc Storage: SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?