Köln: 22.–23.05.2024 #polismobility

DE Icon Pfeil Icon Pfeil
DE Element 13300 Element 12300 EN
DIE BERECHNUNG DER WELT

WIE QUANTENCOMPUTING EINE NEUE ARA EINLÄUTET

Seite teilen
DruckenSeite drucken Lesedauer ca. 0 Minuten

Prof. Sabina Jeschke schildert, wie Quantencomputer schon bald die Berechnung von Lösungen auf ein neues Level heben werden.

Prof. Sabina Jeschke © Deutsche Bahn AG/Max Lautenschläger

Prof. Sabina Jeschke © Deutsche Bahn AG/Max Lautenschläger

Quantencomputer verlassen das binäre Rechenverfahren der Bits und bilden Quantenzustände (sogenannte Superpositionen) und deren Verschränkungen von Qubits ab, was bedeutet, dass komplexe Berechnungen in Gleichzeitigkeit aller Lösungsvarianten durchgeführt werden können. Diese neue Art zu rechnen wird vielfältige Einsatzgebiete finden, in der medizinischen Forschung, Materialentwicklung und auch im Bereich der Mobilität und Logistik. Worin sehen Sie die prägnantesten Entwicklungskorridore für die Anwendung von Quantencomputing im Bereich Mobilität?

Derzeit müssen wir bei komplexen Systemen, wie der Modellierung von DNA-Faltung, der Modellierung des Weltalls oder einem Klimamodell, sehr viele Vereinfachungen an den Modellen vornehmen, weil wir ansonsten Rechenzeiten erhalten, die in der Größenordnung von 20.000 Jahren liegen würden. Mit Quantencomputern können wir diese Simulationen korrekt rechnen. Anstatt alle möglichen Linearisierungen oder den Wegfall von Effekten zu akzeptieren, bilden wir Systeme in der Komplexität ab, wie sie sich in der Natur darstellen. Digital Twin ist das Schlagwort; und die Ergebnisse der Modellierungen sind direkt verwendbar für die weitere Anwendung.

Zudem werden echtzeitfähige Anpassungen und Optimierungen von Systemen möglich sein ...

Genau, dies wäre der zweite Punkt. Schauen wir uns ein System an wie die Deutsche Bahn, mit dem Ziel, einfach einen automatischen Fahrplan zu erstellen – für alle Züge, alle Schienen und alle Bahnhöfe – nur diese drei Teilsysteme, ohne Berücksichtigung der Personaleinsatzplanung oder der Instandhaltung etwa, also sehr vereinfacht. Wenn wir dafür eine optimale Verkehrsplanung machen wollen, dann kommen wir für das deutsche Schienennetz auf Rechenzeiten, die es wohl ermöglichen, den Plan für das nächste Jahr zu erstellen, aber spontane Einflüsse, wie z.B. Störungen, überfordern die Rechnung. Wie muss man das System steuern, um so schnell wie möglich back to plan zu sein? Dazu stehen ungefähr ein bis zwei Minuten zur Verfügung, während die entsprechende Rechenzeit heute irgendwo bei 20, 30 Tagen liegen würde. Deshalb müssen heute solche Entscheidungen von Menschen getroffen werden, die zwar sehr gut ausgebildet sind, aber nur eine lokale Optimierung vornehmen können. Und genau hier könnte man solche Optimierungs- und Simulationsumgebungen nutzen.

Das schließt auch ein, dass der gesamte Lösungsraum betrachtet wird. Man kann in Echtzeit die Best Solution anstatt der Good-enough-Solution ermitteln.

Genauso ist das. Wenn wir heute ein Optimierungsverfahren laufen lassen, dann wissen wir in der Regel, wie viel Zeit wir haben, um das Ergebnis zu ermitteln oder auch welches Budget wir für die entsprechende Rechnung in einem Rechenzentrum haben. Das führt dazu, dass wir dem Algorithmus eine bestimmte Rechenzeit zur Verfügung stellen. Es könnte sein, dass er in dieser Zeit das globale Optimum findet. Es ist in der Regel aber eine Lösung, die weit weg vom Optimum ist, weil man eben nicht durch den ganzen Lösungsraum durchgehen konnte. Die Konsequenz der Abweichung von Lösung zu Optimum ist „Waste“, also Verschwendung. Es kann den nicht-optimalen Einsatz der Human Resources betreffen. Es kann Waste of Diesel sein, wenn ich nicht die kürzesten Wege finde. Deshalb muss man versuchen, die besten Lösungen zu finden. Algorithmen laufen oftmals nur durch fünf oder zehn oder 20 % des Lösungsraums, wenn überhaupt; hierin steckt also enormes Optimierungspotenzial.

Ist die Fähigkeit zur Echtzeitoptimierung für die Steuerung autonomer Vehikel nicht eine gewisse Grundvoraussetzung, um die Sicherheit und die Funktionalität des Systems zu gewährleisten? Wie wird sich die Entwicklung von Quantencomputing auf den Bereich des autonomen Fahrens auswirken?

Wir werden in Simulationsumgebungen, in denen echte und auch synthetische Daten einfließen, Testszenarien in einer viel größeren Breite und Geschwindigkeit rechnen können. So können Situationen, Welten, Städte konstruiert werden, um das autonom fahrende Auto mit immer neuen Entscheidungen zu konfrontieren. Damit können wir die Trainingsszenarien in einer unglaublichen Weise erweitern.

In der (subsymbolischen) KI gibt es zwei große Stränge: Die datengetriebenen Verfahren (supervised, unsupervised) und den Bereich des Reinforcement, der wie „Blinde Kuh“ funktioniert. Man tastet sich hierbei an die Lösung heran, was dazu neigt, am Anfang sehr langsam zu sein. Wenn ich so einem komplexen System erlaube, alles auszuprobieren, dann probiert es auch alles aus – und damit auch einen Haufen Unsinn. Daher steigert es sich erst sehr langsam zu einem guten Ergebnis. Deshalb nutzt man Reinforcement-Verfahren heute nur in speziellen Kontexten. Wenn ich aber diese frühe Lernphase vorneweg massiv abkürzen könnte, einfach weil das System viel schneller rechnet, dann gewinnen diese Verfahren enorm an Bedeutung. Und das ist ein sehr wichtiger Punkt, denn für Reinforcement brauche ich keine Daten. Also fallen auch die ganzen Themen wie Privacy Issues, Verfügbarkeit von Daten und Anonymisierung weg.

Ich nehme an, es wird ein Netz aus Quantenrechnern geben, zu deren Ressourcen ein Cloud-Zugang aufgebaut wird. Wie ist derzeit der Stand und wie kann man mit den künftigen Quantenressourcen rechnen?

Wir werden voraussichtlich eine große Pluralität von verschiedenen klassischen und neuen Quantenrechnern sehen und gehen davon aus, dass bestimmte Quantenrechner für bestimmte Anwendungen besonders gut geeignet sind. Daher werden wir eine dynamische Rechenzentrum-Orchestrierung brauchen: Die einkommenden Tasks werden analysiert und auf die Rechner geleitet, auf denen sie optimal durchgeführt werden können. Dies geschieht entweder in klassischen Rechenzentren, die mit Quantenrechnern aufgerüstet werden, oder über virtuelle Rechenzentren, die mit Lizenzen der Anbieter arbeiten. Mehrheitlich werden die Rechner in Clouds eingebunden sein, weil in den nächsten Jahren das Tieftemperatur-Quantencomputing überwiegen wird; hier müssen die Rechner auf - 273°C gekühlt werden. Perspektivisch, gegen Ende des Jahrzehnts, werden wir auch Raumtemperatur-Quantencomputing sehen. Wir gehen davon aus, dass die Tieftemperatursysteme ein Zehntel der Energie heutiger HPCs (High Performance Computer) benötigen und dass die Room-Temperature-Systeme bei ein bis fünf Prozent des heutigen Rechnerverbrauchs liegen werden. Damit spielen Quantencomputer auch eine große Rolle für das Thema „Green IT“.

Dabei wird es branchenspezifische Quantenapplikationen und spezielle Algorithmen brauchen. Wie läuft die Entwicklung dieser Codes?

Quantencomputing basiert auf den Prinzipien der Quantenphysik, die Hardware wird völlig andersartig realisiert; und das bedeutet, dass die alten Programmiersprachen nicht funktionieren und die alten Codes nicht mehr laufen werden. Es machen sich nur wenige klar, dass sie nicht ohne Weiteres ihre alte Simulationsumgebung nehmen und diese einfach auf einem Quantenrechner durchführen können. Prinzipiell gibt es zwei Möglichkeiten, entweder den Greenfield-Ansatz, bei dem man eine komplett neue Anwendung schafft und die veraltete auslaufen lässt. Oder das, womit wir uns in meiner Firma Quantagonia beschäftigen. Wir halten es für einen unnötigen, großen Verlust von Intellectual Property, wenn man alles neu schreiben würde. Das ist auf der Zeit- und Finanzschiene nicht darstellbar, und alte Codes haben auch Vorteile – sie sind nämlich auf Herz und Nieren getestet. Wenn man die Codes neu schreibt, hat man erst einmal alle Bugs dieser Welt. Aus diesem Grund entwickeln wir Lösungen, die mit Hilfe von künstlicher Intelligenz eine Art Translator bilden, der bestehende Codes in Quantum-Codes transformiert. Im Quantencomputer wird anders modelliert. Daher muss man nicht Wort für Wort die Syntax, sondern die Art und Weise der Modellierung austauschen.

Gibt es bereits Pilotprojekte, in denen mit Quantencomputing gearbeitet wird?

Pilotprojekte, etwa bei IBM oder D-Wave, zielen meist auf Optimierungsanwendungen ab, zum Beispiel die Steuerung von Schiffen für die Verteilung von Flüssiggas. Im großen Stil gibt es das insbesondere schon mit Annealern, einer Art Zwischenstufe zu Quantencomputern, weil diese Rechner schon zur Verfügung stehen. Außerdem gibt es natürlich kleinere Use Cases auf den superfluiden Rechnern von IBM usw., bei denen man sich eher mit dem Gesamtsystem vertraut macht und lernt, wie damit umzugehen ist.

IBM-Quantenwissenschaftlerin Dr. Maika Takita im Labor © IBM

IBM-Quantenwissenschaftlerin Dr. Maika Takita im Labor © IBM

Wie können sich Unternehmen mit dieser neuen Technologie vertraut machen?

Verkürzt kann man tatsächlich sagen: Perspektivisch werden alle Quantencomputing einsetzen, viele haben das nur noch nicht realisiert. Wir gehen davon aus, dass 2025 Tieftemperatur-Quantencomputing zur Verfügung steht. Das ist also nicht weit weg, wenn man sich vergegenwärtigt, was für einen großen Change die Technologie darstellt und welche vorbereitenden Tätigkeiten angebracht sind. Ich rate zu einem strategischen Ansatz, der die wichtigsten Fragen beleuchtet: Welche prinzipiellen Use Cases sehe ich in meiner Organisation? Welchen Ökosystemen sollte ich mich anschließen, um mit Partnern offen über Strategien und Change-Prozesse sprechen zu können? Mit welchen Universitäten sollte ich partnern? Habe ich ein Team, mit dem ich dieses Thema konsequent verfolgen kann, sodass ich Personal aufbaue, das zu Quantencomputing sprechfähig ist? Passen meine Governance-Prozesse?
Companies, die eine gute Cloudifizierungs- und Digitalstrategie verfolgen, sind generell besser vorbereitet, denn sie können über die Cloudifizierung schnell auf solche ersten Rechner zugreifen, erste Use Cases rechnen, Proof of Concept machen, sich ins Thema einarbeiten.

Was würden Sie Unternehmen oder Vorständen raten, wie sie sich auf derartige Bewegungen vorbereiten können?

Mit einer sauberen Strategieentwicklung, und zwar jetzt. Man sollte sich die Konkurrenzsituation vergegenwärtigen, die entsteht: Es wird Unternehmen geben, die born-Quantum sein werden. Diese müssen bestimmte Untiefen nie durchlaufen, weil sie von vornherein in die Mitte ein Datensilo gestellt haben und daran ihre Services aufhängen. Wir werden auch sehen, wie Unternehmen beispielsweise Simulationsumgebungen bereitstellen für die Produktion von neuen Komponenten, von neuen Materialien. Und wenn wir jetzt noch dazunehmen, dass durch das ganze Thema Nachhaltigkeit sowieso ein enormer Innovationsbedarf entsteht, wird der Handlungsdruck offensichtlich. Es ist sehr wichtig, Technologiekompetenz im Vorstand aufzubauen, einen Technologie-Scan durchzuführen und die Frage zu stellen, welche Technologien entwickelt werden und sich durchsetzen werden. Als Vorstand selbst dieses Radar offen zu haben, permanent auf neue Entwicklungen zu achten, die Zeitlinie abzuschätzen und sich zu fragen, was das für das Unternehmen und seine potenzielle Konkurrenz bedeutet – das ist die Hauptaufgabe eines Vorstands.

Wunderbar. Ich glaube, damit haben wir diesen Appell gut abgeschlossen. Vielen Dank für das anregende Gespräch.

PROF. DR. SABINA JESCHKE

Prof. Sabina Jeschke © Deutsche Bahn AG/Max Lautenschläger

Prof. Sabina Jeschke © Deutsche Bahn AG/Max Lautenschläger

ist Managerin, Gründerin und Wissenschaftlerin. Seit Januar 2023 verstärkt sie Arthur D. Little als Senior Executive Advisor in der Technologieberatung. Nach über drei Jahren als Vorständin „Digitalisierung und Technik“ bei der Deutschen Bahn AG und einer zwölfjährigen Karriere als Universitätsprofessorin (Berlin, Stuttgart, Aachen) gründete sie im Dezember 2021 das Start-up Quantagonia GmbH. Seit Oktober 2021 ist sie Vorstandsvorsitzende des Start-up-Accelerators KI Park e.V. in Berlin. Parallel dazu gründete sie im April 2021 das Start-up Arctic Brains AB in Jämtland/Schweden mit Schwerpunkt auf KI-Beratung und -Entwicklung. Sabina Jeschke ist eine erfahrene Aufsichtsrätin, zuletzt nahm sie im Herbst 2021 das Mandat für Vitesco (Carve-out von Continental) an. Sie hält eine Honorarprofessur der TU Berlin und ist Mitglied des CxO-Councils der Friedrich-Alexander-Universität Erlangen-Nürnberg. Sabina Jeschke studierte Physik, Informatik und Mathematik, promovierte an der TU Berlin und war für Forschungsaufenthalte am AMES Research Center der NASA in Kalifornien und am Georgia Tech in Atlanta.

Autor

Michael Müller