Hat die NSA einen Quantencomputer?

Die Forschungen zum Thema Superconducting Computer reichen sehr weit zurück bis zum Cryotron und Dudley Allen Buck. In den 1980’er hat IBM die Forschungen dann weitergeführt in einem josephson junction Projekt, was dann in das HTMT Suercomputercomputing Projekt überführt wurde und mit dem dwave 2x Quantencomputer in der Gegenwart angekommen ist. Das IARPA Cryogenic Computing Complexity (C3) Programm sieht vor, dass Exascale Computing realisiert wird, also Systeme die um den Faktor 1000 schneller sind als heutige Top500 Supercomputer. Aber hat die NSA das womöglich längst realisiert, gibt es im im Keller des Utah-Datacenter cryo-Supercomputer?

Diese Frage kann man relativ leicht beantworten. Und zwar mit Hilfe einer Hypothese. Nehmen wir mal an, es gibt solche Computer noch nicht. Nehmen wir mal an, dass die cryo-Quanten-Technik erst noch entwickelt werden muss. Nehmen wir mal an, dass in der Vergagenheit alle Bemühungen in diese Richtung gescheitert sind. Dann lässt sich zu dieser Hypothese sehr viel belastbares Material finden. Es gibt auf Youtube Vorträge in denen erläutert wird, wie man auf keinen Fall Exascale Computer baut, und es gibt Paper in denen erläutert wird, warum die Cryro-Computer nie über das Stadium eines Prototypen hinausgekommen sind. Mal gab es Kühlungsprobleme, ein anderes Mal war der Hauptspeicher der Firma Hypres nicht einsetzfähig und beim nächsten Mal waren die Schaltzyklen zu langsam. Anders gesagt, anhand der vorliegenden Informationen lässt sich die These „Es gibt derzeit nocht keine Cryo-Computer“ gut beweisen.

Daraus kann man wiederum schließen, dass beide Seiten Recht haben. Diejenigen Verschwörungstheoretiker welche behaupten, die NSA hat im Geheimen Supercomputer entwickelt haben Recht, genauso wie jene die sagen sowas liege außerhalb der Möglichkeiten. Der Unterschied besteht darin, dass sich für diese These „es gibt sie nicht“ weitaus mehr und detailiertere Informationen finden lassen. Anders formuliert, wenn es irgendwo auf dem Planeten eine Fälscherwerkstatt für wissenschaftliche Dokumente gibt, dann hat sie offenbar ein Interesse daran, darzulegen, dass Quantencomputer erst noch erfunden werden müssen.

Was man mit solchen Systemen anfangen kann ist derzeit noch offen. Einige sagen, man könne sich einen Superconduction Computer als Workstation auf den Schreibtisch stellen und hätte dann eine Maschine die ein Petaflops an Leistung besitzt und auf dem man GTA V in maximaler Auflösung spielen kann. Andere sagen, mit diesen Computern ließe sich Human-Level-AI realisieren und die nächsten wollen einfach nur heute übliche Supercomputer durch etwas ersetzen, was Strom spart und damit die Umwelt schont. Im Kern dürfte es darum gehen, Rechenleistung preiswerter zu machen.

GPUs werden überschätzt

Als Geheimtipp in Sachen wissenschaftliches Rechnen wird nach wie vor die Verwendung einer GPU propagiert, so wurde beispielsweise in einem Paper untersucht ob und wie man über eine GPU einen PDDL Solver beschleunigen kann um damit SAT Probleme zu lösen. Die Annahme lautet, dass GPU Computing der grundsätzlich richtige Weg sei und man lediglich im Detail klären müsste wie man es dann macht.

Schauen wir doch einmal die Details an. Eine typische Mittelklassegrafikkarte von nvidia kostet 300 EUR und verbraucht 150 Watt. Man kann damit einerseits Spiele in hoher Auflösung ruckelfrei spielen, andererseits aber auch GPU Computing betreiben. Was ist die Alternative? Lautet die Alternative etwa, gar keinen Booster zu verwenden und nur mit CPU zu rechnen? Nein, die Alternative lautet, sich eine zwei CPU zu kaufen, beispielsweise eine Intel Core i5 welche ebenfalls 300 EUR kostet und ebenfalls 150 Watt verbraucht. Interessanterweise lassen sich Intel CPUs nicht nur einfacher programmieren, sondern sie sind auch leistungsfähiger als das nvidia pendant. Warum gibt es also diese Benchmarks wo versucht wird PDDL Solver auf einer GPU zum Laufen zu bringen während jedoch nicht untersucht, ob sich ein PDDL Solver auf einer Intel CPU betreiben lässt? Vermutlich deshalb, weil man bereit ist auf das Marketing von nvidia hereinzufallen. Das Motto lautet, dass GPU Computing zwar viel Strom verbraucht, nur minimale Verbesserung erbringt und noch dazu sehr kompliziert ist (Java 8 unterstützt es nicht), man es aber trotzdem gegenüber CPU Computing bevorzugt weil es cool ist.