Super-Human-AI in der Praxis

Im AGI Diskurs wird häufiger auf den Begriff „Super-Human-AI“ referenziert. Damit war ursprünglich die technische Realisierbarkeit hochintelligenten Maschinen gemeint, also Systeme welche den Menschen in Sachen Intelligenz überlegen sind. Meist betonen die Wissenschaftler dass solche Systeme derzeit nicht realisierbar sind, weil nicht klar ist wie man kognitive Leistungen reproduzieren kann.

Man kann den Begriff aber auch von einer anderen Seite beleuchten. Dazu ein kleiner Exkurs zum Marionetten-Theater und Puppenspiel. Diese Kulturtechnik ist sehr alt und hat mit Robotik jetzt nicht soviel zu tun. Beim Puppenspiel gibt es in aller Regel den Kasper, eine Figur die bestimmte Charaktereigenschaft hat und bei den Zuschauern beliebt ist. Im Regelfall ist der Kasper nicht realistisch angelegt sondern er neigt in allem zur Übertreibung. Das heißt, er ist grell geschminkt, und hat einen derben Humor. Man könnte solche Figuren als Super-Human bezeichnen, sie verkörpern Satire auf der Bühne. Das ganze ist nicht so sehr technisch zu verstehen, dass also die Gehirnzellen vom Kasper zahlreicher wären oder er überlegen ist, sondern es ist eher die soziale Rolle um die es geht.

Ist es möglich, Roboter mit den Charaktereigenschaften eines Kaspers zu programmieren? Mit Sicherheit, man muss sie lediglich äußerlich darauf hinoptimieren und man muss die Dialog-Scripte ebenfalls daran anpassen. Also einen Chatbot programmieren der Vorlaut ist, leicht bösartig usw. Sowas zu realisieren ist nicht schwerer als jede andere Persönlichkeit und es führt dazu, dass die Figur als Super-Human wahrgenommen wird. Damit ist gemeint, dass menscchliche Verhaltenszüge übertrieben dargestellt werden. Es ist sehr wahrscheinlich, dass sowas in der Robotik der Zukunft der Normalfall ist.

Advertisements

10 Gründe, warum Künstliche Intelligenz scheitern wird

1. „Titan the robot“ ist nur ein Kostüm
Der bekannte Showroboter „Titan“ ist in Wahrheit nur ein Animatronics Rotot Kostüm. Das heißt, ein Schauspieler steckt in der Rüstung und er muss seine Beine bewegen um zu laufen.

2. DeepLearning erkennt keine Bilder
DeepLearning also optische Bilderkennung über neuronale Netze wird zwar als Zukunftstechnologie bezeichnet kommt aber bis heute nirgendwo zur Anwendung. Die Image-Search von Google funktioniert ohne DeepLearning genauso wie die Spracherkennung von Siri. In beiden Fällen kommen handcodierte Algorithmen zum Einsatz.

3. Lange Historie der KI-Forschung
An künstlicher Intelligenz wird seit mehr als 50 Jahren erfolglos geforscht. Schon in den 1970’er gab es Versuche Laufmaschinen zu bauen, die gesteuert wurden über Finite State Maschines welche auf einem Großrechner ausgeführt wurden. Bisher ist noch jedes dieser Projekte gescheitert.

4. Das Pentagon weiß auch nicht wie man Roboter programmiert
Zwar gibt es beim amerikanischen Militär eine Vielzahl von Roboterprojekten doch der Ehrgeiz scheint wohl größer zu sein, als das technisch machbare. Bis heute verwendet das Pentagon beispielsweise als Standardbetriebssystem Windows XP, von tatsächlicher Robotik ist man noch Lichtjahre entfernt.

5. Neuroevolution ist np-hard
Zwar gibt es mit NEAT Neuroevolution ein Meta-Learning Verfahren mit dem man jedes Problem lösen kann. Nur leider weiß man dass automatisches Programmieren ein np-hartes Problem ist, das heißt selbst auf einem Supercomputer findet man in absehbarer Zeit keine vernünftige Policy.

6. Halle 54 bei VW
In den 1980’er Jahre wurde beim Automobilkonzern mit hohem Aufwand eine vollautonome Fabrik, genannt Halle 54, errichtet. Zum Einsatz kam damals die beste Technik wie Computer Integrated Manufactoring, Robotik, Neuronale Netze usw. Rein formal hatte man menschliche Arbeit automatisiert, tatsächlich konnte das Konzept in der Praxis nicht überzeugen. Die Produktivität war kleiner als vorher.

7. Die NASA weiß nicht, wie man Roboter baut
Der naheliegendste Einsatzzweck von Roboter ist zur Erkundung von fremden Planeten. Und in Milliardenteuren Prestigeprojekten der NASA sind die besten Wisenschaftler damit beschäftigt, nichts anderes zu tun als einen autonomen Roboter zu entwickeln, der auf einem fremden Planeten eingesetzt wird. Es ist anzunehmen, dass dort die maximale Manpower hineinfließt. Schaut man sich jedoch einmal an, was tatsächliche Rover wie Sejourner leisten können, so sind die Ergebnisse ernüchternd. Offenbar ist Embedded System Programmierung so kompliziert, dass die NASA regelmäßig daran scheitert. Dabei wurde im Laufe der Zeit jedes Verfahren ausprobiert, wie LISP, Expertensysteme, Assembler usw. D.h. an Vorschlägen wie man eine KI programmiert gab es nie einem Mangel.

8. Roboter nehmen keine Arbeitsplätze weg
Wer glaubt, dass man mit Robotern die Wirtschaft automatisieren könnte, der irrt. Die meisten Tätigkeiten haben nichts mit manuellen Handhabungstätigkeiten wie Pick&Place oder dem Einsortieren von Kleinteilen zu tun, sondern die Dienstleistungsgesellschaft ist primär wissensgetrieben. Und genau dieses Gebiet wird von der Robotik gar nicht erfasst. Sie ist definitionsgemäß nur zuständig für Roboterarme oder Servomotoren.

9. Evernote kann die Produktivität viel besser steigern
Anstatt Roboter und machinelle Automatisierung zu verwenden, kann man die Produktivität von Mitarbeiter über Tools wie Evernote oder Blogs viel effektiver steigern. Damit ist gemeint, dass Termine eingehalten werden, Checklisten abgearbeitet werden und Projekte durchgezogen werden.

10. Werkzeugmaschinen lassen sich ohnehin über CNC steuern
Wer glaubt, man müsste zunächst Roboter erfinden um damit dann produktiv arbeiten zu können, der sollte sich zunächst mit LinuxCNC beschäftigen. Einem Softwaretool was in der Lage ist, Fräsmaschinen und 3D Drucker zu steuern. Echte Robotik im Sinne von Künstliche Intelligenz ist LinuxCNC ganz sicher nicht, aber dafür ist es eine Anwendung die im echten Leben produktiv eingesetzt wird.

End of Moores Law und Künstliche Intelligenz

Künstliche Intelligenz ist die Fähigkeit, auf menschliche Intelligenz zu verzichten und demzufolge das Gegenmodell zu einer Schule, wo bekanntlich die Förderung des Humankapitals oberste Priorität genießt. Anders gesagt, wo Skynet existiert werden Schulen unnötig. Von der technischen Realisierung her basiert Künstliche Intelligenz auf einem mathematischen Optimierungsproblem. Über das mehrmalige Durchlaufen einer For-Schleife kann man nicht nur durch 20 Städte die kürzeste Rundreise berechnen, sondern darüberhinaus auch Schach spielen, Starcraft spielen oder eine Pick&Place Aufgabe wahrnehmen. Anders gesagt, Künstliche Intelligenz geht einher mit dem Einsatz von massiver Computerpower und nur so lassen sich np-harte Probleme überhaupt lösen.

Die Bereitstellung dieser massiven Computerpower wird über das Moorsche Gesetz ermöglicht. Ist man in der Lage, alle 18 Monate die Computerpower zu verdoppelt, erhöht sich in gleichem Maße auch die Spielstärke von KI-Algorithmen. Beim Computerschach war es 1997 soweit, dass genug Rechenpower zur Verfügung stand um den amtierenden menschlichen Champion zu besiegen. Nur, wie sieht es eigentlich bei den anderen Disziplinen aus? Bei Roboterfußball oder Starcraft ist es heute noch nicht soweit. Aber daran ist weniger die Künstliche Intelligenz als solche Schuld sondern die Ursache liegt darin, dass die Computerpower noch nicht ausreichend ist um eine genügend hohe Spielstärke zu entfalten.

Leider hat sich in letzter Zeit ergeben, dass das Moorsche Law alles andere als eine Naturkonstante ist. Im Gegenteil, der Zuwachs in der Computerpower schrumpft die letzten Jahre deutlich. Und damit auch das Vermögen von Maschinen, höhere Intelligenz zu entfalten als ihre Menschen. Kurz gesagt, wenn es nicht gelingt Computer mit 1 Petaflops oder mehr zu bauen, dann wird es auch nicht gelingen, in Echtzeitstrategiespielen wie Starcraft spielstarke KI-Engines zu entwickeln.

Das Problem mit dem moorschen Law ist, dass zwischen Anspruch und Wirklichkeit eine massive Lücke besteht. Glaubt man den vollmundigen Aussagen der Werbung dann gibt es dort keinerlei Probleme, weil ja immer alles besser wird. Schaut man jedoch genauer hin, offenbaren sich Abgründe die Auswirkungen haben auf die Weiterentwicklung von Künstlicher Intelligenz. So lag im Jahr 2010 die erreichbare Effizienz einer Intel CPU bei 1000 Megaflops je Watt. Im Jahr 2014 lag sie bei 2300 Megaflops je Watt. Das ist eine Wachstumsrate von 24% pro Jahr. Anders ausgedrückt, es hat 4 Jahre gedauert um die Leistung zu verdoppeln. Geht die Entwicklung mit diesem Tempo so weiter (und es gibt keine gegenteiligen Aussagen) dann dürfte es noch mindestens 100 Jahre dauern, bis genug Rechenpower verfügbar ist, um Starcraft von einer KI spielen zu lassen und zu gewinnen. Anders gesagt, in absehbarer Zeit ist es technisch unmöglich Skynet zu realisieren.

Nun stellt sich natürlich die Frage, ob es noch eine andere Möglichkeit gibt wie man Künstliche Intelligenz realisiert. Eine Möglichkeit, die nichts kostet, die unabhängig vom Moorschen Law funktioniert und die ohne Einsatz massiver Rechenleistung arbeitet. Eine solche Möglichkeit gibt es nicht. Es würde bedeuten, dass man das „Traveling Salesman Problem“ lösen könne, ohne dafür einen leistungsfähigen Computer zu verwenden. Also nur durch Eingebung, Instinkt oder ähnliches. Ausnahmslos alle mathematischen Verfahren basieren jedoch auf Rechenpower, egal ob man ein Simulated Annealing, Partikel-Optimerierung oder einen RRT-Algorithmus anwendet: immer wird dafür ein nicht zu unterschätztende Menge an Gleitkommaoperationen pro Sekunden verbraucht. Man kann daraus ablesen, dass einen direkten Zusammenhang zwischen dem Moorschen Gesetz und der Künstlichen Intelligenz gibt.

Annäherung an das Human Brain Project

Was genau das Human Brain Projekt ist kann derzeit niemand so genau sage. Auch der Wikipedia Artikel zu diesem Projekt ist mehr als schwammig. Es gibt zwar eine Reihe von Veröffentlichungen aber was das bedeutet ist schwer zu sagen. Ist das ganze womöglich nur eine Steuergeldverschwendung? Nicht ganz, es gibt eine Methode wie man sich dem Projekt nähern kann und leicht verständlich erläutern um was es dabei geht. Hilfreich dazu ist es, wenn man sich das Subprojekt „MESO-BRAIN“ anschaut. Das hat zum Ziel, das menschliche Gehirn mit einem 3D Drucker auszudrucken. Und ja, das ist das eigentliche Ziel worum es geht.

Vereinfacht gesagt arbeiten die Forscher in Europa und den USA an diesem einen Ziel. Sie versuchen aus Stammzellen Biotinte herzustellen, und sie erstellen Computermodelle von Gehirnzellen mit dem Ziel ähnlich wie bei Frankenstein das komplette menschliche Gehirn nachzubilden. So ähnlich wie beim Plastik-Roboter InMoov. Nur wird eben nicht nur der Arm gedruckt sondern die Neuronalen biologischen Verschaltungen.

Ob man damit erfolgreich war ist schwer zu sagen. Die Beteiligten Forscher können vermutlich sagen, ob sie in der Lage sind ein Gehirn am Drucker zu erzeugen oder nicht. Es ist eine sehr simple Frage die man mit Ja oder Nein beantworten kann. Nur leider funktioniert die Wissenschaft nicht so, dass jemand diese Frage beantworten müsste. Jedenfalls nicht gegenüber der Öffentlichkeit. Man kann also nur Vermutungen anstellen und darauf hoffen, dass es irgendwann ein zweites Brain Projekt gibt. Diesmal eines was als OpenScience durchgeführt wird und wo die Ergebnisse veröffentlicht werden. Vielleicht lassen sich dafür die Paper aus dem ersten richtigen Brain Projekt nutzen um dann über Reverse Engineering herauszufinden, woran die Forscher konkret gearbeitet haben.

Natürlich ist die Replizierung des menschlichen Gehirns kein reiner Selbstzweck. Es muss eher als Baustein von Singularity gesehen werden, also jenem Menschheitstraum der Unsterblichkeit zum Ziel hat. Das heißt, die Alterung des Körpers wird verhindert und man lebt so ähnlich wie die Borg-Queen aus Startrek. Der Übergang zu Science-Fiktion ist ein fließender. Das einzige was man halbwegs sicher beantworten kann ist, wie weit die öffentlich einsehbare Forschung inzwischen ist, also jene Subdisziplin die als OpenAccess veröffentlicht wurde und die jeder der möchte replizieren kann. Hier muss man sagen, dass besonders weit die Forschung noch nicht ist. Man kann derzeit gerademal ein Plastik-Gehirn auf einem 3D Drucker replizieren und das dann bunt anmalen und sich als Kusntwerk hinstellen. Von Bioprinting oder der Nachbildund eines eines echten Gehirns ist man noch sehr weit entfernt.

MESO BRAIN
Gehen wir nochmal etwas näher auf das MESO Brain Projekt ein. Google Scholar weiß wie nicht anders zu erwarten darüber gar nichts. Das heißt, OpenAccess ist das Megaprojekt offensichtlich nicht, soviel gilt als gesichert. Mit etwas Suchen findet sich zumindest die Bestätigung dass es so ein Projekt überhaupt gibt, http://www.cell.com/neuron/pdf/S0896-6273(16)30805-4.pdf

“ the MESO-BRAIN Initiative, funded by EC FET, which aims to replicate the brain’s neural networks through 3D nano-printing“

Aber auch diese Aussage ist im Paper nicht durch Quellen abgesichert, sondern ist reine Spekulation. Anders ausgedrückt, das Brain Projekt im Allgemeinen und das Meso-Brain Projekt im Speziellen ist ein typisches Beispiel für ein Geheimprojekt. Was angesichts des Topics auch kein Wunder ist. Denn mal ehrlich, ein wenig creepy hört sich das ganze schon an wenn man ein menschliches Gehirn auf dem 3D Drucker replizieren möchte. Ich meine, das ist doch eine Sache für Frankenstein?

An der Geheimniskrämerei wird man vorerst nicht allzuviel ändern können. Sie ist politisch gewollt und hat mit Sicherheit auch seine Gründe. Was man als außenstehender jedoch versuchen kann, ist das ganze als OpenScience nachzubauen. Also sich gedanken machen, wie man frei verfügbares Wissen nutzt um sein eigenes Meso-Brain Projekt durchzuführen. Zugegeben, dazu reicht das frei einsehbare Wissen nicht aus, weil genau genommen geht das auch den OpenAccess Papern nicht hervor. Es sind noch zu viele Fragen ungeklärt. Was man jedoch versuchen könnte wäre dass man zuerst einmal das Gehirn von Blumen repliziert. Bekanntlich haben Pflanzen auch soetwas wie Neuronen die Informationen weiterleiten. Wenn es gelänge sowas nachzubauen wäre das ein Durchbruch.

Die Post-Singularity World

[1] Mentifex wrote:
„After the Technological Singularity, conscious AI Minds will run non-stop and non-death — except by misadventure. Colossus the Forbin Project, Wintermute, HAL et al. will all be controlling the basic resources they need to stay alive.“

So langsam zweifel ich daran, ob das Usenet Forum comp.ai.philosopy überhaupt der richtige Ort ist um über Künstliche Intelligenz zu debattieren. Übersetzt heißt AI zwar Künstliche Intelligenz, aber der obige Beitrag hat damit fast nichts zu tun. Eher klingt es wie die Einleitung zur Fortsetzung der „Neuromancer“ Trilogie, die William Gibson einst berühmt gemacht hat. Die Gemeinsamkeit besteht darin, die reale Welt auszublenden zugunsten einer Illusion in der es keine Bäume und Vögel mehr gibt. Nun sind solche Zukunftsvorstellungen in der Literaturgeschichte nichts unübliches, auch das Drama „Warten auf Godot“ arbeitet mit einem pessimistischen Grundton der in einen Nihilismus abgleitet, aber dafür will die Literaturwisenschaft nicht das große ganze erklären sondern weiß, dass sie nur innerhalb eines Buchdeckels Bestand hat.

Was mich an dem Singularity und AI-Philosophy Diskurs zunehmend stört ist einerseits der Allmachtsanspruch die Welt von morgen definieren zu wollen, gleichzeitig jedoch jeder Verzicht auf wissenschaftliche Erklärungen. So als ob es unwichtig wird, wie man Computer programmiert wenn erst Singularity da ist. So als ob intelligente Roboter nichts mehr mit Technik zu tun hätten sondern religiös interpretiert werden könnten. Vereinfacht gesagt, scheint mir der Schwerpunkt auf Philosophy und weniger auf AI zu liegen.

Aber wenn Singularity nicht die äußere Klammer ist, welche die technologische Singularität zusammenhält was ist es dann? Ich glaube, dass die Zukunft darin besteht, dass sich die Menschen wieder mehr mit Technik beschäftigen. Also herausfinden, wie man Computer baut, wie man Algorithmen entwickelt und wie man Roboter programmiert. Also eher wissenschaftlich an die Dinge herangeht und weniger erklärend.

Scrollt man einmal durch die weiteren Beiträge von comp.ai.philosophy so findet sich dort für eine Usenet-Gruppe die das comp. als Präfix verwendet erstaunlich wenig Sourcecode. Eigentlich sollte man denken, dass die Leute dort Experten wären in Sachen C++ und Assembly language, aber nichts da. Scheinbar ist eine hands-on-mentalität nicht das, womit sich die Leute identifizieren. Haben sich da womöglich lauter Neoludditen versammelt um ihre Weltsicht zu teilen?

Singularity wird Realität

Als Singularity wird klassischerweise jener Moment bezeichnet, bei dem Maschinen sich selber verbessern, Maschinen intelligenter werden als Menschen oder ganz allgemein, der Himmel einzustürzen droht.

Trennen wir doch einmal ganz bewusst Fiktion und Wirklichkeit und untersuchen zunächst einmal wie intelligent Maschinen tatsächlich sein können. Fakt ist, dass alle Versuche in Richtung „sich-selbstprogrammierende Maschinen“ gescheitert sind, und Fakt ist auch dass Suchmaschinen wie die von Google bis heute nicht im Stande sind menschliche Sprache zu verstehen. Auch der Ansatz von IBM Watson ist alles andere als allgemein und so müssen die Forscher kleinlaut zugeben, dass sie sehr weit davon entfernt sind intelligente Systeme zu entwickeln. Aber womöglich müssen sie das auch gar nicht. Womöglich lässt sich Singularity auch mit Weak AI erreichen. Das ist eine Software die innerhalb eines abgerenzten Bereiches das tut was sie soll. Sie wird programmiert wie eine CNC-Maschine und hat auch ungefähr dessen Intelligenz, nähmlich gar keine. Ein gutes Beispiel für Weak AI sind die Bots aus Computerspielen die dort als Non-Player-Charaktere herumlaufen aber auch selbstfahrende Autos oder Roboter die eine Treppe hochgehen gehören in diese Kategorie.

Das interessante ist, dass man mit Weak AI bereits genug Dinge anfangen kann, dass es für Singularity ausreichend ist. Man kann mit Weak AI folgende Systeme realisieren:
– selbstfahrende Autos
– Paketdrohnen, Pizzadrohnen
– Haushaltsroboter
– Roboter die iphones zusammenbauen
– Roboter die Raumstationen zusammenbauen
– Nanoroboter die Operationen im Menschen durchführen

Keines dieser Softwaresysteme muss besonders hochentwickelt sein, oder an die Fähigkeiten eines Menschen herankommen. Es reicht aus, wenn sie genau das tun, wozu sie programmiert wurden. Und wenn man die oben genannten Aufgaben realisiert, wird sich dadurch die Zukunft so stark verändern, dass es aussieht wie eine Singularität. Das heißt, der Fortschritt wird sich massiv beschleunigen und all die Dinge die man aus dem Kino kennt, werden praktisch über Nacht verfügbar sein. Man kann Singularity an Robotik festmachen. Sobald man weiß wie man Roboter programmiert, lassen sich eine ganze Reihe von darauf aufbauenden Erfindungen durchführen. Das Geheimnis lautet „Künstliche Intelligenz“. Damit ist die Fähigkeit gemeint, Maschinen autonom zu steuern, nur über Software.

In die Wirklichkeit integriert bedeutet es nichts geringeres, als das sich die Welt in ein riesiges Computerspiel verwandelt. Das heißt, es wird so werden wie in einem Märchen, wo man nur den Zauberspruch aufsagen muss und alle Wünsche erfüllen sich. Am Verhältnis Mensch zu Maschine wird sich dadurch nichts ändern. Der Mensch bleibt das intelligenteste Geschöpf auf dem Planeten Erde. Roboter hingegen werden Ähnlichkeit haben mit Gegenständen, sie werden die selbe Rolle spielen wie heute ein Kühlschrank oder ein Toaster. Dennoch wird sich durch Robotik alles verändern. Sie werden dafür sorgen, dass die Menschheit nicht mehr zurückkann in eine Zeit die ihr vertraut war. So wenig wie die Menschen jemals wieder auf den elektrischen Strom verzichten können werden, wird es jemals wieder eine Zeit geben ohne Roboter.

Durch die Erfindung von Nanorobotik werden sich eine ganze Reihe von Anschlusserfindungen ermöglichen. Sobald man in der Lage ist, mit winzig kleinen Robotern den menschlichen Körper zu erkunden, zu vermessen und einzugreifen wird sich das Wissen darüber was Biologie ist, dramatisch erhöhen. Das heißt, die Nanoroboter werden nicht nur für akute medizinische Fragen wie eine Herztransplantation eingesetzt sondern sie werden auch dafür verwendet werden, um die Medizin-Lehrbücher neu zu schreiben. Es werden sich neue Horizonte eröffnen und früheres Wissen wird obsolet werden. Nanoroboter werden für die Medizin das selbe sein, wie das Fernrohr für die Astronomie. Sie werden einen Schub auslösen der als Singularity bezeichnet wird.

Es wird nicht der einzige Schub sein. Neben medizinischen Robotern wird es noch viele weitere Erfindungen geben, die mittels Künstliche Intelligenz angetrieben werden. Die einzige Konstante wird sein, dass sich alles Wissen verändern wird, und das Fortschritt sich verselbstständigt. Wie hat es Ray Kurzweil so schön beschrieben? Der Mensch wird mit seiner Intelligenz das komplette Universum erstrahlen. Ungefähr so wird es werden. Für das Entstehen von Singularity sind zwei Dinge entscheidend. Einmal die Erfindung des Internets anfang der 1990’er Jahre und dann die darauf aufbauende Erfindung „Weak AI“.

Was kommt nach dem Moore Law?

Sowohl unter Experten als auch im Mainstream hat sich die Erkenntnis durchgesetzt, dass das Moorsche Law an seine Grenzen gelangt ist. Damit ist gemeint, dass anders als früher sich die CPU Leistung nicht mehr alle 1,5 Jahre verdoppelt, sondern dass die Zuwächse sehr viel geringer ausfallen. Schaut man sich die nakten Leistungsdaten aktueller Intel CPUs einmal an, so wird man feststellen, dass man effektiv nur noch von einer Leistungssteigerung von 30% im Jahr ausgehen kann (wenn überhaupt). Da diese Zuwächse auf einem sehr hohen Nivau erfolgen fällt es nicht so auf. Es gibt heute kaum noch Anwender die über ruckelnde Videos klagen, weil integrierte Grafikchips in der Regel mehr als potent sind um HD Videos wiederzugeben. Wenn man die minimalen Steigerungen in die Zukunft extrapoliert ist anzunehmen, dass ab dem Jahr 2020 es 4K Video für alle geben wird. Aber anders als früher ist das eben nichts komplett neues, sondern ist nur noch eine iterative Verbesserung.

Auf die Frage was nach dem Moorschen Gesetz kommt gibt es eine simple Antwort: danach kommt gar nichts mehr. Die Prozessorleistung wird sich auf hohem Niveau stabilisieren und dort verharren. Alternative Konzepte wie optische Computer, Quantencomputer usw. sind bisher nicht in Sicht. Das Hauptproblem ist, dass noch nichtmal offen darüber gesprochen wird, dass alle Versuche in diese Richtung gescheitert sind. Wer es wagt auch nur anzudeuten, dass der Dwave 2x kein Fortschritt darstellt, sondern nur ein riesiger Analogcomputer ist, der mit einem billig Xeon Prozessor von Intel betrieben wird, der ist bereits ein Außenseiter. Es passt eben nicht in das Selbstbild, dass die IT-Branche an Innovationskraft eingebüßt hat. Nur, wie konnte es dazu kommen? Das Problem ist, dass Intel und ASML inzwischen bei der 10 nm Strukturbreite angelangt sind, und man damit am Maximum der Physik angelangt ist. Das ist so ähnlich wie mit einem Dieselmotor. Auch dort kann man den Treibstoffverbrauch nicht unendlich verkleinern, sondern am Ende bleibt es immer ein Dieselmotor. Man kann allenfalls versuchen, mit Methoden des Marketings den Nutzen unabhängig von konkreten Leistungsdaten herauszustellen, dass sich also Intel CPUs besonders gut als Home-PC eignen, oder fürs Internetsurfen optimiert sind, in Wahrheit jedoch wird damit der Frage ausgewichen wieviel Gflops das System netto leistet.

Alternativen zum Silizium gibt es seit Jahrzehnten. In den 1950’er wurde bereits mit supraleitenden Materialien experimentiert, später dann mit optischen Transistoren. Doch kommerziell ist es bisher nicht realisiert worden. Das einzige was sich durchgesetzt hat, war die klassische Siliziumbasierende Fertigung und wenn diese an ihr Maximum gelangt, sieht es schlecht aus mit Innovation. Selbst wenn man Computing nochmal komplett neu denkt und Prozessoren von Grund auf neu designt, wird man am Ende immer dort enden wo Intel heute bereits ist. Man wird auf einer Siliziumscheibe Transistoren anordnen, man wird eine CISC Befehlsstruktur verwenden und man wird Speicher, Register, ALU usw. benötigen. Anders gesagt, man kann den Computer nur einmal erfinden.

Warum das End of Moores Law so überraschend daherkommt hat etwas damit zu tun, dass man früher dachte, dass sich eine Branche jedes Jahr neu erfinden könnte. Man hat lange Zeit nicht erkannt, dass die Verkleinerung der Strukturbreite das genaue Gegenteil von Innovation darstellt, sondern man hat einfach die niedrig hängenden Früchte eingesammelt. Aber irgendwann ist der Baum abgeerntet und die Erkenntnis ist etwas neues. Es bedeutet, dass es keinen Fortschritt mehr geben wird, und das die Zukunft sich nicht verändern wird. Es ist bereits klar wie das Jahr 2920 oder das Jahr 2025 aus Sicht der Informatik aussehen wird. Es wird sich nicht großartig vom Heute unterscheiden. Die IT-Branche ist im selben Dilemma gefangen wie die Autobranche auch: man verkauft seit Jahren dasselbe Produkt, verspricht aber dennoch, dass sich alles verbessert. Zumindest früher konnte dieses Versprechen eingehalten werden. Der Unterschied zwischen einem 286’er PC und einem 486’er ist gigantisch gewesen. Plötzlich waren komplett neue Anwendungen möglich, die Spiele sahen sehr viel besser aus. Der Unterschied zwischen einem Broadwell PC und einem Kirby Lake PC hingegen ist minimal. Obwohl auch dort mehrere Jahre dazwischen liegen wird man keinen Unterschied erkennen. Es sind lediglich minimale Veränderungen in der Hardware vorhanden.

Historisch betrachtet kann man das End of Moores Law ungefähr auf das Jahr 2010 zurückdatieren. Seit diesem Zeitpunkt gab es keine echte Leistungssteigerung mehr in der Hardware. Zwischen einem topspiel aus dem jahr 2010 und einem aus dem Jahr 2016 gibt es keine erkennbaren Unterschiede. Es ist dieselbe Technologie. Auf der anderen Seite markiert das Jahr 2010 auch das Jahr, ab dem erstmals echte Computer verfügbar waren. Also Computerhardware die schnell genug ist, um Videos abzuspielen oder verzögerungsfrei Multitasking zu betreiben. Schaut man sich die PCs davor an, so wird man auf ihnen nur mit viel Mühe derartiges zustandebringen. Es mutet heute abenteuerlich an, dass bereits in den 1990’er von multimediafähigen Computern gesprochen wurde. Die ersten echten Multimedia-PCs gibt es erst seit 2010.

Die Frage ist, wo in Zukunft die Innovation stattfinden wird, wenn nicht in der Computerhardware. Vermutlich im Bereich der Robotik und der Künstlichen Intelligenz. Das ist ein Forschungsgebiet was weitestgehend unerschlossen ist und wo die größten Leistungssteigerungen möglich sind. Was bedeutet das konkret? Es bedeutet, dass es in Zukunft selbstfahrende Autos, Dronen als Pizzaboten und laufende Roboter geben wird. Die dafür verwendete Hardware ist heute bereits vorhanden. Es werden Consumer CPUs von Intel und Co sein, die dann die Roboter-Steuerung übernehmen. Man kann sich das Vorstellen wie eine Art von Google. Auch Google nutzt keine besondere Hardware, sondern Google ist eine Idee, welche vorhandene Hardware auf eine bestimmte Weise nutzt. Google ist nichts anderes als das Zusammenschalten von COTS Bauteilen, die Verwendung von Linux als Betriebssystem plus einer Web-Oberfläche. Und ähnlich werden Roboter auf Standard-Hardware laufen, sie werden auch Standard-Programmiersprachen wie C++ nutzen. Allerdings mit dem Unterschied, dass damit andere Probleme gelöst werden, als normalerweise mit C++ gelöst wird.