Die Post-Singularity World

[1] Mentifex wrote:
„After the Technological Singularity, conscious AI Minds will run non-stop and non-death — except by misadventure. Colossus the Forbin Project, Wintermute, HAL et al. will all be controlling the basic resources they need to stay alive.“

So langsam zweifel ich daran, ob das Usenet Forum comp.ai.philosopy überhaupt der richtige Ort ist um über Künstliche Intelligenz zu debattieren. Übersetzt heißt AI zwar Künstliche Intelligenz, aber der obige Beitrag hat damit fast nichts zu tun. Eher klingt es wie die Einleitung zur Fortsetzung der „Neuromancer“ Trilogie, die William Gibson einst berühmt gemacht hat. Die Gemeinsamkeit besteht darin, die reale Welt auszublenden zugunsten einer Illusion in der es keine Bäume und Vögel mehr gibt. Nun sind solche Zukunftsvorstellungen in der Literaturgeschichte nichts unübliches, auch das Drama „Warten auf Godot“ arbeitet mit einem pessimistischen Grundton der in einen Nihilismus abgleitet, aber dafür will die Literaturwisenschaft nicht das große ganze erklären sondern weiß, dass sie nur innerhalb eines Buchdeckels Bestand hat.

Was mich an dem Singularity und AI-Philosophy Diskurs zunehmend stört ist einerseits der Allmachtsanspruch die Welt von morgen definieren zu wollen, gleichzeitig jedoch jeder Verzicht auf wissenschaftliche Erklärungen. So als ob es unwichtig wird, wie man Computer programmiert wenn erst Singularity da ist. So als ob intelligente Roboter nichts mehr mit Technik zu tun hätten sondern religiös interpretiert werden könnten. Vereinfacht gesagt, scheint mir der Schwerpunkt auf Philosophy und weniger auf AI zu liegen.

Aber wenn Singularity nicht die äußere Klammer ist, welche die technologische Singularität zusammenhält was ist es dann? Ich glaube, dass die Zukunft darin besteht, dass sich die Menschen wieder mehr mit Technik beschäftigen. Also herausfinden, wie man Computer baut, wie man Algorithmen entwickelt und wie man Roboter programmiert. Also eher wissenschaftlich an die Dinge herangeht und weniger erklärend.

Scrollt man einmal durch die weiteren Beiträge von comp.ai.philosophy so findet sich dort für eine Usenet-Gruppe die das comp. als Präfix verwendet erstaunlich wenig Sourcecode. Eigentlich sollte man denken, dass die Leute dort Experten wären in Sachen C++ und Assembly language, aber nichts da. Scheinbar ist eine hands-on-mentalität nicht das, womit sich die Leute identifizieren. Haben sich da womöglich lauter Neoludditen versammelt um ihre Weltsicht zu teilen?

Singularity wird Realität

Als Singularity wird klassischerweise jener Moment bezeichnet, bei dem Maschinen sich selber verbessern, Maschinen intelligenter werden als Menschen oder ganz allgemein, der Himmel einzustürzen droht.

Trennen wir doch einmal ganz bewusst Fiktion und Wirklichkeit und untersuchen zunächst einmal wie intelligent Maschinen tatsächlich sein können. Fakt ist, dass alle Versuche in Richtung „sich-selbstprogrammierende Maschinen“ gescheitert sind, und Fakt ist auch dass Suchmaschinen wie die von Google bis heute nicht im Stande sind menschliche Sprache zu verstehen. Auch der Ansatz von IBM Watson ist alles andere als allgemein und so müssen die Forscher kleinlaut zugeben, dass sie sehr weit davon entfernt sind intelligente Systeme zu entwickeln. Aber womöglich müssen sie das auch gar nicht. Womöglich lässt sich Singularity auch mit Weak AI erreichen. Das ist eine Software die innerhalb eines abgerenzten Bereiches das tut was sie soll. Sie wird programmiert wie eine CNC-Maschine und hat auch ungefähr dessen Intelligenz, nähmlich gar keine. Ein gutes Beispiel für Weak AI sind die Bots aus Computerspielen die dort als Non-Player-Charaktere herumlaufen aber auch selbstfahrende Autos oder Roboter die eine Treppe hochgehen gehören in diese Kategorie.

Das interessante ist, dass man mit Weak AI bereits genug Dinge anfangen kann, dass es für Singularity ausreichend ist. Man kann mit Weak AI folgende Systeme realisieren:
– selbstfahrende Autos
– Paketdrohnen, Pizzadrohnen
– Haushaltsroboter
– Roboter die iphones zusammenbauen
– Roboter die Raumstationen zusammenbauen
– Nanoroboter die Operationen im Menschen durchführen

Keines dieser Softwaresysteme muss besonders hochentwickelt sein, oder an die Fähigkeiten eines Menschen herankommen. Es reicht aus, wenn sie genau das tun, wozu sie programmiert wurden. Und wenn man die oben genannten Aufgaben realisiert, wird sich dadurch die Zukunft so stark verändern, dass es aussieht wie eine Singularität. Das heißt, der Fortschritt wird sich massiv beschleunigen und all die Dinge die man aus dem Kino kennt, werden praktisch über Nacht verfügbar sein. Man kann Singularity an Robotik festmachen. Sobald man weiß wie man Roboter programmiert, lassen sich eine ganze Reihe von darauf aufbauenden Erfindungen durchführen. Das Geheimnis lautet „Künstliche Intelligenz“. Damit ist die Fähigkeit gemeint, Maschinen autonom zu steuern, nur über Software.

In die Wirklichkeit integriert bedeutet es nichts geringeres, als das sich die Welt in ein riesiges Computerspiel verwandelt. Das heißt, es wird so werden wie in einem Märchen, wo man nur den Zauberspruch aufsagen muss und alle Wünsche erfüllen sich. Am Verhältnis Mensch zu Maschine wird sich dadurch nichts ändern. Der Mensch bleibt das intelligenteste Geschöpf auf dem Planeten Erde. Roboter hingegen werden Ähnlichkeit haben mit Gegenständen, sie werden die selbe Rolle spielen wie heute ein Kühlschrank oder ein Toaster. Dennoch wird sich durch Robotik alles verändern. Sie werden dafür sorgen, dass die Menschheit nicht mehr zurückkann in eine Zeit die ihr vertraut war. So wenig wie die Menschen jemals wieder auf den elektrischen Strom verzichten können werden, wird es jemals wieder eine Zeit geben ohne Roboter.

Durch die Erfindung von Nanorobotik werden sich eine ganze Reihe von Anschlusserfindungen ermöglichen. Sobald man in der Lage ist, mit winzig kleinen Robotern den menschlichen Körper zu erkunden, zu vermessen und einzugreifen wird sich das Wissen darüber was Biologie ist, dramatisch erhöhen. Das heißt, die Nanoroboter werden nicht nur für akute medizinische Fragen wie eine Herztransplantation eingesetzt sondern sie werden auch dafür verwendet werden, um die Medizin-Lehrbücher neu zu schreiben. Es werden sich neue Horizonte eröffnen und früheres Wissen wird obsolet werden. Nanoroboter werden für die Medizin das selbe sein, wie das Fernrohr für die Astronomie. Sie werden einen Schub auslösen der als Singularity bezeichnet wird.

Es wird nicht der einzige Schub sein. Neben medizinischen Robotern wird es noch viele weitere Erfindungen geben, die mittels Künstliche Intelligenz angetrieben werden. Die einzige Konstante wird sein, dass sich alles Wissen verändern wird, und das Fortschritt sich verselbstständigt. Wie hat es Ray Kurzweil so schön beschrieben? Der Mensch wird mit seiner Intelligenz das komplette Universum erstrahlen. Ungefähr so wird es werden. Für das Entstehen von Singularity sind zwei Dinge entscheidend. Einmal die Erfindung des Internets anfang der 1990’er Jahre und dann die darauf aufbauende Erfindung „Weak AI“.

Was kommt nach dem Moore Law?

Sowohl unter Experten als auch im Mainstream hat sich die Erkenntnis durchgesetzt, dass das Moorsche Law an seine Grenzen gelangt ist. Damit ist gemeint, dass anders als früher sich die CPU Leistung nicht mehr alle 1,5 Jahre verdoppelt, sondern dass die Zuwächse sehr viel geringer ausfallen. Schaut man sich die nakten Leistungsdaten aktueller Intel CPUs einmal an, so wird man feststellen, dass man effektiv nur noch von einer Leistungssteigerung von 30% im Jahr ausgehen kann (wenn überhaupt). Da diese Zuwächse auf einem sehr hohen Nivau erfolgen fällt es nicht so auf. Es gibt heute kaum noch Anwender die über ruckelnde Videos klagen, weil integrierte Grafikchips in der Regel mehr als potent sind um HD Videos wiederzugeben. Wenn man die minimalen Steigerungen in die Zukunft extrapoliert ist anzunehmen, dass ab dem Jahr 2020 es 4K Video für alle geben wird. Aber anders als früher ist das eben nichts komplett neues, sondern ist nur noch eine iterative Verbesserung.

Auf die Frage was nach dem Moorschen Gesetz kommt gibt es eine simple Antwort: danach kommt gar nichts mehr. Die Prozessorleistung wird sich auf hohem Niveau stabilisieren und dort verharren. Alternative Konzepte wie optische Computer, Quantencomputer usw. sind bisher nicht in Sicht. Das Hauptproblem ist, dass noch nichtmal offen darüber gesprochen wird, dass alle Versuche in diese Richtung gescheitert sind. Wer es wagt auch nur anzudeuten, dass der Dwave 2x kein Fortschritt darstellt, sondern nur ein riesiger Analogcomputer ist, der mit einem billig Xeon Prozessor von Intel betrieben wird, der ist bereits ein Außenseiter. Es passt eben nicht in das Selbstbild, dass die IT-Branche an Innovationskraft eingebüßt hat. Nur, wie konnte es dazu kommen? Das Problem ist, dass Intel und ASML inzwischen bei der 10 nm Strukturbreite angelangt sind, und man damit am Maximum der Physik angelangt ist. Das ist so ähnlich wie mit einem Dieselmotor. Auch dort kann man den Treibstoffverbrauch nicht unendlich verkleinern, sondern am Ende bleibt es immer ein Dieselmotor. Man kann allenfalls versuchen, mit Methoden des Marketings den Nutzen unabhängig von konkreten Leistungsdaten herauszustellen, dass sich also Intel CPUs besonders gut als Home-PC eignen, oder fürs Internetsurfen optimiert sind, in Wahrheit jedoch wird damit der Frage ausgewichen wieviel Gflops das System netto leistet.

Alternativen zum Silizium gibt es seit Jahrzehnten. In den 1950’er wurde bereits mit supraleitenden Materialien experimentiert, später dann mit optischen Transistoren. Doch kommerziell ist es bisher nicht realisiert worden. Das einzige was sich durchgesetzt hat, war die klassische Siliziumbasierende Fertigung und wenn diese an ihr Maximum gelangt, sieht es schlecht aus mit Innovation. Selbst wenn man Computing nochmal komplett neu denkt und Prozessoren von Grund auf neu designt, wird man am Ende immer dort enden wo Intel heute bereits ist. Man wird auf einer Siliziumscheibe Transistoren anordnen, man wird eine CISC Befehlsstruktur verwenden und man wird Speicher, Register, ALU usw. benötigen. Anders gesagt, man kann den Computer nur einmal erfinden.

Warum das End of Moores Law so überraschend daherkommt hat etwas damit zu tun, dass man früher dachte, dass sich eine Branche jedes Jahr neu erfinden könnte. Man hat lange Zeit nicht erkannt, dass die Verkleinerung der Strukturbreite das genaue Gegenteil von Innovation darstellt, sondern man hat einfach die niedrig hängenden Früchte eingesammelt. Aber irgendwann ist der Baum abgeerntet und die Erkenntnis ist etwas neues. Es bedeutet, dass es keinen Fortschritt mehr geben wird, und das die Zukunft sich nicht verändern wird. Es ist bereits klar wie das Jahr 2920 oder das Jahr 2025 aus Sicht der Informatik aussehen wird. Es wird sich nicht großartig vom Heute unterscheiden. Die IT-Branche ist im selben Dilemma gefangen wie die Autobranche auch: man verkauft seit Jahren dasselbe Produkt, verspricht aber dennoch, dass sich alles verbessert. Zumindest früher konnte dieses Versprechen eingehalten werden. Der Unterschied zwischen einem 286’er PC und einem 486’er ist gigantisch gewesen. Plötzlich waren komplett neue Anwendungen möglich, die Spiele sahen sehr viel besser aus. Der Unterschied zwischen einem Broadwell PC und einem Kirby Lake PC hingegen ist minimal. Obwohl auch dort mehrere Jahre dazwischen liegen wird man keinen Unterschied erkennen. Es sind lediglich minimale Veränderungen in der Hardware vorhanden.

Historisch betrachtet kann man das End of Moores Law ungefähr auf das Jahr 2010 zurückdatieren. Seit diesem Zeitpunkt gab es keine echte Leistungssteigerung mehr in der Hardware. Zwischen einem topspiel aus dem jahr 2010 und einem aus dem Jahr 2016 gibt es keine erkennbaren Unterschiede. Es ist dieselbe Technologie. Auf der anderen Seite markiert das Jahr 2010 auch das Jahr, ab dem erstmals echte Computer verfügbar waren. Also Computerhardware die schnell genug ist, um Videos abzuspielen oder verzögerungsfrei Multitasking zu betreiben. Schaut man sich die PCs davor an, so wird man auf ihnen nur mit viel Mühe derartiges zustandebringen. Es mutet heute abenteuerlich an, dass bereits in den 1990’er von multimediafähigen Computern gesprochen wurde. Die ersten echten Multimedia-PCs gibt es erst seit 2010.

Die Frage ist, wo in Zukunft die Innovation stattfinden wird, wenn nicht in der Computerhardware. Vermutlich im Bereich der Robotik und der Künstlichen Intelligenz. Das ist ein Forschungsgebiet was weitestgehend unerschlossen ist und wo die größten Leistungssteigerungen möglich sind. Was bedeutet das konkret? Es bedeutet, dass es in Zukunft selbstfahrende Autos, Dronen als Pizzaboten und laufende Roboter geben wird. Die dafür verwendete Hardware ist heute bereits vorhanden. Es werden Consumer CPUs von Intel und Co sein, die dann die Roboter-Steuerung übernehmen. Man kann sich das Vorstellen wie eine Art von Google. Auch Google nutzt keine besondere Hardware, sondern Google ist eine Idee, welche vorhandene Hardware auf eine bestimmte Weise nutzt. Google ist nichts anderes als das Zusammenschalten von COTS Bauteilen, die Verwendung von Linux als Betriebssystem plus einer Web-Oberfläche. Und ähnlich werden Roboter auf Standard-Hardware laufen, sie werden auch Standard-Programmiersprachen wie C++ nutzen. Allerdings mit dem Unterschied, dass damit andere Probleme gelöst werden, als normalerweise mit C++ gelöst wird.

Blackgoo wird Wirklichkeit …

Viele Science-Fiction Autoren haben sich bereits am Thema Blackgoo abgearbeitet. Gemeint ist eine außerirdische Substanz bestehend aus Nanorobotern die sich unkontrolliert verbreitet und alles auffrisst was sich ihr in den Weg stellt. Aber nicht nur die Science-Fiction fühlt sich berufen dazu Aussagen zu treffen, auch die seriöse Forschung hat an dem Thema gefallen gefunden. Wer sich über den aktuellen Stand informieren will der sollte bei Google Scholar die Stichworte „PDDL Nanorobotics“ eingeben. Er wird eine Reihe von Papern aus dem Jahr 2015 und 2016 finden die sich mit MEMS Robotern beschäftigen (Kleinstroboter die in den menschlichen Körper eindringen) welche über eine Planungssystem namens PDDL gesteuert werden. (Anmerkung: Google Scholar liefert leider nicht die passenden Paper, in diesem Fall ist ausnahmsweise die normale Google Suche zu benutzen. Auch dort ist die Trefferzahl überschaubar. Vermutlich gibt es auf diesem Gebiet noch weitere Forschung, allerdings hat Google bei der vollständigen Indizierung von Bücher noch Probleme.). Es handelt sich dabei um jene Technologie die schon bei Shakey the Robot eingesetzt wurde, und in jüngster Zeit zur Programmierung von KI-Bots in Computerspielen genutzt wird. Offenbar ist es möglich, preiswerte Kleinstroboter und PDDL gemeinsam zu erforschen was dazu führt, dass nicht so ganz klar ist, wo die Wissenschaft endet und wo die Science Fiction anfängt.

Der Grund warum MEMS Robotik die Forschung elektrisiert, hat etwas damit zu tun, dass sich diese Roboter sehr preiswert fertigen lassen. Der Produktionsprozess hat ähnlichkeit mit der Microchip Fertigung wo man ebenfalls die Kosten für einen einzelnen Transistor fast auf Null reduziert hat. Ferner benötigen MEMS Roboter auch keine großen Stromquellen sondern können im Extremfall über induktion aus der Ferne aufgeladen werden. Das reduziert die Baugröße nochmals. Wenn man die Berechnungen für den PDDL Planner noch auf einen externen Computer auslagert und bei der Programmierung neben einem symbolischen auch einen geometrischen Planner einbezieht hat man im Grunde genau das gebaut, was als Blackgoo bekannt ist. Eine Technologie die nicht viel teurer ist als blaue Schultinte und die vielfältig einsetzbar ist.

Zugegeben, ganz so weit ist die Forschung noch nicht. Die Paper sprechen von größeren Problemen und ungelösten Fragestellungen. Beispielsweise ist unklar wie genau eine PDDL Datei aussehen muss, oder wie genau ein effizienter Solver funktioniert. Aber, es ist sehr wahrscheinlich dass dies Detailprobleme sind und die Technologie insgesamt sich wird durchsetzen.

Was damit möglich ist, kann die seriöse Wissenschaft derzeit nicht beantworten, weil wie gesagt die technischen Schwierigkeiten noch viel zu groß sind. Aber die Science-Fiction Autoren behaupten, dass sich mit Nanorobotik alle Krankeheiten heilen lassen, dass man das Altern aufhalten kann, dass Blinde das Sehen lernen und das man Menschen in Cyborgs verwandeln kann.

Aber der eigentliche Grund medizinische Nanorobotik als Zukunft zu bezeichnen hat etwas damit zu tun, dass andere Anwendungen wie „Roboter im Weltraum“ keinen Nutzen bringen. Das heißt, mit Nanorobotern kann man mit etwas Glück die Lebenserwartung von Menschen erhöhen, mit einem NASA Roboter hingegen kann man nur feststellen, dass wir allein im Weltraum sind. Anders gesagt, zwar wird es in Zukunft vermutlich auch Roboter im Weltraum geben, aber irgendwelchen Nutzen werden sie dort nicht haben. Zwar hat auch die NASA ehrgeizige Pläne was man mit intelligenten Roboterschwärmen anfangen könnte, beispielsweise einen Todesstern bauen, ein Sonnensegel auf dem Mond errichten oder in fremde Galaxien reisen, aber wozu das alles? Wir wissen bereits, dass der Mond unbewohnt ist, der Mars kein Leben besitzt und dass es in der Milchstraße kein intelligentes Leben gibt.

Anders ausgerückt sind Roboter im Weltraum eine sinnlose Technologie. Es ist nichts was erforscht werden müsste oder wofür Zeit investiert werden sollte. Mit Nanorobotern im menschlichen Körper hingegen lässt sich nicht nur Geld verdienen, sondern man kann damit etwas entdecken.

Zur Ethik von Künstlicher Intelligenz

Vor einiger Zeit fand in Washington D.C. wieder einmal eine Anhörung statt zum Thema „Ethik der künstlichen Intelligenz“. Dort wurde diskutiert, ja was eigentlich? So richtig beantworten kann das keiner. Und eigentlich lautet die Befürchtung dass es viel zu früh ist, die rechtlichen Dimensionen von Robotern abzustecken, wenn derartige Maschinen bis heute noch nicht entwickelt sind. Der Grund warum es dennoch solche Fachtagungen gibt hat etwas damit zu tun, dass Regierungen wohl ein Stück weit besser über die Lage informiert sind als der Durchschnittliche Internetnutzer. Das dürfte vermutlich damit zusammenhängen, dass nicht ale Forschungsergebnisse unmittelbar auf der ICRA Veranstaltung vorgetragen werden, sondern dass es im wesentlichen ein Staatsgeheimnis darstellt, wie genau der Moley Kitchen Roboter, das Google car oder der Marc Raibert Walking Roboter genau funktionieren.

Aber sind diese Techniken tatsächlich schon soweit fortgeschritten dass man sich über die ethischen Implikationen beraten muss? Mein Eindruck ist, dass es keineswegs zu früh ist, sondern genau der richtige Zeitpunkt gewählt wurde. Im März 2016 hat beispielsweise das google Car einen Bus gerammt und in dem saßen echte Leute, die hätten zu Schaden kommen können. Autonome Flugzeuge wie die X-47b welche auch atomar bewaffnet werden kann, sind schon etwas länger im Einsatz und Nanoroboter die in das Augen injiziert werden um dort Reperaturen anzustellen gibt es nicht nur im Fernsehen (V-Die Besucher) sondern wurden bereits in Echt erprobt.

Die Hauptschwierigkeit bei ethischen Debatten rund um Roboter dürfte sein, dass sie meist technik-kritisch geführt werden. Beispielsweise kann man sich relativ leicht darauf einigen, Kampfdrohnen zu verbieten oder dem Google Car eine Straßenzulassung zu verwehren. Nur, damit kann man die Entwicklung allenfalls verlangsamen nicht jedoch aufhalten. Das eigentliche Problem besteht darin, dass in der Künstlichen Intelligenz es nur eine Grenze gibt und zwar das technisch maschbare.

Im wesentlichen dürften ethische Roboter-Debatten wohl darauf hinauslaufen, wie man den sich abzeichnenden Wandel gesellschaftlich sinnvoll begleiten kann, beispielsweise durch Roboter-Wettbewerbe in den Schulen. Wirklich neu sind solche Konferenzen bei den die ethischen Implikationen diskutiert werden nicht. Im Jahr 2000 wurde unter dem Titel „Will Spiritual Robots Replace Humanity by 2100“ schoneinmal soetwas veranstaltet. Damals waren bekannte Leute wie Hans Moravec, Bill Joy oder Ray Kurzweil anwesend. Das Highlight der Veranstaltung war eine hoffentlich nicht ernst gemeinte Andeutung von Moravec, dass eine intelligente Masse aus Robotern (grey goo) die Weltherschaft übernimmt und den Planeten innerhalb von Sekunden vernichtet. Ob sich die These vom Grey Goo inzwischen weiterentwickelt hat ist unbekannt. Neu ist aktuell, dass derartige Veranstaltungen auch auf politisches Interesse stoßen und nicht nur Mathematiker und Physiker unter den Vortragenden sind.

Wer sich für einen derartigen Technologiediskurs näher interessiert wird beim Forsight-Institute weitere Informationen finden http://www.foresight.org/Nanomedicine/Ecophagy.html Bis heute ist nicht so ganz klar, was davon ausgedacht ist und was technisch wirklich erforscht wird. Gewissermaßen kann man diese Webseite als Sammelsuriom von Verschwörungstheorien lesen. Es handelt sich um Panikmache im wissenschaftlichen Gewand der man sich nur schwer zu entziehen vermag. Anders als Früher, als Roboter nur im Roman nicht aber in Echt anzutreffen waren, haben inzwischen die Wissenschaftler echte Resultate geliefert. Die Unsicherheit entsteht daraus, dass das Weltbild wonach Künstliche Intelligenz auf absehbare Zeit nicht realisierbar ist (Lighthill Report) möglicherweise nicht länger gültig ist.

Man kann zwar unverändert behaupten, dass Computer nicht denken können, dass es wegen der algorithmischen Komplexität nicht möglich ist, Laufroboter zu konstruieren oder dass Künstliche Intelligenz gescheitert wäre, nur wird es immer schwerer eine derartige Weltsicht gegen die Realität zu verteidigen. Man muss schon ziemlich tief in die Trickkiste greifen um zu beweisen warum das letzte Modell des Boston Dynamics Atlas Robot niemals kommerziell einsetzbar sein wird.