Keiner will meinen Ohrenschmalz Artikel lesen

In meinem letzten Weblog hatte ein Posting über das richtige Entfernen von Ohrenschmalz sehr hohe Zugriffsraten. Mindstens 10 Leute täglich haben sich dafür interessiert und sind über Google darauf gestoßen. Zu Testzwecken habe ich exakt diese Artikel in das neue Blog übernommen. Nur, bisher hat den Artikel kein einziger gelesen. Warum nicht?

Eigentlich war die Hypothese, dass es keinen Unterschied macht unter welcher URL ein Text veröffentlicht ist scheinbar aber doch. Warum ist das so ist, darüber habe ich aktuell noch keine Erklärung.

Ansonsten gibt es zu sagen, dass derzeit dieses Blog von 4-5 Leuten täglich besucht wird, wobei ein gutteil des Traffics aber von mir selbst erzeugt wird, weil ich dann und wann man schaue, wiehoch der Besucherzähler schon ist.

Kann man Verschwörungen wiederlegen?

Auf den ersten Blick mag es sinnvoll sein, wenn man die Wissenschaft bemüht um vermeintlichen Aberglauben zu wiederlegen. Beispielsweise kann anhand von Fakten gezeigt werden, dass die Evolutionstheorie die Wahrheit ist und dass Apollo 11 wirklich auf dem Mond war. Auf diese Weise hebt man die Verschwörung auf eine wissenschaftliche und damit rationale Ebene und kann von dort aus begründen warum sie falsch ist. Aber ist das wirklich ein wissenschaftlicher Ansatz?

Gehen wir docheinmal zurück in eine Zeit wo es noch kein Internet gab und auch noch kein Roswell-Verschwörung. Lange Zeit gab es nur die Kirche, auch der Glaube an Gott stellt eine Verschwörungstheorie da, die sich im Widerspruch zur Physik befindet. Aber ist es möglich, diesen Glauben als wissenshaftlichen Unsinn zu wiederlegen? Interessanterweise haben sich am sogenannten Gottesbeweis sehr viele Philosophen versucht ohne Erfolg übrigens. Offenbar ist es nicht möglich, den Schöpfergott nachzuweisen bzw. ihn zu wiederlegen. Vielmehr handelt es sich bei Religion um ein anderes Sinnsystem was nicht im Widerspruch zur Wissenschaft steht. Heute ist die Wissenschaft um einiges entspannter. Anstatt zu versuchen, den Glauben wissenschaftlich zu beurteilen hat sein eine gegenseitige Toleranz entwickelt. Damit ist gemeint, dass obwohl sich Religion und Wissenschaft widersprechen hier niemand seine Wahrheit durchdrücken möchte.

Im Bereich der modernen Mythen geht es noch nicht so entspannt zu. Bekanntlich werden bis heute erbitterte Debatten darüber geführt ob Roswell 1947 stattgefunden hat oder nicht. Offenbar akzeptieren die Diskutanten nur eine Wahrheit. Letztlich wird hier die Wissenschaft nachgeben müssen. Ähnlich wie bei der Frage ob es Gott gibt, ist sie nicht im Stande Fakten zu liefern. Weder ist die Wissenschaft im Stande die Evolutionstheorie zu verteidigen noch kann sie beweisen, dass Apollo 11 wirklich auf dem Mond war.

Ich würde sogar soweit gehen und behaupten, dass sogeanntes Debunking der Wissenschaft insgesamt schadet. Es ist ähnlich sinnlos wie der hunderste Gottesbeweis. Jedes Debunking läuft in eine Sackgasse und zwar deshalb weil die Wissenschaft kein einheitliches und damit wahres Gedankensystem ist sondern Wissenschaft ist grundsätzlich eine Lügenmaschine und damit des Teufels. Zu behaupten, eine wissenschaftliche Theorie ist wahr oder lässt sich beweisen ist kompletter Unfug. Weder kann die Biologie die Abstammung des Menschen vom Affen beweisen, noch kann sie die Konstanz der Lichtgeschwindigkeit beweisen. Was es gibt, sind nur eine Vielzahl von immer neuen Lügengeschichten und inszenierten Zaubertricks die von der wissenschaftlichen Community als Erkenntnis und Experimente bezeichnet werden in Wahrheit jedoch mehr Fragen aufwerfen als sie beantworten.

Nehmen wir nur mal das berühmte Buch von Charles Darwin wo er die Abstammung der Arten untersucht hat. Dieses Buch verkündet keineswegs die Wahrheit, sondern ist vergleichbar mit Seemansgarn von Captain Blaubär. Die Darwin Theorie wird vor allem von Leuten zitiert, die darauf aufbauend weitere Lügen in die Welt setzen. Beispielsweise wurde sie verwendet um die Therie von der genetischen Mutation zu begründen, außerdem um darauf aufbauend die XY-Chromosomen beim Menschen zu isoloieren. Auch das sind Lügengeschichten, allerdings eine Umdrehung höher. Zu glauben man könnte mit diesen Erkenntnisse irgendwas beweisen insbesondere gegen die einzige Wahrheit argumentieren welche im alten Testamant vermerkt ist, der hat von Wissenschaft ein falsches Bild. Er unterstellt, dass Charles Darwin einer von den guten war. So als ob er von Gott persönlich die Wahrheit erfahren hat und das gute in die Welt verkündet hat. Darwin war in Wahrheit ein Atheist und Teufelsanbeter. Er hat nicht die Wahrheit verkündet sondern grundlos die Menschen verwirrt.

In der Bibel wurde vor solchen Leuten gewarnt. Bekanntlich ist der Apfel der Erkenntnis eine verbotene Frucht. Wer sie isst wird sich vom Glauben an Gott entfernen, er wird mit gespaltener Zunge reden. Obwohl gerade in aufgeklärten Gesellschaften niemand das so deutlich ausspricht ist dennoch allgemein bekannt, dass alle Wissenschatler Lügner sind. Sie erzählen das genaue Gegenteil von dem was in der Bibel steht. Die Wissenschaft ist ein Feind der Religion und ein Feind der Wahrheit.

Das ist deshalb so nötig zu erwähnen, weil sich die Wissenschaft eben nicht einbilden darf, sie würde die Wahrheit verkünden und könnte damit Licht in die Welt bringen. So als ob Verschwörungstheoretiker unaufgeklärte Leute wäre denen man beweisen könnte, dass sie falsch liegen. Die Wahrheit ist, dass der Glaube an Verschwörungen wie auch der Glaube an den lieben Gott ein erwünschtes Verhalten darstellt. Ein herzensguter Mensch betet vor dem Schlafengehen zu Gott und glaubt daran, dass 1947 in Roswell ein UFO abgestürzt ist.

Nur Leute die Unfrieden stiften wollen und die Lügen verbreiten zweifeln an Gott oder ziehen Verschwörungen in Zweifel. Sie tun dies nicht weil es wahr wäre, sondern weil sie Menschen bloßstellen wollen. Man sieht das sehr schön daran, dass Leute die UFOs gesehen haben, regelmäßig von der Wissenschaft als Spinner oder schlimmeres bezeichnet werden. So als wäre der Glaube an Gott bzw. der glaube an außerirdische Besucher etwas kindisches oder gar ein Defizit.

Richard Dawkins hat eine Passion darin entwickelt, Religion jedweder Art zu verleumden. Das was Dawkins macht, hat nichts mit Aufklärung zu tun, sondern er hat irgendwann von dem verbotenen Apfel genascht und findet es jetzt cool, sich mit der Kirche anzulegen. Sowas ist Gift für jede Gemeinschaft.

Keineswegs hat die Religion im Laufe der Jahrhunderte an Mächtigkeit eingebüßt, sondern die Wissenschaft hat sich zurückentwickelt. Damit ist gemeint, dass Wissenschaft per se etwas schlechtes ist, Wissenschaft ist etwas was die Menschen vom Guten und Richtigen wegbringt. Wissenschaft führt dazu, dass die Menschen lügen erzählen. In den Universitäten wird zu 90% gelogen und die Leute belügen sich sogar selbst. Nur wird sowas dort als Hypothese betrachtet und als Druchbruch gefeiert. Das geht im Extremfall soweit, dass auch die Existenz Gottes als Hypothese bezeichnet wird, und die Erzählung in der Bibel interpretiert wird. So als ob man darüber diskutieren könnte, ob es wahr ist.

Hier https://www.youtube.com/watch?v=LmNT5wcVxJo wird der Zusammenhang zwischen christlichem Glauben und Verschwörungstheorien aus dem Internet erläutert. Auch dieses Video kommt zu dem Schluss, dass das Roswell Ereignis ähnlich wie Jesus Christus Geburt wahr ist. Und jeder der UFOs wiederlegen will die Unwahrheit sagt. Leider wird in dem Erklärvideo die Schuld auf Seiten der Kirche gesucht. Verschwörugnstheoretiker werden als Spinner hingestellt, die Geld verdienen wollen mit ihren Behauptungen. Die Frage ist jedoch weniger was Leute antreibt, an Gott zu glauben oder an UFOs sondern die Frage ist was Leute antreibt, die das genaue Gegenteil behaupten. Nicht die gläubigen Christen sind gefährlich sondern die Bedrohung geht aus von Atheisten und von Wissenschaftlern.

Cybersecurity mit PDDL

Wer geglaubt hat, dass Hackertools wie Backtrack Linux und Metasploit bereits das Ende der Fahnenstange in Sachen IT-Sicherheit wären, der hat die letzten Jahre geschlafen. Ok, zugegeben, das dürfte den meisten so gehen, dass sie keine Ahnung haben wie man Computer schützt oder wie ein Hacker denkt, dennoch ist es es an der Zeit einige Worte über PDDL zu verlieren. Das war ursprünglich einmal eine Programmiersprache um Informatik-Studenten mit dem Thema AI Planning auf theoretischer Ebene vertraut zu machen. Inzwischen wird PDDL jedoch zunehmend im Bereich Cybersecurity eingesetzt. Die Grundidee ist, nicht nur mit Metasploit automatisch nach Schwachstellen zu suchen und dann die gehashte Passwortdatei zu entschlüsseln, sondern PDDL geht soweit, den kompletten Angriffsplan zu automatisieren. Im Grunde ist PDDL gar kein Hackertool, sondern ein Programm mit dem man Gantt-Charts automatisch erstellen kann. Man kann es aber auch dafür nutzen, um ein Projekt mit dem Titel „Hacken“ durchzuführen, und zwar vollautomatisch.

Das Prinzip ist nicht komplett neu. Im Computerspiel Killzone 2 wurde im Jahr 2009 bereits ein HTN-Planner verwendet, also eine Künstliche Intelligenz welche die Aktionen eines NPC plant. Das gleiche wird im Bereich Computersicherheit genutzt. Dazu wird als Domäne kein Ego-Shooter modelliert, sondern ein virtueller angreifbarer Computer. In der PDDL Datei wird eine Game-Engine erstellt die folgende Tasks ausführen kann:
– Datei kopieren
– einloggen
– ausloggen
– Passwort eingeben
– Reset

Wenn man eine von diesen Funktionen aufruft, verändert die Game-Engine ihren internen Status. Ein wenig ist das vergleichbar mit einem Emulator wie qemu, nur mit dem Unterschied dass ein sehr minimalistisches System verwendet wird. Und jetzt gibt man dem PDDL Solver ein Goal vor wie z.B. „Hacke in den PC rein“ und der Solver gibt dann die nötigen Tasks zurück. Ob das klappt hängt damit zusammen ob die PDDL Datei hinreichend gut die Wirklichkeit abbildet.

Wie kann man sich das vorstellen? Im Grunde ist Attack-Planning mittels PDDL nichts anderes als was in Shakey oder in der DeepSpace 1 Raumsonde gemacht wurde. Zuerst wird eine Knowledge-Base erstellt (die Domäne). Vorzugsweise in der PDDL Syntax. Darin wird definiert wie die Welt funktioniert. Beispielsweise kann man einen Drucker beschreiben und in der PDDL Datei definieren, dass wenn kein Papier im Schacht ist, nichts gedruckt werden kann. Das ganze ist eine Art von Game-Engine, also ein Computerspiel zur Simulation eines tatsächlichen Vorgangs (qualitative Simulation). Und jetzt kann man an dieses Modell Befehle senden. Damit kann man testen ob es richtig programmiert wurde (Model checking). Aber man kann noch mehr tun. In der DeepSpace-1 Raumsonde wurde beispielsweise simuliert was passiert wenn ein Triebwerk ausfällt. Der Planer hat daraufhin einen Aktionsplan erstellt wie man das Problem lösen kann. Und zwar dadurch, dass als Ziel vorgegeben wurde: Raumsonde soll weiterfliegen, aber der Ist-Zustand ist „ein defektes Triebwerk“. Über einen PDDL Planner wurde daraufhin durchprobiert was in diesem Fall zu tun ist. Das ganze kann man auch im Bereich Cybersecurity nutzen. Man erhält auf diese Weise eine Künstliche Intelligenz welche sich in fremde Rechner reinhackt.

Es ist nicht einfach nur ein Script, sondern es ist ein Script-Generator. Im Grunde ist es der Alptraum für jeden Systemadminstrator, weil jetzt die Script-Kiddies nicht einfach nur Metasploit nehmen um damit Sachen zu machen, sondern jetzt machen sie gar nichts mehr. Streng genommen handelt es sich bei PDDL nicht um ein Computerprogramm, sondern um sich-selbst modifzierenden Code. Es ist nicht vorgegeben was passiert, sondern es wird nur noch das Ziel definiert und der Planner ermittelt dafür dann die richtigen Schritte.

Experten in Sachen Computersecurity werden PDDL bereits nutzen. Auf der letzten Darpa Cybergrandchallange wurde dieses Verfahren verwendet. Warum es bisher nicht im Mainstream angekommen ist, hat etwas damit zu tun, dass es an leicht bedienbaren Tools mangelt. Es gibt zwar einige PDDL Beispiele, aber diese Sprache ist alles andere als leicht verständlich. Im Grunde wäre es nötig eine grafische Visualisierung zu ermöglichen, um die Erstellung von domänen Files zu vereinfachen. Wie sowas im Bereich Computersecurity aussehen könnte ist unklar. Man kann ja wohl schlecht Angriffslücken als Avatare in einer Tron-Simulation abbilden …

BEISPIELE
Schaut man sich die PDDL Dateien einmal an die bei der Cybersecuritychallange verwendet wurden http://icaps-conference.org/ipc2008/deterministic/Domains.html so stellt man fest, dass die Domänen-Dateien erstaunlich groß sind. Wo die üblichen Blocksworld-Beispiele selten mehr als 2 kb benötigen, ist die PDDL Datei aus der Cybersecurity Challange über 30 MB groß. Vermutlich wurde sie mit Hilfe eines Generators erzeugt. Und noch etwas ist interessant, in der PDDL Datei sind Aufrufe zu weiteren Programmen enthalten.

Leider fehlt jede weitere Dokumentation noch eine Anleitung wie damit zu verfahren ist. Aber festzuhalten bleibt, das das ganze technisch gerade erforscht wird und sich Script-Kiddies mit sowas beschäftigen. Da Hacking ohnehin ein Thema ist, was kontrovers beurteilt wird ist wohl die Frage unsinnig ob PDDL basierende Angriffsvektoren der moralisch richtige Weg sind, sondern wie der Name „Challange“ bereits suggeriert geht es allein um eine möglichst hohe Punktzahl.

HACKERGAME
Relativ gut bekannt in der Hacker-Fachliteratur ist die Verwendung von Attack-Trees. Dieses Konzept wurde aus der Spieleprogrammierung übernommen und ist eine grafische Darstellung wie man vorgehen muss um einen Computer zu knacken. Attack-Trees werden dabei von links nach rechts gelesen und können eine Hierarchie ausbilden. Beispiel:
1. Keylogger installieren
2. Passwort suchen
3. mit Passwort Rechner knacken

Natürlich ist das kein richtiger Attack-Tree sondern soll nur das Prinzip verdeutlichen. Echte Attack-Trees sind weitaus komplexer aufgebaut und beinhalten detailierte Informationen, also wie genau man eine Passwortdatei entschlüsselt usw.

Lange Zeit galten Attack-Trees in der Hacker-Szene als Nonplus-Ultra weil sie ähnlich wie Metasploit auch Hacken nicht als besondere Fähigkeit oder als genial bezeichnen sondern einen formalen Zugang ermöglichen. Die konsequente Weiterentwicklung von Attack-Trees sind die bereits erwähnten PDDL Modelle. Obwohl es relativ gute Paper dazu gibt, bleibt das Konzept sehr trocken. Am einfachsten lässt sich das Prinzip am Spiel „Hackergame“ erläutern. Es handelt sich dabei laut Youtube um eine Art von Textadventure wo der Spieler Kommandos eingibt und in einen simulierten Computer eindringen muss. Das ganze mit einem Intro versehen was an Matrix erinnert. Im Hintergrund wird keineswegs qemu verwendet, sondern das Spiel bringt einen eigenen parser mit, also ein selbst erfundenes Betriebssystem was stark vereinfacht. Die Game-Engine zu diesem Spiel kann man sich als PDDL Datei vorstellen. In der Game-Engine ist festgelegt, was passiert wenn der Spieler einen bestimmten Befehl eingibt.

Das Spiel Hackergame funktioniert so, dass der Spieler manuell die richtigen Befehle eingeben muss, so ähnlich wie bei einem Textadventure auch, muss er die angezeigten Informationen auswerten und darauf reagieren. Man kann dieses Spiel aber auch wie jedes andere Computerspiel, vollautomatisch spielen. Also über Brute-Force Methoden spielen. Also einfach alle Befehle per Zufalls durchtesten bis man irgendwann den maximalen Highscoore erhält. Im Grunde ist das identisch mit dem was in der Cybersecurity-Challange mit PDDL Modellen realisiert wird. Zuerst bastelt man sich ein Hackerspiel und dann wird dieses Spiel von einem Planner automatisch gelöst.

Was ist der vorteil gegenüber klassischen Attack-Trees? Der Vorteil ist, dass man in so einer Game-Engine weitaus komplexere Systeme modellieren kann. Also Systeme die näher dran sind an der Wirklichkeit. Und vor allem ist es möglich, diese Modelle autoamatisiert zu verarbeiten. Also zu testen, ob sie der Wirklichkeit entsprechen, und sie in der UML Notation ausgeben.

Um sich klarzumachen was das bedeutet hier ein kleiner Rückblick wie normalerweise Modellierung in der Computersicherheit funktioniert. Zunächst einmal gibt es den physikalischen Computer der ans Internet angeschlossen ist. Der ist über einen Stromanschluss versehen und wird warm, wenn er belastet wird. Ganz zu Anfang der Hacker-Historie wurde in solche physikalische Systeme reingehackt. Später wurden dann Emulatoren wie qemu entwickelt. Dadurch war es nicht mehr nötig, einen physikalischen Computer anzugreifen, sondern stattdessen hat man in der Qemu-Umgebung das Zielsystem nachgebildet und dort dann versucht Exploits zu finden. Aus dieser Vorgehensweise haben sich Tools wie Metasploit entwickelt, was im Grunde ein werkzeug ist um qemu-Maschinen zu pentesten. Selbstverständlich ist es möglich, die dabei gewonennen Erkenntnisse wiederum auf physikalischen Maschinen einzusetzen, aber das ist nicht länger das primäre Ziel. Eine Umdrehung weiter gehen dann PDDL basierende Emulatoren. Dort wird oberhalb von Qemu noch eine weitere Abstraktionsstufe errichtet. Wiederum wird ein Computer simuliert, doch diesmal einer der auf das Hacken reduziert ist. Die Frage die sich daraus ergibt lautet, ob die dabei gewonnen Erkenntnisse sich in der Qemu-Maschine ausführen lassen. Im Kern hängt es davon ab wie genau die Game-Engine funktioniert.

Blackgoo wird Wirklichkeit …

Viele Science-Fiction Autoren haben sich bereits am Thema Blackgoo abgearbeitet. Gemeint ist eine außerirdische Substanz bestehend aus Nanorobotern die sich unkontrolliert verbreitet und alles auffrisst was sich ihr in den Weg stellt. Aber nicht nur die Science-Fiction fühlt sich berufen dazu Aussagen zu treffen, auch die seriöse Forschung hat an dem Thema gefallen gefunden. Wer sich über den aktuellen Stand informieren will der sollte bei Google Scholar die Stichworte „PDDL Nanorobotics“ eingeben. Er wird eine Reihe von Papern aus dem Jahr 2015 und 2016 finden die sich mit MEMS Robotern beschäftigen (Kleinstroboter die in den menschlichen Körper eindringen) welche über eine Planungssystem namens PDDL gesteuert werden. (Anmerkung: Google Scholar liefert leider nicht die passenden Paper, in diesem Fall ist ausnahmsweise die normale Google Suche zu benutzen. Auch dort ist die Trefferzahl überschaubar. Vermutlich gibt es auf diesem Gebiet noch weitere Forschung, allerdings hat Google bei der vollständigen Indizierung von Bücher noch Probleme.). Es handelt sich dabei um jene Technologie die schon bei Shakey the Robot eingesetzt wurde, und in jüngster Zeit zur Programmierung von KI-Bots in Computerspielen genutzt wird. Offenbar ist es möglich, preiswerte Kleinstroboter und PDDL gemeinsam zu erforschen was dazu führt, dass nicht so ganz klar ist, wo die Wissenschaft endet und wo die Science Fiction anfängt.

Der Grund warum MEMS Robotik die Forschung elektrisiert, hat etwas damit zu tun, dass sich diese Roboter sehr preiswert fertigen lassen. Der Produktionsprozess hat ähnlichkeit mit der Microchip Fertigung wo man ebenfalls die Kosten für einen einzelnen Transistor fast auf Null reduziert hat. Ferner benötigen MEMS Roboter auch keine großen Stromquellen sondern können im Extremfall über induktion aus der Ferne aufgeladen werden. Das reduziert die Baugröße nochmals. Wenn man die Berechnungen für den PDDL Planner noch auf einen externen Computer auslagert und bei der Programmierung neben einem symbolischen auch einen geometrischen Planner einbezieht hat man im Grunde genau das gebaut, was als Blackgoo bekannt ist. Eine Technologie die nicht viel teurer ist als blaue Schultinte und die vielfältig einsetzbar ist.

Zugegeben, ganz so weit ist die Forschung noch nicht. Die Paper sprechen von größeren Problemen und ungelösten Fragestellungen. Beispielsweise ist unklar wie genau eine PDDL Datei aussehen muss, oder wie genau ein effizienter Solver funktioniert. Aber, es ist sehr wahrscheinlich dass dies Detailprobleme sind und die Technologie insgesamt sich wird durchsetzen.

Was damit möglich ist, kann die seriöse Wissenschaft derzeit nicht beantworten, weil wie gesagt die technischen Schwierigkeiten noch viel zu groß sind. Aber die Science-Fiction Autoren behaupten, dass sich mit Nanorobotik alle Krankeheiten heilen lassen, dass man das Altern aufhalten kann, dass Blinde das Sehen lernen und das man Menschen in Cyborgs verwandeln kann.

Aber der eigentliche Grund medizinische Nanorobotik als Zukunft zu bezeichnen hat etwas damit zu tun, dass andere Anwendungen wie „Roboter im Weltraum“ keinen Nutzen bringen. Das heißt, mit Nanorobotern kann man mit etwas Glück die Lebenserwartung von Menschen erhöhen, mit einem NASA Roboter hingegen kann man nur feststellen, dass wir allein im Weltraum sind. Anders gesagt, zwar wird es in Zukunft vermutlich auch Roboter im Weltraum geben, aber irgendwelchen Nutzen werden sie dort nicht haben. Zwar hat auch die NASA ehrgeizige Pläne was man mit intelligenten Roboterschwärmen anfangen könnte, beispielsweise einen Todesstern bauen, ein Sonnensegel auf dem Mond errichten oder in fremde Galaxien reisen, aber wozu das alles? Wir wissen bereits, dass der Mond unbewohnt ist, der Mars kein Leben besitzt und dass es in der Milchstraße kein intelligentes Leben gibt.

Anders ausgerückt sind Roboter im Weltraum eine sinnlose Technologie. Es ist nichts was erforscht werden müsste oder wofür Zeit investiert werden sollte. Mit Nanorobotern im menschlichen Körper hingegen lässt sich nicht nur Geld verdienen, sondern man kann damit etwas entdecken.

Zukunft der Raumfahrt

Um es abzukürzen, die Raumfahrt hat keine Zukunft. Die Zeit der Entdeckungen ist vorbei, man kann nur einmal als erstes auf dem Mond landen. Um der Raumfahrt eine Fortschrittstreibende Bedeutung zuzumessen, muss man sich gedanklich in die Vergangenheit begeben. Vielleicht in die 1950’er. Damals hatte Raumfahrt eine Zukunft. Denn es war damals noch unklar wie man eine Raumstation baut, wie man andere Planeten besucht oder wie man Satelliten baut. Heute wissen wir es. Allerdings ist die unmittelbare Nachbarschaft der Erde inzwischen kartographiert und Leben gibt es auf dem Mond oder Mars auch keines. Neue Erkenntnisse über den Weltraum sind auch nicht zu erwarten und so fragt man sich welche Perspektive die NASA noch hat?

Leider gar keine. Selbst technologisch ist das was in Weltraummissionen verwendet wird, völlig veraltet. Bei der hochgelobten Deep-Space-1 Mission kam im Jahr 1998 beispielsweise ein RAD6000 CPU zum Einsatz. Das ist für die NASA so eine Art von workhorse was in vielen Missionen eingesetzt wird. Die leistung dieser weltraumtauglichen CPU ist weitaus niedriger als bei einem raspberry PI. Selbst ein Computerspiel wie Doom würde darauf nicht laufen. Zum damaligen Zeitpunkt war die RAD6000 CPU jedoch das leistungsfähigste Modell was man hatte. Das Problem liegt schlichtweg darin, dass man in einer Raumsonde nur sehr wenig Strom hat, dass die CPU gehärtet sein muss gegen Strahlung, und dass die Innovationszyklen in der Raumfahrt sehr langsam laufen.

Wird sich daran in Zukunft etwas ändern? Wohl kaum, auch Raummissionen der Zuukunft werden mit altersschwachen CPUs durchgeführt werden, und die Verwendung eines Großcomputers auf der Erde der Signale zum Raumsonde sendet geht auch nicht, weil dafür die Distanzen zu groß sind. Aber was noch schwerer wiegt: selbst wenn man eine Raumsonde mit einer modernen Intel Core i7 Gamer-CPU ausstatten könnte, würde es nichts bringen, weil man auf dem Mond oder Mars ohnehin nichts sinnvolles mit einem Roboter anstellen kann. Weitere Distanzen zu anderen Planeten kann man auch nicht überwinden (Konstanz der Lichtgeschwindigkeit) und selbst die Utopie mittels Laser und Sonnensegel in eine Nachbargalaxie vorzustoßen würde selbst im Erfolgsfall keine neue Erkenntnisse bringen. Das dort kein intelligentes Leben ist, wissen wir durch die Teleskope und Radiomessungen ohnehin.

Offiziell lässt die NASA nach wie vor verlautbaren dass die große Pläne hat, neue Antriebskonzepte erforschen will und unbemannte Missionen mit mehreren Raumsonden durchführen möchte. Tatsächlich ist die Raumfahrt in einer schweren Krise. Menschen in den Weltraum zu schicken ist zwar möglich, ist aber viel zu teuer. Roboter in den Weltraum zu schicken ist zwar billiger bringt aber nichts. Denn mal ehrlich, was genau hat das Mars Sojourner der Menschheit gebracht? Gar nichts.

Keineswegs ist Raumfahrt per se etwas schlechts. Geht man in den 1950’er Jahre zurück, war Raumfahrt das spannenste was man sich vorstellen konnte. Es gab viel zu erforschen. Aber heute? Selbst wenn man zig-Milliarden in die Raumfahrt geben würde, hätte man im Erfolgsfall in 20 Jahren eine bemannte Mars-Mission. Wo also ein Amerikaner auf dem roten Planeten landet, dort Staub einsammelt, die Fahne in den Sand steckt und dann gesund und munter zurückkommt. Irgendwas bringen würde das nichts. Es handelt sich hier um eine Mission, die extrem risikoreich in Sachen Kosten ist, auf der anderen Seite keinerlei Nutzen verspricht.

Natürlich hat die Raumfahrt generell betrachtet einen hohen Nutzen. Durch Satelliten im Weltraum ist beispielsweise heute weltweite Telekommunikation möglich, und wenn Apollo 11 nicht gewesen wäre, so müsste man jetzt eine Mondmission durchführen nur um zu sehen ob es geht. Ferner waren Projekte wie Voyager 1 sicherllich eine gute Sache. Aber das sind alles Erfolge der Vergangenheit. Relevant ist jedoch nur die Gegenwart und das Morgen, weil man hier Entscheidungen treffen kann. Und zu glauben, dass man die Erfolge der Vergangenheit wiederholen kann ist ein Trugschluss. Die Zeit der Raumfahrt ist vorbei, die Wünsche sind realisiert worden.

Ernüchternd ist die Erkenntnis dass es außerhalb der Erde kein Leben gibt. Gäbe es auf dem Mond Wasser und Bäume, könnte man überlegen dort eine Kolonie zu errichten. Gäbe es auf dem Jupiter bakterielles Leben, könnte man es erforschen. Gäbe es Radiosignale mit intelligenten Botschaften aus anderen Sonnensystemen könnte man Kontakt aufnehmen. Aber nichts davon existiert. Es wurde kein Anzeichen für Leben gefunden, und das bedeutet nichts anderes, als dass jede Form von Raumfahrt die in den nächsten 50 Jahren möglich wäre, daran auch nichts ändern wird. Man kann den Mond noch dutzendmal besuchen, das Ergebnis dass es sich um einen trostlosen Planeten handelt wird das selbe sein.

Ich glaube, man sollte unterscheiden zwischen Raumfahrt einerseits (das was die NASA macht) und Astronomie. Astronomie ist die Wissenschaft von der Erforschung des Weltraums. Also das Erstellen von Sternenkarten oder das Entwickeln von Hypothesen über den Urknall. Diese Wissenschaft hat wie jede andere Wissenschaft ihre Daseinsberechtigung, man kann hier neue Erkenntnisse gewinnen. Auf der anderen Seite gibt es noch die Raumfahrt, welche praktisch orientiert ist, wo es also darum geht, Raumschiffe zu bauen, Menschen in den Weltraum zu schicken oder Nutzlasten zur ISS zu transportieren. Diese Fragen haben mit Wissenschaft nicht das geringste zu tun. Es wird nichts erforscht, sondern es wird ein wirtschaftlicher Komplex am Laufen gehalten.

Die Gesamtausgaben für die ISS Raumstation betrugen bereits 150 Milliarden US$. Einen wissenschaftlichen Nutzen gab es keinen. Hätte man dieses Geld nicht eher in die Forschung stecken sollen? Also anstatt eine Raumstation zu bauen, lieber Grundlagenforschung zu betreiben? Ich sage ja. Das Problem ist, dass die NASA niemals eine wissenschaftliche Organisation war, sondern sich dem Machen verpflichtet fühlt. Immer ging es darum, irgendwelche Projekte durchzuführen, Menschen ins All zu schicken, Bodenproben zu sammeln. Das war das erklärte Ziel der NASA. Nur was bringt das? Ein gutes Beispiel ist wohl die Apollo Mission. Der erste Mann auf dem Mond in Apollo 11 hatte durchaus noch einen wissenschaftlichen Nutzen. Es war der Beweis, dass es grundsätzlich möglich ist. Aber die Folgemissionen Apollo 12 usw, hatten mit Wissenschaft nichts mehr zu tun. Es war lediglich die Freude an einer funktionierenden NASA Machinerie. Das also alle Mitarbeiter gut zusammenarbeiten, in der Lage sind ein Projekt durchzuziehen und ausgelastet sind. Genausogut hätte die NASA auch einen olympischen Wettbewerb austragen können und sich darüber freuen, dass er so gut beim Publikum ankommt. Das wäre zwar ein erfolgreiches Projekt gewesen, aber eben kein wissenschaftliches Projekt.

KALTER KRIEG
Um zu verstehen, warum die NASA gegründet wurde, muss man in den kalten Krieg zurückgehen. Ursprünglich wurden die Trägerraketen für militärische Aufgaben (Atombombe über weite Distanzen zu verschießen) entwickelt. Die zivile Raumfahrt wurde als Alibiprojekt betrieben um die Entwicklung von Raketen zu begründen. Aus Sicht der 1950’er machte diese Symbiose Sinn. Einerseits gab es wissenschaftliche Fragestellungen wie „Gibt es Wasser auf dem Mond?“ andererseits benötigte das Militär Raketen.

Heute ist jedoch die Lage eine andere. Wissenschaftliche Fragestellungen gibt es keine mehr, und das Militär besitzt inzwischen leistungsfähige Raketen. Das heißt, der NASA fehlt es an Legitimation. Noch immer wird so getan, als gäbe es im Weltraum irgendwas zu erforschen. Aber schauen wir uns dochmal die konkreten Pläne der NASA an: sie wollen eine Mondbasis bauen und sie wollen den Mars mit Menschen besuchen. Macht das für jemanden noch Sinn? Wie es auf dem Mars aussieht wissen wir. Es gibt umfangreiches Videomaterial, Bodenproben und Beobachtungen durch Teleskope. Auf dem Mars gibt es keinerlei Städte von alten Kulturen, keinerlei höhere Lebensformen. Lediglich einige Details sind noch offen wie die Frage ob es dort Wasser gibt, und ob möglicherweise in der Vergangenheit dort Leben existierte. Aber, das sind keine wichtigen Fragen, die irgendwas verändern würden wenn man sie beantwortet. Und außerdem würde eine Mars Mission der NASA diese Fragen ohnehin nicht beantworten können.

Überlegen wir doch einmal, was man mit dem Geld hätte anfangen könnten das zum Bau der ISS verschleudert wurde. Man hätte mit den 200 Mrd US$ beispielsweise die komplette Erde mit Fiber-to-the-Home ausstatten können. Für Deutschland würden Kosten entstehen von einmalig 30 Mrd. EUR. Hätte man das gemacht und auf die ISS verzichtet, wäre ein Nutzen vorhanden. Nicht nur die Wissenschaft würde profitieren, die teilweise nach wie vor mit ISDN Geschwindigkeit Paper aus dem Netz saugt, sondern auch die meisten Privatleute hätten einen Nutzen davon. Oder man hätte mit dem Geld Bibliotheken digitalisieren können, was ebenfalls einen wissenschaftlichen Nutzen bringt. Kurz gesagt, es gibt viele interessante Projekte die sehr teuer sind und die einen Nutzen versprechen. Das Geld der NASA zu geben ist hingegen ein Fehler.

Selbst wenn man daran interessiert ist, ob es intelligentes Leben im Weltraum gibt, wäre die NASA unfähig das zu beantworten. Bekanntlich sind die Distanzen im Weltraum so groß, dass Raumschiffe ohnehin die Strecken nicht zurücklegen könnten. Man müsste stattdessen eine Technologie weiterentwickeln wie die Lasertechnik oder die Radioastronomie. Es ist eine Technologie die nichts zu tun hat mit Mondbesiedelung oder funktionierenden Weltraumtoiletten, sondern es wäre Grundlagentechnik die dazu führt, dass man auf der Erde Teleskope baut oder Subraum-Nachrichten versendet. Obwohl die Suche nach außerirdischem Leben mittels SETI umstritten ist, handelt es sich doch zumindest um ein wissenschaftliches Projekt mit einem klaren Ziel. Man kann jetzt darüber streiten, wieviel Geld man dafür aufwenden möchte, aber immerhin steckt dahinter eine Utopie. Die NASA hingegen hat gar keine Ziele. Die NASA lebt in der Vergangenheit und legitimiert sich dadurch, dass sie in den 1950’er Jahren eine Zukunft hatte. Das einzige was die NASA macht ist es, immer neue Arten von Raumsonden in den Weltraum zu schicken und immer neue Formen von Raketen zu testen, in der absurden Vorstellung, das wäre Fortschritt.

Einige behaupten, es gäbe einige wenige gescheiterte NASA Projekte wie die Challanger Explosion oder Apollo 13. Tatsächlich ist jedoch insgesamt ein Fail, jedenfalls wenn man eine Kosten-Nutzen-Analyse betreibt. Vielleicht ein Detail dazu: einerseits baut man komplexe Raumsonden, um auf einem Astroiden zu landen, Gesteinproben zu nehmen und diese zur Erde zu bringen. Auf der anderen Seite gibt es genug abgestürzte Astroiden auf der Erde, wo man das Gestein nur einsammeln braucht, wenn man es untersuchen möchte. Die Frage ist weniger, wie man die Raumfahrt preiswerter gestalten kann, sondern die Frage ist wie man komplett darauf verzichtet.

Hier noch ein weiterer Fail der NASA. Im Jahr 2011 hat ein Amateur einen Wetterballon mit einem iphone in die Erdatmosphäre geschickt. Die Kosten für den Steuerzahler damals waren gleich Null. Die Bilder die dabei entstanden waren von der selben Qualität wie sie die NASA auch lieferte, nur mit dem Unterschied, dass die NASA weitaus mehr Aufwand treibt mit all den Raumschiffen. Würde es wirklich nur darum gehen, wissenschaftliche Erkenntnisse oder Videomaterial aus dem Weltraum zu bekommen, bräuchte man die NASA gar nicht.

GPUs werden überschätzt

Als Geheimtipp in Sachen wissenschaftliches Rechnen wird nach wie vor die Verwendung einer GPU propagiert, so wurde beispielsweise in einem Paper untersucht ob und wie man über eine GPU einen PDDL Solver beschleunigen kann um damit SAT Probleme zu lösen. Die Annahme lautet, dass GPU Computing der grundsätzlich richtige Weg sei und man lediglich im Detail klären müsste wie man es dann macht.

Schauen wir doch einmal die Details an. Eine typische Mittelklassegrafikkarte von nvidia kostet 300 EUR und verbraucht 150 Watt. Man kann damit einerseits Spiele in hoher Auflösung ruckelfrei spielen, andererseits aber auch GPU Computing betreiben. Was ist die Alternative? Lautet die Alternative etwa, gar keinen Booster zu verwenden und nur mit CPU zu rechnen? Nein, die Alternative lautet, sich eine zwei CPU zu kaufen, beispielsweise eine Intel Core i5 welche ebenfalls 300 EUR kostet und ebenfalls 150 Watt verbraucht. Interessanterweise lassen sich Intel CPUs nicht nur einfacher programmieren, sondern sie sind auch leistungsfähiger als das nvidia pendant. Warum gibt es also diese Benchmarks wo versucht wird PDDL Solver auf einer GPU zum Laufen zu bringen während jedoch nicht untersucht, ob sich ein PDDL Solver auf einer Intel CPU betreiben lässt? Vermutlich deshalb, weil man bereit ist auf das Marketing von nvidia hereinzufallen. Das Motto lautet, dass GPU Computing zwar viel Strom verbraucht, nur minimale Verbesserung erbringt und noch dazu sehr kompliziert ist (Java 8 unterstützt es nicht), man es aber trotzdem gegenüber CPU Computing bevorzugt weil es cool ist.

Die traurige Wahrheit über King Robota

„Titan the Robot“, „King Robota“ und „Nox the robot“ sind bekannte Show-Roboter die weltweit auftreten und die Illusion von fortschrittlicher Technologie erzeugen. Aber was steckt dahinter? Über Nik Fielding, Cyberstein Robots Inc. oder King Robota gibt es nur wenig Informationen. Bis heute ist unklar ob ein Mensch sich darin befindet oder nicht. Um die Wahrheit herauszufinden, lohnt ein Besuch im „Tokyo Robot Restaurant“. Laut einem CNN Bericht ist dort auch King Robota bereits aufgetreten und hat sich perfekt integriert in die ganzen anderen Roboter.

Das „Tokyo Robot Restaurant“ kann man einmal so beschreiben, wie es sich selber sieht. Als das aufregenste Erlebnis was man in Tokyo entdecken kann, als eine unvergleichliche Attraktion und der Höhepunkt einer jeden Asienreise. Oder aber man kann ein wenig kritischer sich der Sache annehmen. Viele Besucher berichten, dass sie enttäuscht waren von dem Restaurant. Das Essen hat nicht geschmeckt, irgendwas tolles wurde auch nicht geboten, und die Stroposkoplichter nerven irgendwann nur noch. Echte Roboter gibt es im Restaurant leider nicht zu sehen. Mit Ausnahme von zwei ferngesteuerten Autoscootern auf denen Animatronics Figuren verpflanzt sind, besteht der Rest der Show aus durchtrainierten Japnerinnen die Reflektorkostüme tragen.

Nicht nur King Robota ist Fake, sondern das komplette Roboterrestaurant kann man in diese Kategorie einordnen. Was man dort zu sehen bekommt, sind nicht etwa Roboter, sondern Leute die in einem Roboterkostüm verkleidet über die Bühne hechten und die nach der Show schweißüberströmt aus dem Anzug gepellt werden müssen.

Aber wenn das Toyko Roboterrestaurant ein Fake ist, was ist dann echte Robotik? Echte Robotik zeichnet sich dadurch aus, dass sie scheitert. Es bedeutet, dass man Roboter hat, die nicht laufen können, die keine Dinge greifen können, deren Sprachsynthese schwer zu verstehen ist und die ihre Umgebung nicht wahrnehmen können. HEBOCON ist so ein Wettbewerb. Dort treten Roboter gegeneinander an, die nachweislich von Nichtskönnern programmiert wurden. Es sind Roboter, die eine Schüssel mit Nudelsuppe transportieren die selbstverständlich verschüttet wird. In der Selbstbeschreibung heißt es: „Hebocon is a robot contest for the technical ungifted.“