Hybrid aus Surgical Snake Robot und Nanorobot denkbar

Wieder einmal sitze ich an einer kleinen wissenschaftlichen Arbeit, die demnächst auf Academia.edu erscheinen wird, bei der mir etwas aufgefallen ist. Es geht darin um die Zukunft der Nanorobotik. Derzeit gibt es zwei unterschiedliche Ansätze. Einmal „surgical Snake Robots“, was ein verbessertes Davinci-System darstellt bei dem ein beweglicher Schlangenroboter mit einer Dicke von 12 Millimeter in den Körper eingefügt wird um am Herzen oder im Gehirn Operationen auszuführen. Und dann gibt es noch echte autonome Nanoroboter, die sehr viel kleiner sind und mit einer Nadel in die Blutbahn injiziert werden. Beide Systeme besitzen vor- und Nachteile. Meiner Ansicht nach wäre es möglich die Ansätze zu verbinden. Das heißt konkret:

Es wird zunächst ein kleiner Schnitt in der Bauchdecke des Patienten ausgeführt um den 12 Millimeter dicken Snake-Robot einzuführen. Dessen Spitze dient im inneren des Körpers als Mothership und stellt eine unbegrenzte Menge an Strom, Licht und Dieseltreibstoff zu verfügung. Ausgehend von diesem Mothership starten dann Nanoroboter die deutlich kleiner sind und das Mothership nutzen um dorthin ihre Signale zu senden, und neuen Kraftstoff zu beziehen. Die Nanoroboter führen dann die eigentliche Operation aus.

Mechanisch wäre es noch halbwegs leicht möglich soetwas zu bauen. Die Schwierigkeit besteht in der Software zur Steuerung. Den 12 Millimeter großen Snake Roboter könnte man wie bisher auch manuell steuern. Um jedoch eine Zahl von 20 Nanoroboter zu steuern, die auch noch zwischendurch nachtanken müssen, bräuchte man extrem viel Fachpersonal im OP Raum. Die einzige Methode wäre hier Künstliche Intelligenz um die Steuerung zu automatisieren.

Sich selbst-reproduzierende Roboter

Konrad Zuse hat im Jahr 1995 am sogenannten Helix-Turm gearbeitet, eine mechanische Konstruktion die sich selbst ausfahren konnte. Ketzerisch formuliert handelt es sich dabei einfach um ein Metall-Maßband was auf Knopfdruck ausfährt. Aber wenn man so sich-selbstreproduzierende Roboter nicht realisieren kann wie dann?

Eine Möglichkeit die besonders in den letzten Jahren modern geworden ist, verwendet einen 3D Drucker um damit einen Roboter oder andere 3D Drucker herzustellen. Doch auch hier scheint es sich um eine Sackgasse zu handeln, weil der Druck von simpelsten Bauteilen sehr viel Zeit in Anspruch nehmen und noch dazu teurer sind, als wenn man traditionelle Maschinen nutzt. Ist womöglich der Traum von sich-selbst reproduzierenden Maschinen ähnlich wie ein Perpetuum Mobile nicht realisierbar? Nicht ganz. Zunächst sollte man wissen, dass sowohl für die Reproduktion von Menschen als auch von Maschinen die Sonne der wichtigste Energielieferant ist. Man muss also keineswegs etwas aus dem Nichts erschaffen sondern es reicht wenn man es schafft die Sonnenenergie irgendwie umzuformen. Man braucht als Ausgangsmaterial entweder Rohstoffe die durch Sonnenlicht wachsen (Pflanzen, Bäume und Holz) oder aber man verwendet Sonnenlicht nur zur Stromversorgung und nutzt als Rohstoffe Altmetalle wie sie auf Schrottplätzen oder in unterirdischen Lagerstätten zu finden sind.

Wirliche Selbstreplikation aus dem Nichts heraus ist eine Illusion die auch die Natur nicht kann. Roboter müssen es demnach auch nicht beherschen, sondern es reicht wenn man Pseudo-Selbstreplikation realisiert. Im einfachsten Fall geht das durch einen Roboterarm, der aus einem Stabilbaukasten einen Roboter konstruiert. Er nutzt also jene Bauteile die schon da sind. Im zweiten Schritt kann man sich dann überlegen, wie man eine unbegrenzte Anzahl von Stabilbäukästen erzeugt. Entweder behauptet man, die wären schon vorher da gewesen, oder baut einen Roboter, der Maschinen bedienen kann die Bauteile eines Stabilbaukastens herstellen. Also einen humanoiden Roboter der eine CNC-Fräse, einen Gabelstapler usw. bedienen kann. Der Ablauf ist dabei so, dass man sich das Rohmeterial irgendwoher besorgt und dann über Arbeitsleistung daraus Fertigprodukte herstellt. Und wie deutlich zu erkennen ist, gibt es sehr oft das Problem dass man irgendwoher von außerhalb etwas zuführen muss. Das heißt, an keiner Stelle des Prozesses handelt es sich um ein autarkes System sondern Selbstreplikation ist immer geschummelt. Der Roboter der aus vorhandenen Teile etwas baut, benötigt zunächst einmal diese Teile. Der Roboter der Bauteile herstellt benötigt zunächst einmal Rohstoffe usw.

Bei Selbstreplikation geht es keineswegs darum, aus sich selbst heraus autark etwas zu generieren sondern worum es eigentlich geht sind die Kopierkosten. Also wie teuer es ist, einen Roboter ein zweites Mal zu bauen. Soetwas kann 10000 US$ kosten oder auch nur 1 US$, jenachdem wie effizient der Ablauf ist. Von Selbstrepliaktion spricht man wenn die Kopierkosten Null oder nahe Null sind.

Um das Problem weiter einzugrenzen gilt es zwei Probleme zu lösen: erstens, self-assembly und zweitens, self-production. Self-assembly wurde bereits erwähnt. Es ist die Fähigkeit aus einem Stabilbaukasten etwas sinnvolles zu bauen. Um das zu realisieren benötigt die Künstliche Intelligenz dexterous Manipulation Fähigkeiten inkl. der Bedienung von Werkzeugen wie ein Schraubenzieher. Self-production meint, dass der Roboter in der Lage ist, die Rohstoffproduktion zu überwachen. Das heißt, er muss mit einem LKW das Metall heranschaffen, er muss das Fließband einschalten, er muss die CNC Fräse bedienen usw.

Man kann den Gesamtprozess aber auch deutlich vereinfachen. Und zwar deswegen weil klar ist, dass ohnehin geschummelt wird. Die Frage ist nur wie sehr man betrügt. Die wohl simpelste Form von Selbstreplikation besteht darin, dass ein Roboter bei einem anderen Roboter auf den On-Schalter drückt. Roboter1 schaltet Roboter2 an. Roboter1 schaltet Roboter3 und Roboter4 an und gleichzeitig schaltet Roboter2 Roboter5 und Roboter6 an und so geht die Kettenreaktion munter weiter. Wie nicht anders zu erwarten, müssen diese externen Roboter irgendwoher kommen, sie sind nicht einfach da sondern man muss sie von außen zuführen. Aber zumindest hat man so eine grobe Vorstellung was es heißt, eine Kettenreaktion auszulösen. Man kann jetzt derartige Systeme realistischer und zugleich schwieriger zu realisieren gestalten. Indem man beispielsweise vor dem Einschalten zunächst noch die Batterie einsetzen muss, und bevor man sie einsetzt diese erst irgendwo herholen muss usw. Dadurch wird der Prozess sehr viel detalierter aber auch schwieriger zu automatisieren.

Letztlich funktioniert so die Selbstreplikation von Robotern. Jenachdem wieviel Teilschritte man vollautomatisch gestalten kann sinken die Kosten und das System wird sich ein wenig mehr anfühlen wie Science-Fiktion. Der schwierigste Part ist jedoch nicht die mechanische Seite sondern es ist die Software. Wenn man bereits über ein Robot-Control-System verfügt ist Selbstreplikation simpel, wenn man aber noch keines hat muss man eines programmieren und zwar möglichst autonom. Hier stellt sich die Frage was das kleinst-mögliche Startsystem ist, also wie der minimale Programmcode aussieht, der gerade noch funktionsfähig ist. Für die Praxis hat die Software jedoch nur eine untergeordnete Bedeutung, denn Software wird von Menschen erstellt, ist also ähnlich wie das Sonnenlicht standardmäßig vorhanden. Wenn man zusätzlich noch die Software von Null aus replizieren will, müsste man zunächst einmal ergründen was menschliche Intelligenz ausmacht. Das ist jedoch eine rein philosophische Frage. Man kann auch ohne darauf eine Antwort zu wissen, self-replicating Robots realisieren.

FLIEßBAND
Realistisch gesehen wird Selbst-Replikation aussehen wie ein Fließband. Es ist nicht nur für menschliche Arbeit das effizientes Mittel sondern auch für automatisierte Arbeit gibt es nichts besseres. Der Unterschied ist lediglich, dass an den einzelnen Stationen dann Roboter stehen, und wenn ein Roboter kaputt geht wird dieser ebenfalls am Fließband wieder repariert.

NANOROBOTER
Auf den ersten Blick klingt die Aussicht auf sich-selbst reproduzierende Maschinen wie der wahr gewordene Traum von Fabrikbesitzern. Allerdings ist diese Utopie nicht besonders mächtig. Denn auch heute schon gibt es arbeitssparende Techniken in der Produktion. Für die Menschheit als solche würde sich gar nichts verändern. Natürlich wäre es schön wenn man manuelle repititive Arbeit durch Roboter durchführen könnte, aber noch schöner wäre es wenn man Roboter auf anderem Gebiet einsetzt wo sie vielmehr bewirken können. Und das ist in der Medizin. Das Hauptproblem was sich in den letzten 100 Jahren trotz Automatisierung nicht verbessert hat ist die Sterblichkeit von Menschen. Im Normalfall dauert das Leben eines Individuums selten mehr als 70 Jahre und diese Spanne zu verlängern ist derzeit technisch nicht möglich. Es gibt gegen die meisten Krankheiten keine Heilung. Der Normalfall ist stattdessen, dass man den nahenden Tod von seiner zynischen Seite betrachtet weil man weiß dass er jeden gleichermaßen trifft. Aber was wäre, wenn Robotik an diesem Dogma etwas ändern könnte? Was wäre, wenn man mit medizinischen Nanorobotern Krebs heilen kann?

Medizinische Nanoroboter bringen nichts

Von medizinischen Nanorobotern erwartet sich die Wissenschaft wahre Wunder: Krebs will man damit heilen, Kurzsichtigkeit auch und auch minimalinvasive Operationen sollen endlich möglich werden. Zugegeben, die Vorstellung ist verlockend dass winzig kleine programmierte Roboter in den Körper eindringen und dort Schlachten führen gegen Bakterien und Plaque. Leider sind nüchtern betrachtet die Vorteile nur gering. Selbst mit perfekt programmierten kann man die Lebenserwartung nur geringfügig steigern. 1 Jahr vielleicht, mehr nicht. Anstatt mit 75 stirbt man dann mit 76 Jahren. Der Aufwand um solche Nanoroboter zu bauen und zu programmieren ist jedoch immens. Derzeit ist nicht klar wie es gemacht wird, um hier Erfolge zu erzielen müsste man wenigstens ein 5 Jahres Projekt durchführen. Selbst im besten Fall hat man also 5 Jahre seines eigenen Lebens investiert um dadurch 1 Jahr länger zu leben. In der Summe hat man also an Lebenszeit verloren. Es lohnt sich nicht sich näher mit Nanorobotern zu befassen.

Und diese Prognose ist noch optimitisch. Gut möglich, dass man 5 Jahre vor sich hin forscht und am Ende nur ein sogenanntes Negativ-Scientific Data hervorbringt was man bei ResearchGate oder sonstwo veröffentlicht. Und negative heißt wirkllich negativ, das man also kleinlaut zugibt keine Ahnung zu haben wie es geht und auch keine Möglichkeit sieht in absehbarerer Zukunft die Technologie weiterzuentwickeln. Das heißt dann konkret dass man 5 Jahre investiert hat und am Ende trotzdem noch mit 75 an einer Herzattacke zu sterben. Vermutlich sogar früher weil Wissenschaftler als workaholics einen ungesunden Lebensstil pflegen und für schöne Dinge im Leben nur wenig Zeit haben.

Was also soll das Gerede von der wunderbaren Nanozukunft bei dem alle Krankheiten geheilt sind? Es ist ein leeres Versprechen, was Nachwuchsswissenschaftler rekrutieren soll wohl wissend dass sie bei dem kollektiven Kraftaufwand am Ende als Verlierer daraus hervorgehen werden. Anstatt mit Nanorobotern sollte man seine Zeit sinnvoller verbringen, mit guten Freunden beispielsweise oder mit entspannter Lektüre hier im Weblog.

Wie realistisch sind Nanoroboter?

Bei Star Trek Voyager waren sie bereits Realität — die Rede ist von Nanorobotern. Üblichweise sagen Wissenschaftler voraus, dass es derzeit unmöglich sei und man in vielleicht 20 Jahren mit dessen Realisierung rechnen könne. Schauen wir uns dazu einige Details an:

Von der mechanischen Seite sind Nanoroboter relativ leicht zu verwirklichen. Es gibt bereits erste Prototypen, die in MEMS Bauweise entstanden sind. Dazu wird die Silizium Fertigung die normalerweise in der CPU Produktion genutzt wird, angewendet um kleine Zahnräder und Motoren in eine Oberfläche zu drucken. Die Herausforderung besteht in der Steuerung dieser Kleinstroboter. Man benötigt dafür zwingend eine CPU und eine Software die auf der CPU läuft. Als CPU kommen keine Desktop-Prozessoren wie der Intel Core i5 in Frage, weil deren Abmessungen zu groß sind. Was man jedoch nutzen kann, sind reduzierte Computer mit nur wenigen Tausend Transistoren. Also CPUs, die extrem langsam sind und extrem wenig RAM besitzen. Sowas lässt sich sehr viel kleiner und sehr viel stromsparender fertigen. Jetzt bleibt noch das letzte große Problem zu lösen: wie programmiert man solche CPU?

Aus Sicht der Softwareentwickler hat man eine Kleinst-CPU die 1000x langsamer ist als Commodore 64 mit der ein Realtime-Roboter gesteuert werden muss. Folglich können nur Methoden angewendet werden, die nichts mit Brute-Force zu tun haben. Statische BehaviorTrees sind eine gute Wahl. Man kann solche BehaviorTrees relativ komplex gestalten um beispielsweise Pick&Place Aufgaben wahrzunehmen. Ihr CPU-Footprint und ihr Speicherverbrauch ist fast Null, das heißt sie würden schnell genug auf einem Nanoroboter laufen.

Es ist möglich — wenn auch bisher noch nicht praktisch demonstriert — dass man einen Nanoroboter entwickelt, nicht erst in 20 Jahren sondern heute. Notwendig dazu ist lediglich State-of-the-art MEMS Fertigung in Verbindung mit State-of-the-art Realtime-Software.

Was man mit derartigen Naniten anfangen könnte ist simpel: Schwarze Magie. Also das was Harry Potter, Merlin der Zauberer, der Zauberer von Oz und all die anderen aus der Sagen und Märchenwelt seit Jahrhunderten tun und wovon es immer hieß, es wäre nicht möglich. Naniten sind soetwas ähnliches wie ein Zauberstab mit dem man alles in Gold verwandeln kann, was man berührt, womit man Blinde sehend machen kann und womit sich Planeten über Terraforming in ein blühendes Paradies verwandeln lassen.