Vereinfachten biped robot konstruieren

Beim herumprobieren mit einem animierten Laufroboter ist mir etwas aufgefallen. Und zwar gibt es das Problem, dass der Wechsel von einem Auto hin zu einem Walking-Robot doch nicht so simpel ist wie zunächst gedacht. Eine mögliche Zwischenstufe wäre, wenn man an den Chasis ein Rad anmontiert und der Roboter sich dann mit einem Bein vorwärtsstößt. Aber cool sieht das nicht gerade aus. Aber wie wäre es, wenn man anstatt einen walking Robot einen Fisch konstruiert? Und voila, man braucht in Box2D nur die Gravitation auf 0 reduzieren und ein wenig mit dem Bein bzw. jetzt Schwimmflosse herumwackeln und man erhält einen Roboter der einerseits über Gliedmaßen verfügt, aber trotzdem simpel zu steuern ist. Vorteil ist hauptsächlich, dass man unter Wasser das Glichgewicht nicht verlieren kann. Im Worstcase schwimmt der Roboter dann falsch herum, aber wirklich umkippen wie ein Insekt an Land kann er nicht.

Schauen wir uns eine Schwimmbewegung im Detail an. Auf den ersten Blick ähnelt sie einem Walk-Zyklus, es gibt also einen rhytmischen Pattern. Der Unterschied ist jedoch, dass dieser Pattern einfacher funktioniert. Bei einem biped robot an Land braucht man neben dem Walk-Zyklus auch noch einen Footstep-Planner und einen Balance Planner. Damals hat Marc Raibert mit einem One-leg-hopping robot angefangen und den stückweise verbessert. Aber, selbst ein one-leg-hopping robot ist deutlich komplizierter aufgebaut als ein radgetriebener Robot. Weil, wie gesagt es nicht einfach ausreicht eine gleichförmige Bewegung auszuführen sondern man muss noch Optimierung betreiben. Ein Schwimmroboter hingegen ist technisch nur unwsentlich komplizierter als ein radgetriebener Roboter. Meist reicht es, wenn man eine Schraube gleichförming im Kreis dreht, man kann aber auch den Roboter wie ein Ruderboot konstruieren. Wo man also einerseits eine gleichförmige monotone Bewegung hat, dafür aber einen Ausleger bzw. eine Flosse nutzt. Man hat also die seltene Kombination aus einer inversen Kinematik plus der Einfachheit eines normalen monotonen Patterns.

Generell ist der Schwierigkeitsgrad ansteigend: Radgetriebener Roboter, Schwimmroboter mit Schraube, Schwimmroboter mit Flosse, Laufroboter an Land.

Advertisements

Online über Paper diskutieren

Relativ häufig findet sich in Online-Foren die merkwürdige Frage ob es irgendwo Online-foren gibt wo man über Paper diskutieren kann. Weil, so die Annahme der Fragesteller, es ja irgendwo eine Science-Community geben müsste wo man sich über bestimmte Themen austauscht. Leider ist die Antwort ernüchternd wie auch auch bekannt: solche Foren gibt es nicht. Sondern die eigentliche Diskussionen finden in den Papern selber statt die zu Arxiv hochgeladen werden. Dort allerdings mit einem Zeitverzug von mindestens 2 Jahren bis hin zu 10 Jahren wenn man ein älteres Paper zitiert. Wem das zu umständlich oder zu langwierig ist der kann sein Glück entweder im Usenet versuchen (jedenfalls war das in den 1990’er angesagt) oder neuerdings auch bei Stackexchange. Insbesondere Mathoverflow und Stackoverflow haben die größte Teilnehmerzahl. Wer sich bei Stackexchange nicht so gut aufgehoben wird (was ich gut nachvollziehen kann) der hat leider Pech gehabt. Andere Foren die schöner besser und größer sind gibt es leider nicht. Was es lediglich gibt, sind eine unüberschaubere kleine Anzahl von Seiten wo man Paper bewerten kann oder über Mathematik diskutieren kann, die jedoch keine größere Bedeutung besitzen. Ebenfalls relativ für wichtig fürs Community Building sind auch Weblogs. Diese lassen sich am einfachsten mit der Google Suche aufspüren. Aber damit erschöpft sich dann bereits das Angebot an Online-Informationen. Kurz gesagt, die meisten Wissenschaftler (selbst die aus der Informatik) sind was das Internet anbelangt noch sehr schüchtern. Ich würde mal vermuten, dass ganz normale Gamer, Kochexperten, Modeinteressierte und Fußballfans im Internet weitaus besser vernetzt sind als Wissenschaftler, Phd Studenten und Mathematiker.

Die wichtigste Plattform zum Austausch ist nach wie vor Arxiv. Und diese Seite dümpelt seit Jahren sehr gemächlich vor sich hin. In den letzten 20 Jahren sind gerademal 1 Mio Paper hochgeladen worden. Zum Vergleich: die englische Wikipedia wo nicht mehr als 20k Leute gleichzeitig mitschreiben bringt es auf eine Anzahl von 6 Mio Artikel. Was stattdessen in den Wissenschaften passiert sind Ersatz Community. Wenn man ein Paper in der ACM Zeitschrift, bei Elsevier oder sonstwo publiziert, bezahlt der Autor einen nicht kleinen Obolus dafür, dass der Artikel gelesen wird und das jemand sein fachlich fundiertes Urteil dazu abgibt. Man kann also sagen, dass der wissenschaftliche Prozess der Kommunikation hochgradig professionalisiert, kommerzialisiert und restriktiv abläuft. Und selbst bei Arxiv ist es standardmäßig vorgesehen, dass jemand der ein Paper über Computergrafik publiziert im nächsten Monat etwas zu Computerlinguistik schreibt. Das sind dort zwei unterschiedliche Kategorien wozu man erweiterte Schreibrechte benötigt. Ein wenig überheblich formuliert, funktioniert die wissenschaftliche Kommunikation im Jahr 2017 noch immer wie im Mittelalter wo man sich untereinander kennt und mißtrauisch ist gegenüber Außenstehenden aus Angst, diese könnten womöglich die eigenen Paper lesen, sich in Diskussionen einbringen oder gar etwas in Frage stellen.

So ganz unberechtigt ist diese Sorge nicht, denn um das Wissenschaftssystem herum gibt es einerseits Patente, Firmen, steuerfinanzierte Hochschulen, Copyrights, APC-Gebühren, Plagiarismus, Plagiatsjäger und es soll Gerüchten zufolge bei Google Scholar sogar Paper geben, die schlichtweg Unsinn enthalten, https://scholar.google.de/scholar?hl=de&as_sdt=0%2C5&q=Rooter%3A+A+Methodology+for+the+Typical+Unification&btnG=

Anders formuliert, das gegenwärtige Wissenschaftssystem zeichnet sich dadurch aus, dass alle Features die nützlich und wertvoll sind darin nicht vorkommen. OpenAccess gibt es nicht, ein Portal wo man Paper raten kann fehlt, ein Diskussionsforum wo man über Mathematik diskutieren kann wird man vergebens suchen, ja es gibt nochnichtmal eine Suchmaschine um wissenschaftlichen Content anzuzeigen. Die bereits erwähnte Google Scholar Engine kann eigentlich nur als Witz bezeichnet werden, von 70% der Paper wird der Volltext nicht angezeigt, und bei den restlichen Papern ist entweder der Link kaputt oder der Inhalt ist komplett veraltet. Die Ursache für derlei Probleme ist simpel: wissenschaft ist kein Massenthema. Nach der letzten Hochrechnung beschäftigen sich maximal 10 Mio Leute weltweit damit. Zum Vergleich: weltweit spielen aktiv 265 Mio Leute Fußball plus unzählige weitere sind Fans. Damit OpenAccess Zeitschriften gegründet werden, damit es endlich eine vernünftige Suchmaschine und gut ausgebaute Foren gibt, bräuchte man eine kritische Masse.

Online-Communities für Wissenschaftler

Rund um die OpenAccess Welle gibt es Bestrebungen die Kommunikation innerhalb der Wissenschaft zu verbessern und zwar dadurch, dass man social Networks, Blogs und Foren mit in den Prozess der Wissenschaft mit einbezieht. Auch Open Peer Rewview gehört dazu. Leider ist der Erfolg bisher ausgeblieben und es ist unklar, ob die User einfach nur etwas mutiger werden oder ob vielleicht bisher noch nicht die richtige Technik gefunden wurde. Schauen wir uns zunächst einige Projekte an, die stabil funktionieren und wo die User zufrieden sind. Als wichtigste Portale gelten wissenschaftszentrierte Suchmachinen. Es gibt aktuell zwei davon: Google Scholar und Semantic Scholar. Beide haben es sich zur Aufgabe gemacht, die rund 30 Mio Volltexte zu indizieren und mit Meta-Informationen anzureichern, so dass eine Suche nach Autor, Jahr und Stichwort möglich ist. Gleich nach den Suchmaschinen ist die zweitwichtigste Plattform ein OpenAccess Journal bzw. ein kostenloses Journal wie Arxiv. Auch diese Angebote werden intensiv wahrgenommen. Peerj veröffentlicht massenhaft Artikel, Arxiv auch und auf den Webseiten der Hochschulen liegen auch relativ viele Paper.

Jetzt bleibt noch die Frage, ob man darüber hinaus noch weitere Tools benötigt, wie beispielsweise Foren oder ein Bewertungsportal um die Paper zu kommentieren. Hier ist die Lage nicht so übersichtlich. Es gibt zwar einige Dienste in dieser Richtung. Als Quasi-Standard Forum für die Wissenschaften hat sich Stackexchange etabliert und Bewertungsportale wie pubpeer gibt es auch. Aber: rein zahlenmäßig ist die Nutzung unbedeutend, und die Qualität ist eher schlecht. Möglicherweise hat das damit zu tun, dass sich wissenschaftliche Erkenntnisse schlecht in 2 Absätzen kommentieren lassen. Sondern mein Eindruck ist, als ob die wissenschaftlichen Paper selber ein Medium darstellen, wo man also dadurch kommentiert, indem man ein eigenes Paper veröffentlicht. Wirklich durchbrechen kann man diesen Rhythmus nicht. Er wird lediglich variert indem auch Wikipedia und Weblogs auf wissenschaftliche Paper verweisen und so die vorhandenen Texte ergänzen.

Wie Richard Price schon ganz richtig erkannt hat, ist das Hauptmedium in dem Wissenschaftler kommunizieren das PDF Paper was üblicherweise aus 8 Seiten Fließtext besteht und am Ende eine längere Literaturliste besitzt. Die Arbeitshypthese lautet, dass auch Foren und Social Networks daran nicht viel ändern werden. Anders formuliert, will man die Kommunikationsströme im Wissenschaftsbetrieb tracken und darauf einfluss nehmen benötigt man zunächst eine Suchmaschine um Paper zu identifizieren. Und in diesen Texten lassen sich dann Meme über längere Zeitepochen nachvollziehen an denen mehrere Autoren beteiligt sind. Das ganze zieht sich häufig über 10-20 Jahre hin, geht also in Maßstäben des Internets sehr gemächlich vonstatten.

Ein wenig objektiver formuliert kann man sagen, dass ein echter Beitrag innerhalb der Wissenschaftskommunikation zwingend das PDF-8-Seiten Standardformat benötigt und das jeder Versuch mit Blogs, Wikis, Social Networks oder Foren ebenfalls Wissenschaft zu betreiben scheitern muss. Meiner Recherche nach lässt sich Wissenschaft nicht in den bekannten Online-Portalen abwickeln sondern ist zwingend an das PDF Format gebunden. Einerseits sind es historische Gründe warum das so ist, aber es gibt auch ganz praktische Gründe. Üblicherweise ist es in Foren und Blogs unüblich Quellen zu zitieren. Technisch wird das nicht unterstützt und der Kommunikationsstil ist auch nicht darauf fokussiert. Quellen jedoch sind im Wissenschaftsbetrieb unverzichtbar.

Jetzt bleibt nur noch die Frage zu klären, wie man einerseits das erwähnte Standard-PDF verwenden kann, gleichzeitig jedoch den wissenschaftlichen Erkenntnisprozess auflockern kann. Meiner Meinung nach gibt es dafür zwei Möglichkeiten: erstens, durch bessere Suchmaschinen. Also ein Google Scholar was mehr Paper indiziert und was genauer sagt was indiziert wird. Und zweitens, bessere Software um PDF Paper zu erstellen. Das nach meiner Meinung nach beste Programm um am Desktop Offline einen Text zu schreiben ist Lyx, aber womöglich kann man auch einen Online-PDF Editor nutzen um wissenschaftlichen Content zu erstellen?

Nur, beides sind keine revolutionär neuen Vorschläge. Auch das heutige Google Scholar arbeitet zuverlässig und PDF Paper kann man zur Not auch mit Word erstellen. Womöglich ist also die Technologie bereits ausgereizt und man muss einfach damit leben, dass Wissenschaft sehr gemächlich vonstatten geht. Vielleicht ist es sogar so, dass das jetzige Publikationssystem optimal verläuft und es nicht möglich ist, den Wikipedia-Coup auf diese Domäne zu übertragen? Zur Erinnerung: Wikipedia hat es geschafft, das Schreiben eines Lexikons zu revolutionieren. Womöglich ist kann man das beim Wissenschaftsbetrieb nicht so einfach machen, weil es dort nicht nur um ein Lexikon geht sondern um etwas mehr.

Mein Eindruck ist, dass keineswegs die vorhandene Software das Problem ist, sondern das Wissenschaft sehr stark Usergetrieben funktionioniert. In dem Sinne, dass wenn man Leute hat die an Forschung interessiert sind, es leichter ist als wenn man Leute zuerst ermutigen muss sich überhaupt mit wissenschaftlichen Themen auseinanderzusetzen. Schauen wir uns die heute verfügbaren technischen Systeme einmal an: bei Arxiv kann man ein Paper in unter 1 Stunde hochladen, und Google Scholar indiziert das dann in kurzer Zeit. Mehr braucht man eigentlich nicht um High-End Wissenschaft zu betreiben. Die These lautet, dass es auch in 10 Jahren keine besseren Portale geben wird. Was man jedoch verbessern könnte wären die Userbasis die Google Scholar bzw. Arxiv nutzt. Es gilt zwei Ziele zu beachten: erstens die nominale Anzahl an Usern und zweitens die Themen mit denen sich diese User beschäftigen. Und hier gibt es in der Tat Nachholbedarf. Die Anzahl der Leute die Paper auf Arxiv oder bei Peerj veröffentlichen ist sehr gering. Und die Themen sind nicht besonders spannend. Ich wage mal die These, dass es nichts nützen würde wenn man Arxiv verbessert oder Google Scholar effizienter macht, sondern man muss bei der Community selbst ansetzen. Um deren Leistung zu erhöhen braucht es vor allem Tutorials um zu erläutern was Wissenschaft ist, wie man einen Text schreibt, wie man zitiert und wozu man das machen sollte. Daran mangelt es aktuell.

Es ist nicht so ganz klar, ob das ein Henne oder Ei Problem ist. Also ob es zu wenig interessierte Wissenschaftler gibt und deswegen auch keine Tutorials verfasst werden oder ob es genau umgekehrt ist und Wissenschaft nicht attraktiv genug ist. Und womöglich liegt das Problem auch gar nicht bei den Wissenschaften selber sondern in der Welt außerhalb.

Der Luhman-Zettelkasten

Laut https://www.uni-bielefeld.de/soz/luhmann-archiv/pdf/jschmidt-aus-dem-archiv.pdf besteht der Zettelkasten aus 90000 Karteikarten und wurde von 1965-1990 erstellt. Unter der Annahme, dass eine Karteikarte eine bibliographische Angabe darstellt, hat Luhmann im Jahr 3600 Literaturangaben neu hinzugefügt. Zugegeben, eine stattliche Anzahl. Aber wirklich Produktiv war Luhmann eigentlich nicht. Im Grunde ist ein handgeschriebener Zettelkaster der im wesentlichen die selben Informationen enthält wie der Zentalkatalog der Nationalbibliothek so ungefähr die unproduktivste Weise seine Zeit zu verschwenden. Hätte Luhmann einen Computer gehabt, wieviel produktiver wäre er gewesen?

Nichts desto trotz wird an diesem Beispiel deutlich was wissenschaftliches Arbeiten im Kern ausmacht. Es geht darum, mit Quellen zu arbeiten, also vorhandene Literatur zu sichten, zu memorieren und zu neuen Texten aufzubereiten. Würde man heute so einen Zettelkasten nachbauen wollen, würde man vermutlich Jabref bemühen um darin eine 36 MB große .bib Datei anlegen. Die würde vom Umfang her ziemlich genau den 90k Karteikarten entsprechen, also bibliographische Angaben plus Notizen. Sie passt beqem in den Hauptspeicher eines Billig-Netbooks, kann jederzeit auf einen USB Stick kopiert werden und wäre auch in das bibsonomy Format exportierbar. Apropos, bei Bibsonomy haben die 1M User bereits 580000 Publikationen eingepflegt.

Fedora 27 erschienen

Dass Microsoft über Fedora Linux nicht besonders erfreut ist wissen wir spätestens seit den Halloween-papern https://en.wikipedia.org/wiki/Halloween_documents Wenn man es jedoch mit einem Online-Portal zu tun hat, was den Namen Pro-Linux in der Überschrift trägt sollte man denken, dass man tatsächlich etwas Werbung für Linux zu lesen bekommt. Nicht so bei http://www.pro-linux.de/news/1/25338/fedora-27-erschienen.html dort wird in bester Heise-Manier kühl, distanziert und am liebsten in Anführungsstrichen vom neuen Fedora 27 berichtet. So als möchte man sich die Aussagen von Red hat nicht zu eigen machen. Aber warum eigentlich nicht? Anders als der Artikel suggeriert:

Zitat: „Gnome 3.26 bietet keine großen Neuerungen. […] Dabei soll es möglich sein, wichtige Server-Anwendungen in verschiedenen Versionen parallel zu betreiben. […] So SOLL eine bisher unerreichte Flexibilität geboten werden.“

gibt es bei Fedora 27 keineswegs einen Unterschied zwischen Marketing-Ankündigung und tatsächlich ausgelieferter Software, sondern Fedora 27 ist die beste Software die jemals entwickelt wurde. Sowohl als Workstation als auch auf dem Server läuft das System perfekt. Es enthält nicht nur einen verbesserten Videostack Pipewire sondern bringt ontop auch noch den Zugriff auf unendlich viele OpenSource Software für jeden Anwendungszweck. Anders gesagt, nicht nur Microsoft und Oracle sondern auch jede andere Linux Distribution kann angesichts von Fedora einpacken. Die Red Hat Guys haben wiedereinmal gezeigt, dass sie es einfach draufhaben.

Ist das Projekt Bluebeam echt?

Als „Project Bluebeam“ wird auf verschwörungslastigen Webseiten im Internet eine streng-geheime Technologie verstanden um Hologramme in den Himmel zu projizieren. Als Beispiel wird eine fliegende Stadt angeführt, die in China gesichtet wurde. Aber gibt es solche Technologie wirklich? Um das Phänomen näher zu untersuchen muss zunächst erläutert werden, was die Literaturwissenschaft unter dem Begriff „paranoide Science-Fiktion“ https://en.wikipedia.org/wiki/Paranoid_fiction versteht. Es handelt sich um eine Textgattung die so geschrieben ist, dass der Held sich in einer ausweglosen Sitatuion befindet und äußere Mächte sich gegen ihn verschworen haben. Ein berühmtes Beispiel ist der Roman 1984 aber auch die Erzählungen von Philip K. Dick gehören dazu. Genretypisch werden die äußeren Mächte meist mit der Regierung assoziert, die finstere totalitäre Absichten verfolgt und die sich im weiteren Verlauf der Geschichte noch steigern. Auch die Webseiten im Internet auf denen das Projekt Bluebeam thematisiert werden, sind in dem Sprachduktus von Philip k. Dick gehalten. Deswegen heißen sie auch Verschwörungswebseiten, weil es darum geht dem Leser einen wohligen Schauer über den Nacken laufen zu lassen und er sich in einer Phantasiewelt wiederfindet.

Mit diesem Hintergrundwissen lässt sich auch der Wahrheitsgehalt näher untersuchen. Ähnlich wie die „Paranoid Science-Fiction“ ingesamt ist Projekt Bluebeam nicht real. Das heißt, jemand hat sich das ausgedacht und niedergeschrieben. So ähnlich wie auch George Orwell seinen berühmten Roman ausgedacht und niedergeschrieben hat.

Was es jedoch gibt ist die Technologie als solche. Die wird aber nicht in Verschwörungen eingesetzt sondern ganz normal von der Wissenschaft erforscht und kommerziell vermarktet. Ein Beispiel für ein „aerial projection system“ wurde im obigen Youtube Video schon gezeigt. Wie die Technologie im Detail funktioniert ist erläutert bei:

http://www.ingenieur.de/Fachbereiche/Optoelektronik/Laser-projiziert-beruehrbare-Hologramme-in-Luft
https://www.nature.com/articles/srep11750

Das ganze ist technisch relativ anspruchsvoll weil man einerseits Computer-Generated Images verwendet und als Ausgabemedium neuartige Laser, welche Voxel in den freien Raum projizieren. Derzeit ist das ganze noch zu teuer um es an Privatanwender zu verkaufen.

Wann wurde der erste Computer erfunden?

Noch immer ist der genaue zeitliche Ablauf der zur Erfindung des ersten Computers geführt hat ein ungelöstes Rätsel in der Geschichte. Im folgenden wird anhand der historischen Ereignisse zunächst die Zeitlinie rund um Ada Lovelace und Charles Babbage näher untersucht. Als gesichert gilt, dass Charles Babbage um das Jahr 1840 herum an der University of Turin eine Vorlesung über seine Analytical Engine entwickelt hat. Die Mitschrift zu dieser Vorlesung wurde zuerst in Französisch angefertigt, und später dann von Ada Lovelace ins Englische übersetzt. Das Paper schien 1843 http://history-computer.com/ModernComputer/thinkers/Ada.html

Das erstaunliche ist weniger die Tatsache, dass darin ein Computerprogramm zum Berechnen von Bernoulli Zahlen vorgestellt wird, sondern der Skandal ist die Tatsache, dass die Hauptprotagonisten Ada Lovelace und Charles Babbage gar keine echten Mathematiker waren. Wikipedia bezeichnet Ada Lovelace als Amateur Mathematiker: https://en.wikipedia.org/wiki/List_of_amateur_mathematicians Eine andere Quelle http://www.findingdulcinea.com/features/profiles/b/charles-babbage.html fällt dasselbe Urteil auch über Charles Babbage:

„Charles Babbage was a wealthy amateur mathematician“

Überlicherweise wird der Begriff Amateur-Mathematiker in einem abwertenden Zusammenhang verwendet um auszudrücken, dass die entsprechende Person nicht wirklich Ahnung von seinem Fach hat, sondern mehrere Jahren im Rückstand ist gegenüber der State-of-the-Art Mathematik. Wenn also ein Paper aus dem Jahr 1843 worin ein Programm zur Berechnung von Bernoulli Zahlen als Amateur-Mathematik gilt, was bitteschön war dann richtige Mathematik aus dieser Zeit?

Es gibt noch eine zweite mögliche Interpretation. Und zwar dass die Einstufung von Wikipedia und falsch ist, und sowohl Ada als auch Babbage ihrer Zeit weit voraus waren, sie jedoch fälschlicherweise nicht als Visionäre erkannt wurden. Das heißt, die Analytical Engine war keineswegs eine Spielerei sondern es war echte Mathematik während die echte Mathematik noch nicht so hochentwickelt war, um ihre Begrenzung zu erkennen.

Versuchen wir den Begriff des Amateur-Mathematikers näher einzugrenzen. Im 19. Jahrhundert brauchte man dafür Zeit um auf eigene Faust sich Wissen anzuzeignen, und Geld um eine Privatbibliothek aufzubauen. Beides trifft auf Ada und Babbage zu. Demzufolge ist das autodidaktische Lernen aus öffentlichen Literaturquellen die Voraussetzung für Amateurmathematik. Darüber erhält man indirekt auch eine Definition über das Gegenteil davon: und zwar das Lernen aus nicht-öffentlichen Quellen unter Anleitung wie es in Universitäten und Klöstern durchgeführt wird. Das ist keine Amtateur-Mathematik sondern richtige State-of-the-art Mathematik. Erstaunlicherweise fällt Charles Babbage nicht in diese Kategorie. Sein Wissen stammt aus öffentlichen Leihbüchereien und er hat es sich selber beigebracht.