Erlebnisbericht Stackoverflow

Das Stackoverflow Forum dürften die meisten Programmierer kennen, es ist das bekannteste Hilfe-Forum seiner Art. Dort angeschlossen ist auch das Robotics Forum. Es folgt ein kurzer Bericht über meine persönlichen Erfahrungen.

Positiv fällt auf, dass man dort auch als Guest etwas posten kann das betrifft sowohl das Stellen einer Frage als auch das Beantworten einer Frage. Genau das habe ich in Anspruch genommen, ohne jedoch zu wissen dass bei jedem neuen Posting automatisch ein neuer Account erzeugt wird. Ob das schlichtweg ein Programmierfehler ist, oder volle Absicht dahintersteckt, darüber kann man nur spekulieren. Normalerweise könnte man sowas ignorieren wenn da nicht die Moderatoren wären. Diese lauern Neulingen auf, die mehr als einen Account erstellt haben und unterstellen „Sockenpuppe“. Ein Vorwurf der auch bei Wikipedia sehr oft gebraucht wird.

Natürlich bietet Stackoverflow eine Funktion an um Accounts zu mergen, genau das habe ich gemacht um nicht gleich am Anfang durch Insubordination aufzufallen. Leider kommt darauf keine Rückantwort sondern man sendet den Merge-Request ab und nichts passiert. Die Moderatoren scheint das nicht weiter zu stören und sie kommen mit weiteren Textbausteinen die diesmal schon bedrohlicher davon sprechen, dass alle Accounts auf dem Spiel stehen wenn man nicht endlich einen Merge durchführt, weil befürchtet wird dass man ein Fake-User ist, der das Forum fluten will.

Nun mag das in moderierten Foren eine nützliche Vorsichtsmaßnahme sein, gegen allzu eifrige Neu-User, doch mein Eindruck ist dass das Roboterforum hier stark über das Ziel hinausgeschossen ist. Vermutlich sind sich die Moderatoren ihrer Macht nur zu bewusst denn immerhin stehen sie dem weltweit besten Roboter-Forum vor, das derzeit existiert. Eine Diskussion über diese Regeln ist überflüssig, und es macht selbst dann keinen Sinn, wenn man nur trollen will.

Nach einer Woche Stackoverflow Benutzung macht das Forum auf mich einen sehr zwiegespaltenen Eindruck. Einerseits sind die darin enthaltenen Informationen hochwertig und die User sehr kompentent. Die Forensoftware mit ihrer Bewertungsfunktion und der Bilder-Upload Möglichkeit ist eine der besten ihrer Art. Auf der anderen Seite habe ich in diesem kurzen Zeitraum geschätzt 20 negative Rückmeldungen durch Moderatoren erhalten, dass entweder meine Beiträge inhaltlich nichts taugen, ich eine Sockenpuppe wäre oder formale Verletzungen von Spielregeln zu beklagen waren. Das ganze natürlich in wohl formulierten Textbausteinen verfasst. Wer sich für die Details interessiert kann eine Google Suche ausführen mit „site:http://robotics.stackexchange.com/ Manuel Rodriguez“

Natürlich könnte man sagen, dass alles ist nur ein großes Mißverständnis was man aus der Welt räumen kann. Weil am Ende ja alle dieselben Ziele haben, nähmlich die Robotik voranzubringen. Nur ist es beim Stackoverflow Forum so, dass technisch bedingt, die Moderatoren den Überblick und die volle Macht haben, während der Neu-User gar nichts sieht. Anders ausgedrückt, man kann ausschließen, dass die Moderatoren im unklaren sind über die Aktivitäten eines Nutzers. Sie sehen sowohl die IP-Adresse, seine Postings einfach alles und vor allem erleben sie es laufend, dass neue User sich dort anmelden und erstmal nur Bahnhof verstehen. Ich will hier explizit keine Ratschläge an die Moderatoren geben, das steht mir nicht zu als Neuling, sondern ich möchte Ratschläge geben an potenzielle Nutzer des Forums.

Für mich jedenfalls hat sich die Nutzung des Robotics-Forum schon gelohnt. Ich konnte dort sehr viel lernen darüber wie Roboter funktionieren und wie moderierte Foren funktionieren. Natürlich stellt sich die Frage ob das Level was Stackoverflow bei seinen Nutzern voraussetzt von jedem erfüllt wird. Das es also nicht darum geht, User aus formalen Gründen abzuschrecken sondern in Wirklichkeit deren inhaltliche Reputation fraglich ist. Gerade bei wissenschaftlichen Themen gibt es immer auch eine falsche Art und Weise sich einem Problem zu nähern. Hier den richtigen Ton zu treffen ist nicht immer leicht. Man muss schon etwas Fachwissen mitbringen um genau die Antworten zu geben, welche die Moderatoren hören wollen. Im Grunde kann man da nur den Tipp geben, dass man fleißig auf Google Scholar recherchieren sollte um ein Gefühl davon zu bekommen, was angesagt ist in Sachen Robotik und wie man bestimmte Dinge am besten formuliert. Ebenfalls von Vorteil ist es, wenn man Programmieren kann in allen wichtigen Sprachen und sich mit theoretischer Informatik bestens auskennt (Stichwort Turing-Maschine, Stichwort self-replicating Code usw). Nur wenn man diese Anforderungen erfüllt kann man wirklich einen nützlichen Diskussionsbeitrag leisten.

FRAGEN VON NEULINGEN
Interessant ist auch wie Stackoverflow mit Fragen umgeht von denen nicht klar ist was damit gemeint ist. Es kommt relativ häufig vor, dass jemand wissen möchte, welche Bücher empfehlenswert sind oder was die Lösung für eine Aufgabe ist die bei einem Roboterwettbewerb gestellt wird. So nach dem Motto: Ich selbst habe keine Ahnung, also bitte Community liefert mal die Lösung. Der Regelfall ist, dass solche Fragen von den Moderatoren auf „Hold“ gesetzt werden, was im Grunde nichts anderes bedeutet als das die Frage gelöscht wird und der User Pech gahabt hat. Im Zweifel scheint die Regel zu gelten, dass lieber zuviel als zuviwenig gelöscht wird. Dadurch wird der Mindeststandard niemals unterschritten und möglicher Spam wird gnadenlos weggefiltert. Eigentlich eine gute Sache die sich jedoch nur in moderierten Foren effektiv durchziehen lässt. Man braucht dafür Leute die permanent die Postings begutachten und eingreifen wenn es nötig wird.

Gleitflug mit Quadcoptern

Wie ein Quadcopter funktioniert dürfte inzwischen Allgemeinwissen sein: Nach dem Rotationsprinzip werden 4 Motoren in hohe Drehzahl versetzt die dann das Fluggerät anheben. Was jedoch nicht allgemein bekannt ist ist die Tatsache dass man UAV auch im Gleitflug betreiben kann. Das ist von der Steuerung her anspruchsvoller am möglich. Zur ersten Annäherung an das Thema bringt man einen Quadcopter in einen schnellen Vorwärtsflug und deaktiviert dann ruckartig den Motor. Physikalisch betrachtet hat man dann ein passives Flugobjekt mit einer Position und einer Geschwindigkeit die allein durch den Drift weiterfliegt. Natürlich nicht undendlich lange sondern in einem Parabelflug welcher durch die Erdanziehung bestimmt wird.

Aber es sind noch weitere Experimente möglich. Und zwar steuert man einen Quadcopter auf eine Höhe von 3 Metern, hält ihn unbeweglich in der Luft und deaktiviert wiederum die Motoren. Als Folge fällt das Fluggerät herunter wie ein Stein, jetzt muss man kurz vor dem Boden die Motoren in maximalen Schub versetzen und kann so den Fall abbremsen. Auch in diesem Fall wird die Flugbewegung erzeugt durch eine Mischung aus äußeren Kräften die man nicht steuern kann und den Motoren am Flugobjekt.

Der Grund warum derartige Flugmannöver nur selten angewendet werden liegt in der komplexen Steuerung. Immer wenn man den Motor deaktiviert, wird der Quadcopter untersteuert. Es ist vergleichbar mit dem Auskoppeln bei einem Auto. In diesen Fällen wirkt die Erdanziehungskraft und führt im Regelfall zu einem Absturz, den man nur durch erneute Steuerung ausgleichen kann. Diese Steuerung manuell durchzuführen ist aufwendig. Zwar sind geübte Piloten in der Lage ein UAV auf diese Weise vor dem Boden abzufangen, aber dafür ist ein hohes Maß an Konzentration erforderlich. Deutlich einfacher ist es, wenn man autonome Fluggeräte einsetzt. Hierzu benötigt man einen Motion Planner der ein underactuated System steuern kann. Als Inputparameter erhält der Motion Planner den aktuellen Zustand (zum Beispiel: ein frei fallender Quadcopter mit deaktivierten Motoren) und der Planner berechnet dann die nötigen Aktionen die einen Aufprall verhindern.

Rein technisch gesehen ist es möglich, wenn man mit einer Zeppelin Mutterschiff 10 Mini-UAV aus der Luft abwirft und diese dann nach der Freifallphase verzögert die Motoren aktivieren. Üben kann man solche Mannöver am besten unter Wasser oder im Weltraum wo die Schwerkraft reduziert ist und das Timing nicht so exakt zu sein braucht. Die grundlegende Idee lautet, dass man nicht nur die UAV Fluggeräte selbst steuert sondern auch Flugphasen trackt, bei denen die Rotoren deaktiviert sind. Rein formal sind UAV zwar keine Segelboote, können aber auf ähnliche Weise gesteuert werden. Auch beim sogenannten „Powerline perching“ sind solche Mannöver nötig. Die Zielposition erreicht man nur wenn man das Abstellen des Motors mit berücksichtigt. Die ersten Versuche wurden vom M.I.T. im Jahr 2010 durchgeführt und waren damals absolutes Neuland. Inzwischen gibt es weitere Universitäten die sich damit beschäftigen.

Das interessante an solchen Mannövern ist es, dass das Fluggerät auch dann „on“ ist wenn die Motoren abgestellt sind. Wenn man mitten im Flug die Elektromotoren deaktiviert bleibt das Fluggerät eben nicht in der Luft stehen und ist damit deaktiviert sondern das umgebende System (Erdanziehung) übernimmt dann die Kontrolle. Obwohl sich das zunächst wie ein Physik-Problem anhört ist es primär ein Softwareproblem. Um die Steuerung zu übernehmen benötigt man einen Algorithmus der ähnlich funktioniert wie eine Chess-Engine.

Cargo-Cult üben

Richard Feynman hat den Begriff der Cargo-Cult-Wissenschaft geprägt in Anlehnung an naive Eingeborene welche einen Flugplatz simulieren ohne jedoch die wesentlichen Prinzipen verstanden zu haben. Unterstellt wird, dass die Eingeborenen nicht klar ist, was sie dort tun und dass es keinen Effekt hat. Aber was ist, wenn es ihnen bewusst ist?

Nehmen wir mal an, eine provisorische Rollbahn mit Holzflugzeugen soll auf ein künftiges Geschehen vorbereiten. Es ist als Training zu verstehen um eine künftige Rolle einzustudieren. Das heißt, nicht das gegenwärtige Rollenspiel ist von Bedeutung sondern vielmehr geht es um das Erlernen von Fähigkeiten für ein künftiges Rollenspiel. Genau genommen kann man auch das Erste-Hilfe-Training an einer Rettungspuppe als Cargo-Cult-Science verunglimpfen, weil die Puppe niemals wird zum Leben erwachen. Dennoch ist diese Form der Erwachsenenbildung sogar Pflicht für alle Fahranfänger. Aber auch die meisten Militäreinsätze die geflogen werden fallen unter die Kategorie Übung / kein richtiger Einsatz. Könnte es also sein, dass das Bild was Richard Feynman aus dem Dschungel bemüht Sinn macht?

Viel entscheidener als die Handlungen als solche ist die Frage woraus sie vorbereiten sollen. Im Falle eines Flugplatztraining geht es vermutlich darum, eine Ausbildung in Sachen Flughafen zu realisieren. Denkbar wäre es aber auch, dass die Ankunft von Außerirdischen oder die Ankunft von Robotern antizipiert wird. Kurz gesagt es sind viele Szenarien denkbar die ein Training lohnenswert erscheinen. Vermutlich sind Cargo-Culte in Gesellschaften keineswegs die Ausnahme sondern die Regel. Es ist eine wissenschaftliche Methode die Unsicherheit zu reduzieren. Im Fall von Eigeborenen die eine Übung durchführen wirkt das Lächerlich, aber vermutlich sind Fahrsicherheitstraining für Außenstehende nicht weniger komisch.

Generell geht es nicht um die Frage ob man Cargo-Cult-Wissenschaft betreiben sollte sondern vielmehr wie realistisch man die Übungen durchführt. Das heißt, eine Startbahn im Dschungel ist eni guter Anfang, noch besser ist es jedoch, wenn man Fakeln aufstellt, damit sie nachts zu sehen ist. Holzflugzeuge sind ebenfalls ein guter Anfang, besser sind jedoch Holzflugzeuge in Originalgröße.

Schauen wir uns docheinmal an, wie fortschrittliche Gesellschaften Cargo-Cult-Wissenschaft betreiben. Aus der TV-Serie Startrek gibt es mehrere Beispiele. Dort werden bekanntlich Außenmissionen auf dem Holodeck trainiert, wohl wissend dass das Holodeck nicht die Wirklichkeit ist. Es gibt zwischen Virtuellen Welten und den Holzflugzeugen im Dschungel und zwar denjenigen dass es auf spielerischem Weg etwas über die Welt vermittelt. Der eine nennt es Kult, der andere Aberglaube aber ich nenne es Spiel.

Natürlich ist die Frage berechtigt warum Ureinwohner den Umgang mit Flugzeugen trainieren müssen. Die Antwort darauf ist praktischer Natur. Weil die Eingeborenen wissen, dass der Fortschritt auch in ihr Dorf kommt, dass es nicht lange dauert bis sie entweder in großen Städten leben wo es Flugzeuge gibt oder es Flugzeuge bis in ihre abgelegene Landschaft verschlägt (Touristen etc). Tatsächlich ist für Eingeborene die Wahrscheinlich sehr hoch, dass noch zu Lebzeiten sie mit dem Fortschritt konfrontiert werden. Und das erzeugt ein Bedürfnis sie auf diese neue Welt einzustellen. Wie gesagt, man kann über den Realismusgehalt von Holzflugzeugen streiten die Notwendigkeit zum spielerischen Probehandeln ist jedoch da.

Was für eingeborene ohne Strom und fließend Wasser eine angemessene Form des Cargo Cult ist wissen wir jetzt aber wie sieht es aus, mit westlich geprägten Leuten? Worauf müssen sie sich vorbereiten? Wenn man einmal Mythen und Paranoide Vorstellungen analysiert welche im Westen verbreitet werden so findet man zwei Szenarien die als Zukunft bezeichnet werden: einmal der Kontakt mit Außerirdischen und zweitens die Konfrontation mit Superintelligenten Robotern. Beides sind Szenarien die Angst machen und für die keine rationalen Kompensationsmechanismen existieren. Ein Raumschiff mit superintelligenten Robotern ist ungefähr das Äquvalent zu einem us-amerikanischen GI der mit seinem Flugzeug die Eingeborenen besucht. Die Frage lautet jetzt nur noch, wie trainiert man eine Illeninvasion wenn man offenbar keine Ahnung hat was da auf einen zukommt. Die Antwort ist simpel: über Improvisation und Fantasie. Es geht also darum, die Zukunft selbst dann zu simulieren wenn die Informationen unvollständig und wage sind. Es ist besser sich mit diesem Training lächerlich zu machen als überhaupt kein Training durchzuführen.

Hier http://www.idigitaltimes.com/israel-defense-forces-training-against-alien-invasion-ufo-threat-drills-designed-417568 ist ein Bericht über eine Militärübung in der tatsächlich eine Alieninvasion trainiert wird inkl. Hackerangriff. Das ganze ist flapsig formuliert nichts anderes als Cargo-Cult es wird hier etwas geprobt von dem niemand weiß wie es aussieht. Aber offenbar nicht aus Naivität heraus, sondern aus echter Paranoia. Witzig an solchen Übungen ist, dass dabei die selben Methoden eingesetzt werden die schon bekannt sind. Also die Standard-Hubschruber, die Standard-Hackertools usw. Das heißt, aus der Perspektive die ohnehin schon da ist wird versucht sich auf das unbekannte vorzubereiten. Das mag nicht ausreichend sein, aber was wäre die Alternative?

Würde Richard Feynman bei so einer Übung beiwohnen und darauf hinweisen, dass es sich um ein nutzloses Training handeln weil es ja keine Alieninvasion gibt und auch die Mittel unzureichend sind, ist anzunehmen dass Feynman der eigentlich Failure darstellt. Das heißt, außer Feynman denkt niemand so.

Edward Snowden — 3 Jahre danach

Im Jahr 2013 ist Edward Snowden an die Welt herangetreten und hat das NSA Überwachungsprogramm enthüllt. Zeit für einen kleinen Rückblick und eine Untersuchung bezüglich des Wahrheitsgehaltes. Der Fall Snowden ist auf mehreren Ebenen dokumentiert worden. Einmal über die mediale Berichterstattung, hier sind Dokumentarfilme zu nennen wie “Citizen four” die die genauen Abläufe beschreiben (Hotelzimmer in Hongkong), aber auch der NSA Untersuchungsschuss oder die zahlreichen Vorträge vom Chaos Computer Club zu diesem Thema können unter diesem Aspekt zusammengefasst werden und zweitens gibt es noch die NSA-Dokumente selbst die Snowden veröffentlicht hat und welche inzwischen auf archive.org als Unterordner vollständig einsehbar sind.

Wenn man sich diese Dokumente näher anschaut und die Interviews mit Snowden hinzunimmt, hat Snowden in erster Linie politische Informationen veröffentlicht. Also Fakten über Geheimgerichte, institutionelle Absprachen und Geheimverträge mit Unternehmen. Auch die Dokumente selbst enthalten keinerlei Sourcecode oder technische Einzelheiten sondern lesen sich wie die Topsecret Dokumente die bei einer gerichtlichen Anhörung eingesetzt werden. Es wird darin eine bürokratische Sprache bemüht die auf Verordnungen und Institutionen basiert.

Den Wahrheitsgehalt der Dokumente einzuschätzen ist simpel: sie sind echt. Das was Snowden dort entwendet hat lag tatsächlich auf den NSA Servern und auch die angedeuteten Geheimgerichte sind echt. Man kann das anhand von weiteren Aussagen und weiteren Dokumenten die nicht von Snwoden stammen belegen. Gleichzeitig ist jedoch das NSA-Überwachungsprogramm von dem Snowden spricht eine Lüge. Wahr ist nur, dass die NSA gerne so ein allumfassendes Überwachungsprogramm installieren möchte mit dem man jeden Menschen vollautomatisch trackt und seine Kommunikationsdaten abhören kann. Die Snowden Dokumente sind weniger ein Beleg dafür, dass es schon realisiert wurde, sondern müssen als Absichtserklärung bzw. als Werbeprospekt für ein solches Projekt verstanden werden. Es sind Konzeptstudien die technisch bisher noch nicht realisiert wurden.

Wenn man die Affäre aus technischer Sicht bewerten möchte muss man sagen, dass derzeit die Computertechnik noch nicht soweit entwickelt ist um die Snowden Folien in die Praxis umzusetzen. Weder existieren Quantencomputer noch Künstliche Intelligenz um Daten automatisiert auszuwerten. Den technischen Stand so wie er aktuell ist, liefert nicht Snowden sondern der lässt sich auf Google Scholar nachlesen und zwar mit dem Stichwort “IARPA”. Damit erhält man eine Vielzahl von technischen Dokumenten angezeigt die sich mit Datamining von großen Datenmengen beschäftigen und worin auch Künstliche Intelligenz einen Rolle spielt. Wer sich für ein mögliches NSA Programm interessiert dürfte mit diesen Google Scholar Dokumenten weitaus besser bedient sein, als mit den Powerpoint Folien von Snowden. Diese sind zwar streckenweise interessant (beispielsweise die Folie wo erläutert wird, dass die NSA auch Computerspiele analysiert), aber weder enthalten die Dokumente technische Details, und auch keine Literaturangaben. Sie werden nochnichtmal formalen wissenschaftlichen Ansprüchen gerecht geschweige denn bieten sie neue Informationen.

Hingegen findet sich auf Google Scholar sehr detailiert, woran die NSA gerade arbeitet:

• 3D Integration for Superconducting Qubits

• Barcoding the brain

• Compact kernel models for acoustic modeling via random feature selection

• Face recognition using deep multi-pose representations

Das sind nur ein paar der Stichwort die im Jahr 2016 untersucht worden, es würe müßig hier alles aufzuzählen. Das interessante an diesen NSA Forschungen ist, dass sie bisher noch nicht abgeschlossen sind. Das heißt, keines der Systeme ist wirklich einsatzbereit oder fehlerfrei. Das einzige was man sagen kann, ist dass die Forschung überwiegend als OpenContent durchgeführt wird und sich jeder Bürger mit Internetzugang diese Dokumente anschauen kann. Interessanterweise haben diese frei verfügbaren Google Scholar Paper in der Edward Snowden Diskussion keine Rolle gespielt und auch die darin behandelten Themen wurden nicht angesprochen.

Viel wurde inzwischen darüber spekuliert ob Snowden in Wahhriet für die NSA arbeitet und der Fall nur Desinformation war. Vielleicht von allem ein bisschen. Was man jedoch sagen kann ist, dass Snowden kein Wissenschaftler ist und auch kein Informatiker sondern sich ähnlich wie Julien Assange primär für die gesellschaftliche Rolle der elektronischen Datenverarbeitung interessiert. Also darauf fokussiert wie Geheimdienste die Bürger ausspionieren und dass man dagegen etwas tun muss. Snowden ist ein Netzaktivist, mehr nicht. Seine Kernaussage lautet, dass Technologie per se etwas schlechtes ist. Gerade in Deutschland hört man soetwas gern weil Deutschland ohnehin die Hochburg der Neoludditen und Computeranalphabeten ist.

Neuer Besucherrekord oder Ddos Angriff?

Ein Blick auf die Statistik hat einen massiven Anstieg um mehr als 100% ergeben. Anstatt 1 Besucher täglich, greifen jetzt auf dieses Blog bereits 3 Besucher täglich zu. Das ist absoluter Rekord und deutet daraufhin, dass jemand die Low Orbit Kanone in Stellung gebracht haben muss damit WordPress unter der gigantischen Last zusammenbricht … Kleiner Scherz. Natürlich sind 3 User am Tag weder ungewöhnlich noch stecken Ddos Attacken dahinter. Sondern eher ist es so, dass irgendjemand auf einen Link geklickt hat, oder mittels google per Zufall auf die Webseite gestoßen ist.

Interessant ist in diesem Zusammenhang auch die Analyse von Stackoverflow die zum Ergebnis kommt dass auf einem sogeannten „Healthy Forum“ 1500 Visits pro Tag stattfinden die zu 90% über Google auf die Seite stoßen. So steht es jedenfalls in einem Report der Beta-Foren näher untersucht um zu evaluieren ob sie auf einem guten Weg sind.

Machen wir uns nichts vor, die Zahl von 1500 Visits / Tag wird dieses Blog niemals erreichen. Angepeilt sind stattdessen für die nächste Zeit die mageische Zahl von 50 Visits/Tag. Das wäre schon viel. Und wenn dann in rund 6 Monate der erste vorsichtige Kommentar gepostet wird, der kein Spam ist, sondern ein echter User der tatsächlich einen Artikel gelesen hat, dann wäre das schon super.

Aber mal ganz unabhängig davon gibt es ein simples Patentrezept was die User-Anzahl angeht. Und zwar kann man sagen, das nicht etwa Webseiten an sich gut oder schlecht gemacht sind, sondern dass ein hoher Traffic bei Foren von allein entsteht. Das heißt, überall dort wo eine Webseite als Diskussionsplattform oder sogar als soziales Netzwerk angelegt ist steigt die Besucherzahl von allein in schwindelerregende Dimensionen. Anders formuliert lautet die unbewiesen These, dass ein Webserver auf dem phpBB installiert wird automatisch mehr Klicks erhält als einer wo nur WordPress drauf läuft.

Ein wenig widerspricht das der üblichen Vorstellung, dass hoher Traffic durch guten Content erzeugt wird. Nur, mein Baugefühl sagt mir, dass ein und derselbe Text den man auf in eine WordPress-Installation hochlädt automatisch weniger Hits erhalten wird als wenn man den Text in eine phpBB Installation postet. Woran das genau liegt, darüber darf man spekulieren. Aber vermutlich werden bei Google Forenwebseites höher gerankt und vermutlich ist die Bereitschaft von Users größer auf Forenwebseiten draufzuklicken.

Man kann diese Hypothese noch weiter spinnen und als Traffic-Regel formulieren, dass eine Webseite umso mehr Hits erhält, je ähnlicher sie einem falsch-konfigurierten root-Server entspricht. Das heißt, wenn man nicht nur phpBB installiert sondern auch noch eine root-Shell zur freien Benutzung und einen Link dazu in ein Forum postet dann dürfte nach weniger als einer Woche die Zahl der Zugriffe massiv anschwellen …

Da dieses Blog jedoch kein Forum ist, kein root-Server und auch keine media-Wiki Installation wo jeder mitschreiben kann ist zu erwarten dass der Traffic überschaubar bleibt. Und dabei soll es bleiben.

Wissenschaft als Lügenmaschine

Vom Selbstverständnis her verstehen sich viele Wissenschaftler als Überbringer der Wahrheit. Sie sehen es als ihre Pflicht an, Dinge objektiv zu berichten und mit nachprüfbaren Fakten zu überzeugen. Aber funktioniert Wissenschaft wirklich auf diese objektive Weise? Ist das wirklich die Abgrenzung gegenüber der Pseudowissenschaft?

Wissenschaft kann nicht wahr sein. Ganz im Gegenteil: Wissenschaft hat sich historisch gesehen aus dem Geschichten erzählen heraus entwickelt. Zuerst gab es die Märchen, dann gab es die Zauberkünstler und dann gab es die Physik. So funktioniert Wissenschaft und nicht anders. Wenn es eine Tradition innerhalb der Naturwissenschaften gibt, dann die Bereitschaft sich etwas auszudenken was sich nicht beweisen lässt. Das wird als Hypothese bezeichnet ist aber nichts anderes als ein Märchen. Das Atommodell ist so ein Märchen, genauso wie die Idee dass die Erde rund ist.

Wenn wir uns mit diesem Hintergrundwissen dem Ufo-Phänomen nähern muss sich die Wissenschaft zunächst einmal fragen, was sie hier beitragen kann. Kann sie etwa Wahrheit ins Spiel bringen und irgendwas beweisen? Nein das ist nicht die Aufgabe der Wissenschaft. Für absolute Wahrheiten sind die Religionen zuständig. Wissenschaft kann etwas besseres tun: Wissenschaft kann Lügen verbreiten über UFOs. Die wohl mächtigste Lüge lautet, dass es keine Ufos gibt.

Nicht nur die Lüge selbst ist interessant sondern auch die Folgen die sich daraus ergeben. Bekanntlich funktioniert eine Lüge so, dass man darauf aufbauend weitere Lügen erzählen muss damit sich keine Widersprüche ergeben. Machen wir uns dochmal die Mühe und erzählen im folgenden eine Lüge über den „Rendlesham-Forest-Zwischenfall“.

Dieser ereignete sich im Dezember 1980 in Großbritanien. Die Lüge lautet, dass dort kein Ufo abgestürzt ist. Natürlich gibt es mehrere Fakten die eindeutig dagegeben sprechen. So haben Lieutenant Colonel Charles Iowerth Halt und Superintendent George Plum Lichter gesehen und dass ein Ufo gelandet ist. Weiterhin hat Staff-Sergeant James Penniston sich im Jahr 2010 daran erinnert, dass er sogar in telepathischem Kontakt mit den Außerirdischen stand. Natürlich wissen wir, dass alle drei die Wahrheit sagen. Es sind angesehene Militärmitarbeiter, an ihrer Seriösität besteht keinerlei Zweifel. Und was sie dort im Wald gesehen haben, war tatsächlich ein außerirdisches Flugobjekt von einer fremden Macht. Nur, darum geht es hier nicht. Es geht darum eine Lügengeschichte zu erzählen in der es eben kein Ufo gab. Die Frage lautet also wie man die Zeugen diskreditiert, und wie man die Geschehnisse so umdeutet, dass am Ende niemand mehr an die UFO Geschichte glaubt.

Die einfachste Möglichkeit die Existenz von UFOs zu leugnen besteht darin, dass man sagt, dass der nahegelegne Orfordness-Leuchtturms für die Lichter verantwortlich war, dass die Landespuren in Wahrheit Kanienchenlöcher sind und das ein Meteor abgestürzt sei. Natürlich ist nichts davon wahr, weil es den Leuchtturm gar nicht gibt, und Kanienchenlöcher anders aussehen als das was in Rendlesham zu sehen war — aber genau dafür gibt es die Wissenschaft. Es ist ihre Aufgabe derartige Spekulationen so vorzutragen dass es alle glauben.

Ich will damit sagen, dass nicht etwa die Religion die Aufgabe hat, Glauben und unbewiesene Spekulationen zu verbreiten sondern dass die seriöse Wissenschaft sich dem Baron Münchhausen Prinzip verpflichtet sieht.

Generell sollte man sich klarmachen, dass Leute wie Billy Meier und die Rael-UFO-Sekte im Besitz der Wahrheit sind. Sie wissen was passiert ist, sie haben als einzige den Überblick. Und sie sind in der Lage objektiv und seriös zu beweisen dass Kontakte mit Außerirdischen existieren. Im Gegensatz dazu hat die Wissenschaft die Aufgabe die Fakten zu vertuschen. Also mit unlauteren Mitteln zu arbeiten und die Aufklärung zu verhindern. Die Wissenschaft kann beispielsweise behaupten, dass Billy Meiers Fotos gefälscht sind, obwohl alle wissen dass das nicht stimmt. Billy Meier hat niemals auch nur ein Foto gefälscht, das würde er nicht tun und es gibt auch keinerlei Indizien die darauf hindeuten. Ganz im Gegenteil, die Landschaftsaufnahmen auf den untertassenförmige Objekte in den Schweizer Bergen zu sehen sind sind ein Beleg für die Existenz von Außerirdischen. Nur, um die Wahrheit geht es hier nicht. Es geht darum, dass man mit der vorgefertigten These „Es gibt keine Ufos“ an den Start geht und sich dann jene Fakten heraussucht die diese These stützen und alle anderen Fakten verdreht. Da die Wissenschaft nicht darauf angewiesen ist die Wahrheit zu erzählen ist sie immer in der stärkeren Position.

Erfahrungsbereicht Antergos Linux

Seit gut 3 Monaten lasse ich in einer virtuellen Maschine Antergos Linux parallel laufen um Erfahrungen zu sammeln. Das ist wegen des kurzen Zeitraums und der virtuellen Maschine zwar nicht representativ, ist aber deutlich praxisnäher als nur anhand der Wiki-Dokumentation dieses Betriebssystem zu beurteilten.

Positiv aufgefallen ist dabei vor allem der grafische Installationsmanager: man fährt das System hoch und erhält direkt angezeigt wenn es Updates gibt. Man braucht dann nur noch auf „Übernehmen“ klicken und das System ist auf dem neuesten Stand. Wenn man das System nur einmal pro Woche startet, kommen dabei rund 200 MB an Update-Downloads zustande, wenn man täglich auf Aktualisieren klickt sind es weniger. Bisher gab es übrigens auch einen Fall, wo Konflikte aufgetaucht sind. Und zwar gab es die Meldung, dass nicht alle Pakete aktualisiert werden konnten und deshalb die Prozedur abgebrochen wurde. Der Ausweg bestand darin, über pacman manuell auf der Command-Line die Aktualisierung zu starten wo dann das entsprechende fehlerbehaftete Paket identifziert wurde. Dieses muss man dann im Update-Manager deselecten. Nach ca. 1 Woche war der Fehler auf Seiten der Antergos-Maintainer behoben und das Paket ließ sich dann erneut installieren. Das ganze hatte die Ursache in den neu eingeführten Paket-Signierungen.

Von diesem Defekt einmal abgesehen war bisher der Eindruck von Antergos positiv. Auch große und komplexe Pakete wie die neuste Eclipse Version (Neon) lassen sich sehr simpel über den Update-Manager nachinstallieren und starten vorbildlich. Mein Eindruck ist, dass Antergos bisher die beste Implementierung eines Rolling-Release Systems darstellt. Dennoch kann man aktuell noch nicht zum Umstieg raten. Zu unausgefreift das Projekt zuwenig User, die es tatsächlich einsetzen.

ROLLING RELEASE
Es stellt sich die Frage, ob Antergos das richtige Betriebssystem ist indem lediglich Feinheiten verbesserungswürdig sind, oder ob der Ansatz per se eine Sackgasse darstellt. Meiner Meinung nach ist Antergos grundsätzlich der richtige Ansatz. Es basiert auf dem ArchLinux Package-System und der dort verwendeten Infrastruktur, ergänzt es jedoch um einen grafischen Installer und einen grafischen Update-Manager. Ein Konzept was erstaunlich leistungsfähig ist.

Zwar ist Antergos in seiner heutigen Ausprägung alles andere als das perfekte Betriebssystem (das spärliche Wiki kann man nur als Witz bezeichnen, kein Vergleich mit Ubuntu), aber dafür ist Antergos vom Aufbau her extrem fortschrittlich. Ähnlich wie Ubuntu kann man sich einen Antergos Rettungs-USB-Stick erzeugen mit dem man jeden beliebigen PC booten kann und immer eine grafische Oberfläche samt Webbrowser erhält. Anders als Ubuntu hat man dort die allerneuste Software was nicht nur Sicherheitsvorteile mit sich bringt, sondern auch eine Verneigung vor der OpenSource Community darstellt. Dort haben bekanntlich die Autoren des Linux-Kernels, von LibreOffice, von Eclipse und all den anderen Programmen ein Interesse daran, dass ihre Arbeit den Weg zum Endverbraucher findet und nicht erst 3 Jahre und länger in irgendwelchen Debian Mailing-Listen diskutiert und für nicht ausgereift beurteilt wird.

Das Hauptproblem mit Antergos ist, dass es nahezu alle Vorteile gegenüber Linux bestätigt. Sobald nähmlich bei Antergos irgendwas nicht funktioniert ist man gezwungen sich mit ArchLinux zu beschäftigen und dort wiederum werden Rettungsaktionen klassisch mit der Kommandozeile und extrem viel Unix spezifischem Fachwissen durchgeführt. Wo bei Redhat Linux und Ubuntu alles in Watte verpackt wird, ist bei Antergos/ArchLinux das blanke Metall zu sehen was nicht für den Umsteiger von Windows oder Apple abschreckend wirkt.

Wer jedoch keine Lust darauf hat, sich von irgendwelchen Konzernen (und sei Redhat oder Cannocical) bevormunden zu lassen und wer selber verstehen will, wie sein System funktioniert, der ist mit ArchLinux/Antergos auf der richtigen Seite. Es ist dasjenige Betriebssystem was für Devoloper sehr viele Vorteile in sich vereint. Und ja, ArchLinux ist diejenige Distribution die am ehesten der Unix Philosophie entspricht.