Zugangskarten zum US-Senat nur mit Bild

[1] Die Antwort lautet, dass man bei „The sims“ auch keine Sicherheitsüberprüfung benötigt weil in der Game-Engine ohnehin in der zentralen Datenstruktur in Echtzeit gespeichert wird, welcher Sims gerado wo ist und was macht. Ob das nun lustig ist, sei mal dahingestellt, ich würde das eher als lehrreich bezeichnen wollen. Das heißt, die DARPA oder wer sich das immer ausgedacht hat möchte uns damit eine Geschichte erzählen und möchte das wir sie verstehen.

Warum die Mondlandung kein Fake sein kann

Die Anhänger von Flatearth behaupten, dass es technisch nicht möglich wäre den Mond zu erreichen und deshalb Apollo 11 sowie alle weiteren Mondmissionen in einem TV-Studio entstanden. War es so? Natürlich nicht. Und zwar deswegen weil in den 1960’er Jahren die benötigte Technik nicht vorhanden war um derartig aufwendiges Filmmaterial zu erstellen. Wollte man wirklich die hochauflösenden Kameraaufnahmen vom Mond in einem Studio erstellen und das auch noch realistisch machen, würde man weitaus mehr benötigen als einfach nur einige Halteseile und etwas Licht. Selbst in der Gegenwart ist Pixar nicht im Stande, derart realistisch Echtbilder auf ihren Supercomputern zu erzeugen. Und mitlerweile stehen Intel 64Bit CPUs zur Verfügung, die um einiges schneller sind als die Computer aus der damaligen Zeit. Nur mal zur Erinnerung. in den 1960’er war das Internet noch nicht erfunden, und UNIX steckte gerade in den Anfängen. Workstations zum Filmschnitt gab es noch nicht, und CGI (Computer generated Images) waren unbekannt. Aber was in den 1960’er vor allem noch nicht erfunden war, das war Künstliche Intelligenz. Also eine Software, die man innerhalb einer Simulation startet und die dort menschenähnliche Bewegungen ausführt wie z.B. das Simbicon-Projekt wo über Finite State-Machines eine Laufbewegung erzeugt wird. Es ist vollkommen unmöglich, dass man in den 1960’er Jahren die Mondaufnahmen als CGI gerendert hat und Buzz Aldrin und all die anderen als computergesteuerte Avatare dort hineingesetzt hat. Eine solche Simulations- und Steuerungssoftware zum Erzeugen einer virtuellen Welt inkl. computererzeugter Intelligenz ist selbst gegenwärtig außerhalb des Möglichen.

Selbst der Microchip war in den 1960’er noch nicht erfunden, und die schnellsten verfügbaren Supercomputer arbeiteten noch mit Transistoren. Auf dieser Hardware lässt sich jedoch nur eine sehr geringe Rechenleistung erzeugen die zuwenig ist für 3D Simulation. An moderne Rechnerarchitekturen wie Quantencomputer oder optische Computer hat damals noch niemand gedacht. Lediglich in Alternativweltgeschichten wie „Die Differenzengine“ von Gibson/Sterling wurde der Microchip viel früher erfunden so dass Nikolas Tesla dann den ersten Quantencomputer in Betrieb nehmen konnte, der dann in den 1960’er von der NASA zum Rendern der Mondmission eingesetzt wurde, aber das ganze ist nur ein Roman und nicht die Realität.

Ist SCIgen ein Geheimcode?

Schon in einem früheren Blogpost wurde die Vermutung geäußert, dass der Nonsens-Generator Scigen sich wie eine Virus-Kascade in die richtige Wissenschaft hineinfrisst. Diese Hypothese soll im folgenden ausgebaut werden, leider offenbart sich dabei eine Verschwörungstheorie die neu ist. Aber der Reihe nach.

Fangen wir mal ganz bottom up an. Scigen wurde programmiert von einem Junginformatiker der eigentlich eine wissenschaftliche Abschlussarbeit schreiben sollte, darauf aber keine Lust hatte und stattdessen die Gegenseite getrollt hat. Er hat das dadurch gemacht, in dem er ein Programm entwickelt hat, was bis heute auf https://pdos.csail.mit.edu/archive/scigen/ online ist und wo man nur seinen Namen einzutragen braucht und es wird dann per Zufall automatisch ein Paper erzeugt. Soweit nichts besonderes, es gibt innerhalb der Natural Language Processing Community dutzende derartiger Programme. Sie basieren meist auf kontextfreien Grammatiken die mittels Zufallsgenerator grammatikalisch korrekte Sätze erzeugen, die aber keinen Sinn ergeben.

Das bekannteste Paper was mit Scigen erzeugt wurde trägt den Titel „Rooter: A methodology for the typical unification of access points and redundancy“. Es ist deshalb bekannt, weil es der Autor Jeremy Stribling an verschiedene Stellen geschickt hat, die dachten es wäre ein echtes Paper. Weiterhin hat sich rund um Stribling eine Gruppe gebildet die auf einer Fachkonferenz weitere Nonsens-Dokumente vorgetragen haben. Erst im Nachhinein haben sie den Schwindel auffliegen lassen.

Soweit die offizielle Geschichte. Sie zeigt deutlich auf, wie anfällig das Wissenschaftssystem für elaborierten Nonsens ist und dass dringend der Peer-Review-Prozess in Fachzeitschriften verbessert werden muss. Das Problem ist nur, dass mit dieser Geschichte irgendwas nicht stimmt. Es gibt da noch eine zweite Wahrheit die im folgenden angerissen wird.

Im orginalen Paper „Rooter: A methodology for the typical unification of access points and redundancy“ findet sich tatsächlich keinerlei Sinn. Es werden dort Fachbegriffe per Zufall zusammengewürfelt. Das ganze ist zwar English, aber man erkennt relativ schnell dass das keine richtige wissenschaftliche Arbeit ist. Im Abstract heißt es beispielsweise „In order to solve this riddle, we confirm that SMPs can be made stochastic, cacheable, and interposable.“ Dieser Satz ist objektiv betrachtet Blödsinn, soweit stützt es das ursprüngliche Narrativ. Aber schauen wir dochmal ganz nach unten zu den zitierten Literaturquellen, an Position [12] findet sich eine Quelle: „LEARY, T. Decoupling I/O automata from access points in model checking. In Proceedings of PLDI (June 1994) “ Laut den Erklärungen von J. Stribling wurden auch die Literaturangaben über eine kontextfreie Grammatik und einen Pseudorandomgenerator erzeugt. Und gibt man spaßeshalber das Paper bei Google ein, wird auch kein Ergebnis angezeigt. Aber, es gibt hier zwei Probleme. Erstens, zeigt Google Scholar sehr wohl einen Eintrag an. Das heißt, laut Google Scholar existiert das Paper. Allerdings ist kein Zugriff auf den Volltext möglich. Als Paper die es zitiert haben, wird nur das ursprüngliche „Rooter …“ Dokument angezeigt, was der Scherzbold Stribling eingepflegt hat. Die zweite Merkwürdigkeit ist, dass es zumindest Paper gibt, die sehr ähnlich klingen und die richtige Paper sind. Hier ist zu nennen:

– Decoupling Replication from Extreme Programming in Semaphores
– Decoupling I/O Automata from Semaphores in SMPs

Das erste Paper liegt immerhin auf einem Universitären-Server „inria.fr“ (der wichtigste Forschungsverbund in Frankreich) während das zweite Paper in einem Course an einer Uni entstand und ein wenig komisch aussieht, so als wäre das ebenfalls ein Fake Paper.

Fassen wir mal das Problem zusammen. In einem Fake-Paper, was durch einen Zufallsgenerator namens Scigen erzeugt wurde, sind Literaturangaben enthalten, die angeblich nicht existieren. Wenn man aber nach einem ähnlich klingenden Namen sucht, gibt es plötzlich ernsthafte Paper von ernsthaften Autoren die an echten Universitäten arbeiten. Ist das womöglich nur Zufall?

Wohl kaum, wenn normalerweise ein Scherzkeks einen Zufalls-Dokumentengernator schreibt (mit Python geht sowas in wenigen Zeilen Code) und sich eine kleine Kontextfreie Grammatik ausdenkt um den Text, die Bilder und die Literaturliste zu erzeugen, dann wird der Output echter Quatsch sein. Das heißt, es gibt keine Paper die so ähnlich klingen und die möglicherweise einen Sinn ergeben. Also, was um alles in der Welt hat Jeremy Stribling da in Wahrheit programmiert? Also ein Zufallsgenerator ist das nicht, das sieht eher so aus wie ein Code von einer außerirdischen Zivilisation. Und hier wird deutlich, warum in der Einleitung steht, dass offenbar eine neue Verschwörungstheorie erfunden wurde. Ich nenne sie die SCIgen-Verschwörung. Diese beinhaltet, dass SCIgen gar kein Random-Generator ist, sondern in Wahrheit eine hochentwickelte Technologie vom Planeten Melmac. Yup, da wo ALF herkommt.

Welche konkreten Anhaltspunkte gibt es, dass mit SCIgen etwas nicht stimmt? Im originalen Dokument was den Titel trägt „Rooter: A methodology for the typical unification of access points and redundancy“ gibt es keinerlei Hinweise, dass dort ein versteckter Code enthalten wäre. Wenn das tatschlich ein Code sein soll, dann ist er sogut verschlüsselt dass man ihn nie entdecken wird. Aber, wenn man sich die Paper anschaut die in dem Paper zitiert wurden und auch Paper mit berücksichtigt die einen ähnlich klingenden Namen haben, dann findet man in diesen sekundären Paper sehr wohl relavante Informationen. Dort ist keineswegs alles Quatsch, sondern es ist eine Mischung aus echter Informatik, hochkomplexer Informatik und vielleicht ein wenig Quatsch. Das heißt, mit ein wenig gutem Willen ist es möglich, diese sekundären Paper a) zu lesen, und b) zu verstehen. Und genau das deutet auf eine Verschwörung hin. Es ist hin ein Hinweis, dass da offenbar doch ein Code ist.

Die Frage ist jetzt: wie debunked man die These, dass ScIgen in Wahrheit das Spielzeug von ALF dem Melmacer ist?

Bug: Scigen ist doch kein Nonsens-Generator

Unter der Bezeichnung „Rooter: A methodology for the typical unification of access points and redundancy“ hat J Stribling ein Paper veröffentlicht was kompletten Nonsens enthält. Es wurde erzeugt mit Hilfe eines Dokumentengenerators Scigen, der entwickelt wurde um das wissenschaftliche Betriebssystem zu trollen. Es gibt auf seiner Homepage dazu die Einzelheiten.

Nichts desto trotz taucht das Paper „Rooter …“ bei Google Scholar auf und wurde dort sogar zitiert, immerhin 5x. Die Antwort ist simpel: wenn man eine Arbeit verfasst in der Betrug in der Wissenschaft oder Quatsch-Paper diskutiert werden, dann darf ein Link auf Scigen und dessen berühmtes Paper nicht fehlen. Man muss es im Kontext sehen, als Beispielpaper aus dem Jahr 2005 was aufzeigt, dass die Kontrollmechanismen innerhalb der Wissenschaft Lücken haben. Das Problem ist nur, diese These ist falsch. Das Paper „Rooter: A methodology for the typical unification of access points and redundancy“ wurde keineswegs von Leuten zitiert, die Fake-Science thematisieren wollen, sondern es wird von Papern zitiert in denen Computerwissenschaft erläutert wird. Das wiederum sind echte Paper. Offenbar wissen sie nicht, dass „Rooter: A methodology for the typical unification of access points and redundancy“ kein richtiges Paper ist, sondern über einen Zufallsgenerator entstanden ist und folglich es keinen Sinn macht, darauf aufbauend weitere Forschung zu betreiben. Das Problem ist, dass auch die Paper die „Rooter …“ zitieren, selber ebenfalls zitiert werden, so dass sich das Virus immer weiter fortplanzt und über 3 Ecken vermutlich auch den Sprung bis ins Nature-Magazin geschafft hat. Ob man das ganze als Erfolg oder als Super-GAU werten soll ist nicht ganz klar. Offenbar sind da Kräfte am Werk die mit negativer Energie arbeiten.

Man kann inhaltlich diese Kaskade erläutern. Das ursprüngliche „Rooter …“ Dokument ergibt keinen Sinn. Wenn man es ließt wird man darin nichts interessantes entdecken. Es ist lediglich die Ausgabe einer Kontextfreien Grammatik die über einen Random-Generator ein beliebiges Dokument erzeugt hat. Wenn man jedoch Werke ließt, die das Ursprungsdokument lesen, ergeben diese sehr wohl einen Sinn. Dort wird beschrieben, wie man das TCP/IP Internet mit Hilfe von semantischen Netzen erweitert zu einer Art von Super-Internet. Je höher man in der Kaskade hochsteigt, desto klarer / verständlicher wird es. Und mit diesem Wissen kann man dann das Ursprungsdokument „Rooter …“ erneut lesen und findet es plötzlich gar nicht mehr so unverständlich. Wie kann das sein? War es nicht immer so, dass das Chaos immer im Rauschen endet? Offenbar wurde bei der Scigen-Kaskade aus einem Rauschen rückwärts Ordnung erzeugt. Sehr merkwürdig das ganze. Wenn ihr mehr dazu wissen wollt, schreibt es in die Kommentare und liked diesen Artikel!

Linux und Electronic Warfare

Cybersecurity bzw. electronic Warfare verbinden viele mit Hacking. Und das Hacker-Betriebssystem Nr. 1 ist Linux. Demzufolge ist sowohl der Angriff als auch die Verteidigung Linux basiert. Der Angreifer nutzt eine Distribution wie Kali Linux um ein System zu attackieren und der Verteidiger nimmt als Webserver entweder ein stabiles Debian oder wenn er etwas mehr Geld hat auch ein Redhat-Linux. Alle bekannten Exploits sind dort gefixt und so hat man die beste Software die es aktuell gibt? Falsch. Linux ist im Grunde nur ein Schönwetterbetriebssystem. In einem richtigen Cyberkrieg werden Linux Server als erstes vom Netz genommen, dann ist es Zeit für die richtig schweren Geschütze. Aber was soll das sein? Forth natürlich. Es mag merkwürdig klingen, aber in Forth kann man sehr wohl einen Webserver betreiben. Das ist dann keine COTS Software wie sie von Privatleuten oder Firmen verwendet werden, sondern der Webserver wird von Grund auf neu programmiert. Dafür reichen rund 200 Lines of Code aus. Mit diesem Forth Code (der speziell getestet wurde) kann man einen ultrasicheren Webserver betreiben, der keine bekannten Exploits besitzt. Und wenn man noch etwas mehr Aufwand treibt, kann man sich darum herum noch ein eigenes Betriebssystem inkl. TCP/IP Stack basteln. Das läuft dann natürlich nicht auf Consumer-Hardware von Intel (die erwiesenermaßen Backdoors besitzt) sondern auf selbst erstellten Chips. Natürlich vom Typ Stackprozessor.

Ungefähr diese Kombination aus Forth-Webserver und selbst erstelltem Stackprozessor ist es, was in einem Cyberkrieg eingesetzt wird. Alles was hingegen die Linux Community so entwickelt wie Apache Webserver, oder irgendwelche ext4 fähigen Kernel aus dem Hause Torvalds sind demgegenüber leider nicht empfehlenswert. Die Frage lautet berechtigterweise, um was es sich für einen Krieg handelt wenn ein handelsüblicher Xeon Prozessor plus ein gepatchter Redhat Server nicht gut genug sind. Das wird ja dann kaum einer von diesen üblichen Security Challanges sein, wo man sich mittels Zero-day-exploit irgendwo reinhackt und dann eine Nachricht hinterlässt wie „hacked by russian forces“. Und richtig, wir reden hier nicht von einem Hackerangriff, sondern von einem Cyberwarfare.

GCHQ Challange ist zu schwer

Auf http://www.canyoucrackit.co.uk/ gibt es eine Hacking-Challange vom englischen Geheimdienst GCHQ. Der Einsendeschluss ist zwar schon vorbei, aber interessant ist es trotzdem sich einmal anzuschauen, was denn so gefordert wird von Security Experten. Laut der Aufgabenstellung enthält das Bild einen Code in Hexadezimalschreibweise der mit dem RC4 Cipher verschlüsselt ist. Wer jetzt nur Bahnhof versteht, kann sich auf Youtube ein Erklärvideo anschauen wo zuerst der Code mittels OCR in eine Textdatei übertragen wird, dann über einen Disassembler in Maschinencode rückübersetzt wird, dann werden die Labels manuell verändert und zu guter letzt wird noch ein RC4 Algorithmus von Wikipedia per Copy&Paste dazu benutzt um an das Passwort zu gelangen. Von der Schwierigkeit her würde ich sagen, dass auf einer Skala von 0 bis 10, wobei 0 sehr einfach ist, die Aufgabe eindeutig eine 10 verdient hat. Ziemlich anspruchsvoll, vielleicht ein wenig zu anspruchsvoll.

Aber macht dieser hohe Standard Sinn? Muss man als angehender Hacker Binärcode rückwerts übersetzen können und mit Verschlüsselungsverfahren umgehen können? Leider wird das nicht thematisiert, vielmehr wird es in der Aufgabenstellung vorausgesetzt. Und das ist aas eigentliche Problem: wer entscheidet darüber, was relevant ist in der Informatik und was nicht. Interessanterweise ist die Aufgabe vom GCHQ einerseits ultraschwer zu lösen, auf der anderen Seite enthält sie nur wenig wissenschaftliche Substanz. Würde die Aufgabe jemand bei Stackoverflow reinstellen, würde sie vermutlich keine gute Punktzahl erhalten. Der Moderator würde dazu schreiben, dass der Fragesteller nicht genug gezeigt hat, sich zunächst selbst mit dem Problem befasst zu haben.

Mag sein, dass das Zahlenrätsel innerhalb der Informatik eine valide Aufgabe ist. Sie ordnet sich gut ein in ähnliche Probleme. Ob es jedoch eine Aufgabe ist, die Sinn macht bleibt fraglich. Der wesentliche Punkt an der Aufgabe ist wohl, dass sie lösbar ist. Das heißt, jemand der die Lösung hat hat sie aufgeschrieben und wartet jetzt auf Zusendungen um entweder zu sagen: richtig / falsch. Ist das die Realität, kommen solche Probleme in der Praxis häufiger vor? Wohl kaum, in der Wissenschaft sind Aufgaben von denen neimand die Lösung weiß der Regelfall. Und im Regelfall werden Computersysteme durch Backdoors angegriffen die vorher nicht bekannt waren. Insofern ist die Situation dass innerhalb eines ausgedachten Regelsystems gearbeitet wird, etwas unübliches.

Der Grund warum solche Frage/Antwortspiele bei Geheimdiensten, in der Schule und an Universitäten sich hoher Beliebtheit erfreuen ist die Tatsache, dass man aufbauend darauf eine Gauß-Glockenkurve mit IQ-Werten zeichnen kann. Es geht dem GCHQ keineswegs darum, eine Antwort auf ihre Frage zu erhalten (die Antwort ist bekannt), sondern es geht darum zu ermitteln ob sie jemand anderes herausfindet um dadurch die Leute einzuteilen in Genie und Versager. Das ganze wird als negative Pädagogik bezeichnet und hat im Kern die Zielstellung Leute zu identifzieren die durchfallen. Aber ist das gleichbedeutend mit Wissenschaft, dass man Leute identizifiert die es nicht verstehen?

Schauen wir uns nochmal das Puzzle etwas genauer an. Es hat Ähnlichkeit mit dem was der große Alan Turing im Weltkrieg gemacht hat, als er den Code der Deutschen entziffert hat. Damals wurde zum Lösen des Puzzles ein Computer erfunden. Heute jedoch gibt es diesen Computer bereits. Das Rätsel ist jedoch das selbe. Macht es Sinn eine Aufgabe zu lösen die historisch in einem bestimmten Kontext stattgefunden hat, wenn heute dieser Kontext so nicht mehr existiert? Die Ausgangsbedingung bevor damals Alan Turing an die Aufgabe heranging war die Nichtexistenz von Computern. Im Jahr 1920 gab es lediglich Lochkartenmaschinen und Analog-Computer, jedoch keine Digitalcomputer mit denen man Codes entschlüsseln konnte. Erst die Erforderniss einen Verschlüsselungscode zu knacken hat zur Entwicklung von Colloseus geführt. Dieser wurde speziell für die Aufgabe programmiert.

Wer sich mit Geschichte nicht gut auskennt mag vielleicht glauben, dass sich in der Gegenwart immernoch dieses Prolbem stellen würde. Das es also darum geht Codes zu knacken, die jemand anderes verschlüsselt hat. So als ob man den Computer ein zweites Mal erfinden müsste. Aber welchen Sinn macht es, wenn man als Lösung für die Aufgabe des GCHQ einen Computer von Grund auf designt und dem GCHQ eine Beschreibung einer Turing-Maschine liefert? Richtig gar keine, man kann die Turing-Maschine nur einmal erfinden.

Und nochmal etwas zum Second Soldier Program

Zunächst zu den Fakten: Beim „Philop K. Dick Filmfestival 2016“ wurde ein Kurzfilm gezeigt, der den Titel trägt „Government Funded Robotics Reseach Experimenting on US Soldiers“, der sieben Minuten lang ist und vom Regisseur Henry Prince gedreht wurde. Quellen: http://www.thephilipkdickfilmfestival.com/program_16.html http://www.broadwayworld.com/article/2016-Philip-K-Dick-Science-Fiction-Film-Festival-to-Return-to-NYC-This-January-20151223

Der Film ist wie eine Dokumentation gemacht, bei dem jemand in die Kamera erzählt, dass er von jemanden anderen der mal bei bei Anonymous war, ein Zip-File enthalten hat, woraus hervorgeht, dass eine Organisiation namens RKS Dynamics einen Super-Roboter baut, der über Algen angetrieben wird und verdächtig wie ein Imitat von Chappie aus dem gleichnamigen Film aussieht.

Das merkwürdige daran ist, dass diese Kurzfilm durchaus mehr mit der Realität zu tun haben könnte als auf den ersten Blick es den Anschein hat. Wollen wir dochmal einige Fakten überprüfen. Die Organisation RKS Dynamics gibt es nicht, aber angenommen damit wäre das Pentagon gemeint. Das Gebäude was in dem Film gezeigt wird „Site SP-NY12“ gibt es auch nicht, es könnte sich dabei jedoch um eine Chamber handeln, wie sie beim „Mannequin protection Testing“ eingesetzt wird. Unter dieser Bezeichnung werden einerseits die Schaufensterpuppen bezeichnet die bei den Atomtests der 1950’er in die Häuser gesetzt wurden, aber in neuerer Zeit wird über Projekte wie Petman der Fokus auf die Erforschung von Bekleidung gerichtet ob sie gut vor Strahlung schützen.

Natürlich zeigt der Film nicht die Wirklichkeit. Wenn er war wäre, würde er wohl kaum beim Philip k. Filmfestival gelaufen, sondern anzunehmen ist, dass sich der Regisseur inspiriert wurden von Dingen die es in der Wirklichkeit gibt und sie lediglich etwas weiter phantasiert hat. Aber dennoch muss man sagen: gut gemacht. Den siebenmünitigen Kurzfilm anzuschauen macht Freude. Hier nochmal die URL unter der er aktuell zu finden ist.

Welche Möglichkeit gibt es, die Verschwörungstheorie als unwissenschaftlich zurückzuweisen? Im Kern geht es in dem Film um einen Roboter dessen Fähigkeiten höher sind, als das was bei echten Roboter-Challanges zu sehen ist. In der Realität ist ein Roboter nicht im Stande so perfekt zu rennen sondern die Teams bei der Robocup Challange haben bereits Probleme sich in einem Labyrinth zurechtzufinden. Die Frage ist, was macht den Unterschied aus zwischen dem im Film gezeigten Super-Roboter und den derzeit echten Robotern?

Fakt ist, dass in der Gegenwart in Sachen Computertechnik nur eine bestimmte Sorte von Hardware verfügbar ist. Die maximale Rechengeschwindigkeit welche ein Intel Prozessor liefert ist nach oben limitiert. Der Roboter in dem Film hingegen hatte scheinbar einen Quantencomputer der unendlich schnell war. Wenn man also beweisen könnte, dass man Künstliche Intelligenz nicht auf langsamen Computern ausführen kann wie sie in der Gegenwart verfügbar sind, wäre damit bewiesen, dass der Film nicht die Wirklichkeit abbildet. Die entscheidene Frage lautet: wieviel Gigaflops benötigt man für einen Roboter?