Computer Chronicles is an accurate computer museum

Getting realistic information about the past in computing is usually stored in museums. The biggest one is called “Computer history museum” and is located in Silicon Valley. It contains mostly of outdated hardware. A much more realistic way to experience outdated technology in real life is the tv-show Computer Chronicles. In the episode 11×07 “The internet (1993)” the beginning of online-communication was explained. In the show, not webbrowsers but gopher, telnet and ftp was used for getting access. In a side note the first Mosaic browser was mentioned, but it was too advanced for a life demonstration.

The early gopher and ftp based internet was mostly UNIX dominated. That means, the user had a terminal emulator on the screen and can put in commands. And then he get access to remote websites.

It is interesting, that an introduction to the internet itself was only available in the early 1990s. Today, such a tv show doesn’t make much sense, because the Internet is already there and only minor aspects can be discussed in the media. But in the year 1993 the internet was not invented yet. It was something which was only available in the people’s mind, it was a vision about the future.

Advertisements

What was wrong with the 1970s?

From a technical perspective the 70s was a great decade. Color television was there, videocameras too, the IBM 705 homecomputer worked great with 40 kb RAM and all the latest scientific papers were published on microfilm. But there was a small problem, the price. The IBM computer wasn’t sold like the C-64 for a mass audiance but it costs one million US$. The microfilm had a great resolution but the medium was expensive and the same was true for color television. From a technical perspective it was similar with today’s HDTV television but the price was huge.

What the decades after the 70s have realized wasn’t new technology and it wasn’t the internet but it was a massive cost reduction. That means, to transer a single bit over a telephone line becomes cheaper, recording a scene with a camera was affordable for everyone and be the prowd owner of a homecomputer was normal. The revolution had nothing to do with new cutlure or a different society, but with a reduced pricetag. That means, the same products available in the 70s were also sold in the 80s, but they cost 100x times less. This work hypothesis helps a lot to imagine the 70s. We have to only assume, that the price reduction will be taken back. Each decade the price is 100x more expensive. Let us make an example.

The iPhone costs in the now around 500 US$. The same product will cost in the 2000 100×500=50000 US$, the same device will cost in the 1990s 5 million us$, in the 80s 500 million and in the 70s around 50 billion us$. I don’t know if an iphone was sold in the 70s but if it was there it would costs this high price.

In the 70s there was no problem with the Internet, video compression or high-speed computers. The only problem which was there in the 70s was the economy. That means, the costs were high and nobody was able to buy consumer technology. I’m referencing to this problem because the same problem is visible in the 2010. Robots, Nanotechnology, holography and fast internet connection is technology invented right now. For example, the Honda Asimo robot is able to walk, run, open a bottle and he can even fall downstairs … The only problem with the device is, that it costs 100 million US$ each. If somebody is rich, he can buy an Asimo service robot today, but most people are not able to spend such amount of money.

From a technological perspective a computer contains of RAM, software and a cpu. But this description leaves out the economical dimension. A computer is at first a product. There is on the first hand a consumer and on the other side the supplier. To analyze new technology we must focus on the economic situation of the computer manufacturing company. The inventor of the ASIMO robot is Honda. They have a profile as a technology company compared to IBM in the 60s. That means the company is very powerful, has invented lots of things, and many of them are very advanced. Now let us focus how cheap Honda provides his knowledge. How many papers have the company uploaded to Google Scholar which describes how to build a robot? Answer: zero. That means, the company has a huge amount of robots, but it isn’t ready to share it for free. That means, the robot is available, the knowledge for programming the software is there but for the enduser the price is extreme high to get one of these items.

The consumer has the option to wait. If he waits 10 years from now, robots and papers about robot will become much cheaper. If he waits another 10 years, he can buy a service robot in his local store. Not because this technology will be invented in 20 years from now, but it would take so long until the price is low enough for ordinary customers.

The main problem in robotics is to invent the technology, but the problem is to reduce the price of technology which is already there. A low price is equal to reproduce technology from the past.

The latest invention of Honda is the E2-DR disaster response robot. From a technical point of view the device is great. It is the advanced system ever invented and contains lots of great patents. The only problem is the pricetag. Today, it is unknown how much the system costs, but it would be probably more then the Honda Asimo. So I would guess, that the out-of-the box version of E2-DR is sold for 1 billion US$ to the customers. But how would the world look like if the device is sold for 100 US$? I mean, the same product, but only cheaper. Yes, it would be equal to a revolution. Not technology prevents future but the pricetag.

Seit wann gibt es Computer?

Der erste Computer wurde in den 1930’er Jahren gebaut, oder etwa doch nicht? Schaut man sich die Geschichte der Rechenmaschinen an, so findet man bei sehr genauem Suchen viele Indizien die darauf hindeuten, dass schon weitaus früher Computer in Betrieb waren. Prominenter Fall dürfte wohl Ada Lovelace sein. Lange Zeit hat man angenommen, dass die Rechenmaschine von Charles Babbage entweder gar nicht gebaut wurde, oder aber noch kein Computer war. In neuerer Zeit hat sich jedoch herausgestellt, dass die alkohol- und spielsüchtige Ada Lovelace bereits Mini-Programme erstellt hat. So ähnlich ist es auch mit den Rechenmaschinen von Leibniz. Heute gibt es nur noch ungenaue Aufzeichnungen darüber, was Leibniz gebaut hat und was nicht. Schaut man jedoch etwas näher in die Vergangenheit so erkennt man, dass die Lochkartentechnik bereits vor dem Jacquardwebstuhl bekannt war und zwar hat sie nachweislich ein Herr Jean Baptiste Falcon verwendet. Es wäre also denkbar, wenn auch sehr unwahrscheinlich, dass Leibniz bereits die Analytical Engine konstruiert hat. Vom mechanischen Aufbau her wäre es möglich gewesen in der damaligen Zeit, bekanntlich reicht ein Meccano Spielzeugkasten aus, um eine derartige Machine zu bauen.

Das Problem ist nur, dass es im Grunde keine Rolle spielt ob der Computer schon früher bekannt war, dann aber wieder in Vergessenheit geriet. Denn die ersten echten Computer, die auch für nachfolgende Generationen nachvollziehbar realisiert wurden gab es erst von Konrad Zuse und späteren Bastlern. Es geht also nicht um die Maschine als solches, sondern es geht darum die Maschine zu veröffentlichen. Das hat Leibniz nachweislich nicht getan. Hätte er einen funktionsfähigen Computer gebaut und ihn der Nachwelt überliefert, dann würde er heute in einem Musum stehen, das tut er aber nicht. Vielleicht hat Leibniz ihn gebaut, vielleicht auch nicht, wenn man wissen will wie Computer funktionieren kann man sich nur an jenen Modellen orientieren die sehr viel später erfunden wurden. Aber das spielt eigentlich keine Rolle, weil das Konzept universell ist und unabhängig von Epochen, Erfindern und Überlieferungen funktionieren.

Nehmen wir mal an, es kommt zu einem 3. Weltkrieg und das komplette Wissen der Menschheit wird in einem Atomkrieg eingeäuschert. Natürlich würden alle Bibliotheken und alle Computer dabei vernichtet werden. Wäre damit die Idee des Computers auch erledigt? Wohl kaum, es würde nicht lange dauern, und die nachfolgende Generation würde das Konzept erneut für sich entdecken. Sie würde zuerst anfangen mit 10 Fingern zu zählen, dann würde sie eine Mathematik erfinden und wenig später die Notwendigkeit erkennen, diese zu automatisieren. Und schwubs wäre der Computer erneut in der Welt. Wenn überhaupt jemand als Erfinder für eine deartige Maschine in Frage kommt, dann nur der Herrgott selbst. Er hat sich das Konzept einmal ausgedacht als eine Art von Spiel, damit die Menschen wenn sie schon denken können sich nicht langweilen müssen, sondern immer etwas haben, an dem sie sich ausprobieren können. Man kann einen Computer wie eine Art von Geduldsspiel betrachten, vergleichbar mit einem Tangram oder einem Kreuzworträtsel. Es zu lösen bereitet Freude und deswegen hat dieses Spiel auch so viele Fans.

Vintage Computer shreddern

Aktuell schießen Computermuseuen wie Pilze aus dem Boden. Es gibt sogar eigene Festivals die sich mit älterer Computerhard- und Software beschäftigen. Ausgestellt sind dort Rechner von Commodore, Atari und IBM. Aber wie wäre es, wenn man zur Abwechslung alte Dinge nicht in einem Museum präsentiert sondern in einen Metall-Shredder zerkleinert? Ein sogeannanter E-Waste-Shredder ist der Höhepunkt eines echten Vintage Computer Festivals wo als Höhepunkt einige besonders wertvolle Sammlerstücke dem nimmersatten Zerkleinerer anvertraut wären. Leider gibt es dazu aktuell noch keine Videos auf Youtube. Was jedoch in einigen Videos aus dem Kontext “PC Shredding” zu sehen ist, waren zerkleinerte MS-DOS 6.22 Disketten, und Platinen die aus den 1990’er stammen und noch mit Pentium Prozessor ausgestattet waren. Wer traut sich, und shreddert einen goldenen C-64 (davon wurden nur wenige Stück produziert), oder wer shreddert eine funktionsfähige DEC PDP11 inkl. aller Magnetbänder?

Man könnte dochmal mit einem mobilen Shredder vor ein Computermuseum fahren … Na ja, jedenfalls gibt es da gewisse Gemeinsamkeiten. Beide Male geht es um ausrangierten Elektroschrott aus dem Profit gemacht gemacht. Beim Museum werden Eintrittsgelder kassiert und beim Elektroschrott-Verwerten geht es um die Metall-Rohstoffe.

Blogrezension Simulationsraum

In der wagen Hoffnung, dadurch ein wenig die Blogosphäre zu vernetzen möchte ich heute einmal kein Kommentar in einem externen Blog schreiben, sondern stattdessen ein anderes Blog rezensieren. Ausgesucht habe ich mir dazu http://www.simulationsraum.de/ Es handelt sich dabei um ein relativ aufwendig gestaltetes WordPress-Blog von einem Autor, der parallel dazu auch noch in den klassischen Medien wie Heise Artikel schreibt. Inhaltlich geht es in dem Blog überwiegend um Vintage Computing welches in einem gesellschaftlichen Kontext erzählt wird. So findet man Artikel über Computer aus dem kalten Krieg oder die Ethik von Drohnen. Auch Berichte über das Vintage Computing Festival und Computerspiele aus den 1980’er finden sich auf den Webseiten.

Um ehrlich zu sein, gefällt mir dieser Ansatz nicht besonders. Gerade in Deutschland gibt es das Problem, dass eine derartige Auseinandersetzung mit der Computergeschichte Hochkonjunktur hat. Gerade wurde beispielsweise das weltweit größte Computerspielemusum eröffnet und es gibt Dutzende von Computermuseen und Lehrveranstaltungen die sich mit einer Rückschau in die Welt von gestern beschäftigen. Der Grund dürfte wohl darin bestehen, dass man dabei wunderbar mit dem erhobenen Zeigefinger und mit einem Erzieherischen Duktus klassische Pädagogik betreiben kann, bei der die Rollen klar verteilt sind. Vorne am Pult die gealterte Lehrkraft welche aus persönlichen Schilderungen von ihrer Computervergangenheit erzählt und im Klassenzimmer die Schüler welche interessiert zuhören sonst aber keine weitere Funktion haben. Es ist Ausdruck von einer grundsätzlichen Technikfeindschaft wenn man sich für alte und längst nicht mehr zeitgemäße Technik begeistert. Das ganze wird zu einem Selbstzweck erhoben mit dem Ansatz Computer nicht mehr als Computer sondern nur als Episode innerhalb von Gesellschaft zu verstehen. Die Idee ist das Chaos überschaubar zu gestalten, was jedoch nicht gelingen kann.

Bei Computern ist es eben nicht wichtig, was vor 20 Jahren einmal ein gewisser Herr Bill Gates oder vor 50 Jahren einmal die Firma DEC gebaut hat und es ist auch nicht wichtig, wieviel kb RAM der C-64 hatte, sondern es handelt sich dabei ausnahmslos um nutzloses Wissen. Alte Computer gehören auf den Müll, nicht in ein Museum. Und nein, die Ausrichtung von Simulationsraum.de sagt mir überhaupt nicht zu. Es handelt sich dabei um eines von denjenen Blogs die komplett überflüssig sind.

Offenbar sehen das zuviele Leute anders. Es gibt dort relativ viel Traffic und die Bücher verkaufen sich ebenfalls in größeren Stückzahlen. Das Blog trifft also durchaus den Zeitgeist und genau das sollte Anlass zur Sorge geben. Ich meine, welchen Sinn macht es Leuten die ohnehin ein Problem mit Fortschritt haben, auch noch zu erzählen, dass es gut ist auf einem Amiga 500 zu spielen oder dass damals in den 1970’er die Computer großartig waren? Was auf http://www.simulationsraum.de/ betrieben wird, ist eine Verherrlichung von Vergangenheit die es so nicht gab. Echte Computer mit denen man etwas anfangen kann, gibt es erst seit dem Jahr 2000, die Zeit davor ist dunkelstes Mittelalter wo es weder Software gab, noch SSD Festplatten. Wozu also die Verherlichung von Gestern? Vermutlich wird das betrieben aus einem Ohnmachtsgefühl gegenüber der Gegenwart. Wer Angst hat vor dem Hier und Jetzt der flüchtet in ein Computermuseum wo die Welt übersichtlich ist. Dort gibt es chronologische Einordnung, erklärende Hinweisschilder und eine Verknüpfung mit den Geisteswissenschaften. Als Technikblog kann man http://www.simulationsraum.de/ nicht bezeichnen, es ist eher Altertumswissenschaft.

Alternative Geschichte des Computers

Wie die Computerentwicklung verlaufen ist, darüber besteht heute weitestgehend Einigkeit. Sie führte dazu, dass ab den 1980’er Jahren Computer als Heimcomputer verfügbar waren und ab den 1990’er das Internet entstand. Aber wie sähe die Welt aus, wenn der Computer schon viel früher erfunden worden wäre? Diese Steampunk-Utopie soll im folgenden erzählt werden.

Ausgangspunkt ist die Hypothese, dass zu jeder Zeit alle Informationen zur Verfügung standen und die jeweiligen Erfinder keine Umwege in Kauf nehmen mussten, sondern mit einer besonderen Zielorientierung ans Werk gingen. Das würde dann dazu führen, dass Gottfried Wilhelm Leibniz nicht nur die Staffelwalze erfunden hätte, sondern auch gleich noch einen binären Speicher und den ersten Turing-mächtigen Computer gebaut hätte. Dieser hätte so ähnlich ausgehen wie die Zuse Z1, nur eben viele Jahre früher. Aufbauend auf dieser Erfindung hätte dann Charles Babbage die Erfindung des Transistors (1835) dazu verwendet, die Geschindigkeit dieser Maschine drastisch zu steigern. Später hätte Babbage dann die integrierte Schaltung und den Microchip verwendet um die Strukturbreite zu vekleinern. Jetzt befinden wir uns im bereits im Jahr 1880. Und dann kam Nikola Tesla. Er hätte sich ansgeschaut, was die Leute vor ihm erfunden hätten: den mechanischen turing-mächtigen Computer von Leibniz, den Microchip von Babbage und die nächste größere Erfindung wäre dann bereits der Quantencomputer gewesen. Tesla hätte also mit Supraleitung und Qubits einen Quantencomputer gebaut und auf diesem dann die komplette Welt simuliert. Und dann? Ab diesem Zeitpunkt wäre die Welt in einer Art von Matrix verschwunden, so wie in dem Film “Welt am Draht”. Das heißt, alles um uns herum ist nur noch ein Computerprogramm, es ist künstlich geschaffen auf dem Rechner von Nikola Tesla und unter Kontrolle der Ford-Programmiersprache.

Obwohl der eine oder andere vielleicht sagen wird: “Hey cool, genau so war es” ist die Geschichte leider wertlos. Und zwar deshalb, weil man daraus nicht lernt, wie man einen Quantencomputer baut oder wie man mit den Hilfsmitteln aus der Babbage-Äre einen integrierten Schaltkreis baut. Die oben ausgebreitete Geschichte muss man deshalb anders erzählen und zwar indem man sie debunked. Damit ist gemeint, dass man anhand von zeitgenössischen Quellen nachweist, warum es eben nicht so abgelaufen sein kann. Das also Charles Babbage unmöglich hat einen Chip entwickeln können mit einer Strukturbreite von 180 nm weil zu der damligen Zeit das entsprechende Mikroskop noch gar nicht erfunden war. Leider ist es schwer, das Debunkung korrekt zu tun weil man dafür schon viel Detailwissen benötigt.

Wenn man sich die obige Steam-Punk Erzählung von der Computerentwicklung anschaut, wird man erkennen, dass die Abfolge korrekt ist, und lediglich alles um 100 Jahre früher stattgefunden hat. So wurde der echte integrierte Schaltkreis im Jahr 1980 massenhaft produziert, und nicht wie in der Erzählung schon 1880. Auch den echten Quantencomputer gibt es (DWAVE 2x), aber der war erst im Jahr 2016 einsatzbereit und nicht bereits 1916. Das heißt, verschiebt man einfach nur die Jahreszahlen um 100 Jahre nach hinten wird aus der eingangs höchst spekulativen Geschichte plötzlich eine Realität, die nicht nur als wahr bezeichnet wird, sondern sogar von sehr vielen Leuten als wahr bezeichnet wird. Aber warum sind diese 100 Jahre so entscheident, warum hat Babbage nicht schon 1830 mit Relais einen Computer gebaut? Denn immerhin gab es damals bereits Relais und die Idee einer Rechenmaschine gab es auch schon. Eine echte Antwort darauf geben kann man nicht. Man kann allenfalls wie weiter oben empfohlen, anhand von zeitgenössischen Quellen darauf hinweisen, dass es nicht passiert ist. Das heißt, wenn man tief genug in den Archiven des Jahres 1830 wird man nachweisen können, dass die Relais die damals in der Nachrichtentechnik verwendet wurden und den Erfordernissen die Babbage besaß es zu große Unterschiede gab, die letztlich dazu führten, dass es rund 100 Jahre dauerte, bis beides zusammengebracht wurde.

Obwohl die eingangs erzählte Kurze Geschichte der Computer komplett erlogen ist, bildet sich dennoch die Basis um ernsthafte Computerhistorienforschung zu betreiben. Alles, was man an Quellen zu dem Thema findet, wird im Grunde die obige steile These wiederlegen. Und deshalb habe ich sie erzählt. Weil es im Grunde keine Antithese ist, sondern es ist eine Art von Provokation. Man erzählt sie als Einstieg um dann im Detail herauszuarbeiten, wie es wirklich war.

Die Frage ist keineswegs, was ist wahr, sondern die Frage lautet: was lässt sich detailierter ausschmücken. Die These, dass Babbage im Jahr 1830 bereits mit Relais experimentiert hat, ist zwar schnell erzählt und vielleicht gibt es irgendwo auch eine Fußnote die sowas andeutet, doch wenn man alle Quellen studiert ist die These nicht haltbar. Es gibt zu vieles was dagegenspricht. Vielmehr handelt es sich um eine typische Verschwörungstheorie von der deren Verbreiter wissen, dass es gelogen ist und deshalb macht es ja auch soviel Spaß sie zu erzählen. Von 100 exstierenden Quellen aus der Babbage Forschung kann man vielleicht 0,1 Quellen dazu nutzen, um die Verschwörung zu belegen, aber 99,9 Quellen sprechen dagegen.

Andererseits kann man die Wahrheit über Babbage nicht erzählen, wenn man die Verschwörung unberücksichtigt lässt. Das ist so ähnlich als wenn die Hausfrau auf das Salz in der Suppe verzichten würde, es ist ein wichtiger Bestandteil des Ganzen. Die Synthese aus beidem ist dann ein Streit zwischen seriöser und spekulativer Babbage Forschung. Das also beide Positionen existieren und die Erklärung sich zwischen beiden Polen abspielt.

Alternativ-Geschichte des Computers

Schaut man sich die Geschichte der Künstlichen Intelligenz an, so findet man im Laufe der Historie immer wieder Erfinder, die ihrer Zeit scheinbar vorauswaren und an ihrer Zeit gescheitert sind. Dies wird als “verkanntes Genie” bezeichnet. Als Erklärungsmuster findet sich dabei, dass die Kirche oder die Gesellschaft noch nicht so weit war, und die Erfinder verlacht hat und sie daran gehindert hat ihre Ideen zu realisieren. Aber sind das wirklich Einzelschicksale oder ist es vielmehr so, dass die Geschichtsschreibung das Stilmittel des Verkannten Genies einsetzt um zu begründen, warum die Technik erst mit einer gewissen Verzögerung bereitstand?

Nehmen wir mal an, dass man das Stilmittel des verkannten Genies aus der Geschichtsschreibung entfernt und stattdessen davon ausgeht, dass die Kirche als zentrale Insitution zu allen Zeiten fortschrittsfreundlich war und die Erfinder unterstützt und gefördert hat. Was wäre davon die Folge gewesen? Dazu müssen wir sehr in die Details gehen. Beginnen möchte ich bei Gottfried Wilhelm Leibniz (1646-1716). Wenn man sich mit neueren Untersuchungen seiner Schriften beschäftigt wird man erkennen, dass Leibniz nicht nur die vier Speziesrechenmaschine in Binärdarstellung erfunden hat, sondern auch das Prinzip der Staffelwalze in einer kryptographischen Maschine angewendet hat. Aus heutiger Perspektive würde man sagen, dass Leibniz den ersten turing-mächtigen Computer gebaut hat, der so ähnlich ausgesehen hat, wie die Orgel-Maschine von Konrad Zuse (gemeint ist die Zuse Z3). Aber dazu später mehr.

Gehen wir also davon aus, dass im Jahr 1716 im Geheimkeller vom Vatikan eine funktionierende Turing-mächtige Rechenmaschine existierte, die einfache mathematische Operationen in Gleitkomma-Arithmetik ausführen konnte. Die nächst logische Erfindung wurde dann von Jacques de Vaucanson (1709-1782) getätigt und zwar die Anwendung dieser Technik auf die Automatisierung von menschlicher Arbeit. Die Zeit in der er lebte entspricht ungefähr dem, was Gibson/Sterlin als Steampunk bezeichnen. Also eine Epoche in der der Computer bereits erfunden war, Lochkarten das gebräuchliche Speichermedium waren, und auf dieser Basis dann einfache Roboter möglich wurden.

Charles Babbage (1791-1871) hat dann den Kelch des Wissens genommen und weiterentwickelt. Er hat die Elektrifizierung des Computers vorangetrieben. Also mechanische Walzen durch Relais und integrierte Schaltkreise ersetzt. Als Babbage im Jahr 1871 gestorben ist, verfügte der Vatikan bereits über einen vollfunktionensfähigen elektronischen Supercomputer der ungefähr der Rechenleistung eines Cray-Supercomputers entsprach.

Der nächste große Erfinder war Nikola Tesla (1856-1943). Er hat nahtlos dort weitergemacht wo Babbage aufgehört hat. Anders als viele Verschwörungsparanoiker behaupten, hat Tesla keineswegs die freie Energie erfunden, sondern er hat ein Gerät erfunden, mit dem man freie Energie messen kann. Schaut man sich die Patentzeichnungen von Tesla genau an, so ist dort nichts geringeres als ein Quantum Logic Gate enthalten (also ein Quantencomputer der ungefähr dem entspricht, was gerade die Firma dwave nachzubauen versucht).

Wie bereits in der Einleitung angedeutet, ist das nur eine Alternativ-Geschichte. Sie würde dann entstehen, wenn man aus der Geschichte alle gescheiterten Genies entfernt und unterstellt, dass sie zu Lebzeiten die volle Unterstützung ihrer Zeit erhielten. Wir alle wissen, dass das jedoch so nicht wahr ist. Wie wissen, dass Leibniz, Vaucanson, Babbage und Tesla von der Obrigkeit bekämpft wurden, weil sie Dinge entwickelt haben, welche zu fortschrittlich waren. Der eigentliche Motor der Geschichtsschreibung war also nicht die Wissenschaft, sondern es war das poltisch/religiöse Klima, was zu jeder Zeit in den letzten 400 Jahren die Weiterentwicklung des Computers erschwert hat. So dass es eben nicht zur Realisierung kam, sondern alles mit einer Verzöerung von rund 100 Jahren umgesetzt wurde. Babbage hätte zwar den ersten Mikrochip bauen können, es hat dann aber erst Intel gemacht. Tesla hätte zwar den Quantencomputer bauen können, realisiert wurde er aber erst von dwave.

Die Frage ist: Wenn Tesla bereits den Quantencomputer gebaut hat was wurde dann ab 1945 entwickelt? Das wird in dem Film Metropolis (1927) erläutert. Der Film endet damit, dass die geknächteten Arbeiter ihr Schicksal erkennen und die Maschinen zerstören (Luddismus). Schaut man sich die Geschichte der Technik an, so wurde das zwar bereits häufiger thematisiert (Weberaufstand), doch es ist bisher nicht als tatsächlicher Fakt eingetreten. Das heißt, es gibt bisher keine Gesellschaftsordnung welcher sich als anti-technisch versteht also das Zerstören von Robotern als ihre wichtigste Aufgabe versteht. Insofern könnte man die Zeit nach Erfindung des Quantencomputers als Neoluddismus prognostizieren.

kRITIK
Nachdem im ersten Teil dieses Blog-Postings eine alternative Zeitlinie erläutert wurde, so soll dazu noch ein Gegenentwurf ausgebreitet werden. In der obigen beschleunigten Zeitlinie wurde bereits 1716 der erste Turing-mächtige Computer konstruiert (von Leibniz). Aber was ist, wenn man sich damit noch etwas Zeit lässt und selbst im Jahr 2016 noch vor diese Erfindung zurückgeht? Auf dem letzten Vintage Computer Festival wurde eine Maschine vorgestellt, die nochnichtmal in der Lage war, ein Programm auszuführen. Gemeint ist ein Differential Analyzer, also ein Analog-Computer. Zumindest auf dem Festival war man mehrere Jahrhundert hinter der eigentlichen Zeitlinie zurück. Und wer weiß, vielleicht gibt es nächstes Jahr sogar einen Abacus Tischrechner zu sehen, der noch älter ist.